RU2609083C2 - Image encoding method, image decoding method, image encoding device and image decoding device - Google Patents
Image encoding method, image decoding method, image encoding device and image decoding device Download PDFInfo
- Publication number
- RU2609083C2 RU2609083C2 RU2013147415A RU2013147415A RU2609083C2 RU 2609083 C2 RU2609083 C2 RU 2609083C2 RU 2013147415 A RU2013147415 A RU 2013147415A RU 2013147415 A RU2013147415 A RU 2013147415A RU 2609083 C2 RU2609083 C2 RU 2609083C2
- Authority
- RU
- Russia
- Prior art keywords
- reference image
- image
- motion vector
- block
- term reference
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
2420-510149RU/172420-510149EN / 17
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕFIELD OF THE INVENTION
[0001] Настоящее изобретение относится к способу кодирования изображений для кодирования каждого из блоков изображений.[0001] The present invention relates to a method of encoding images for encoding each of the image blocks.
УРОВЕНЬ ТЕХНИКИBACKGROUND
[0002] Технология, связанная со способом кодирования изображений для кодирования каждого из блоков изображений, описывается в непатентном документе (NPL) 1.[0002] A technology associated with an image encoding method for encoding each of the image blocks is described in Non-Patent Document (NPL) 1.
СПИСОК БИБЛИОГРАФИЧЕСКИХ ССЫЛОКLIST OF BIBLIOGRAPHIC REFERENCES
НЕПАТЕНТНЫЕ ДОКУМЕНТЫNON-PATENT DOCUMENTS
[0003] [NPL 1] ISO/IEC 14496-10 - MPEG-4 Part 10, Advanced Video Coding[0003] [NPL 1] ISO / IEC 14496-10 - MPEG-4 Part 10, Advanced Video Coding
СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION
ТЕХНИЧЕСКАЯ ЗАДАЧАTECHNICAL PROBLEM
[0004] Тем не менее, возникают случаи, когда традиционный способ кодирования изображений не позволяет достигать достаточно высокой эффективности кодирования.[0004] However, there are cases when the traditional method of encoding images does not allow to achieve a sufficiently high encoding efficiency.
[0005] С учетом этого, настоящее изобретение предоставляет способ кодирования изображений, который позволяет повышать эффективность кодирования при кодировании изображений.[0005] With this in mind, the present invention provides an image encoding method that can improve the encoding efficiency when encoding images.
РЕШЕНИЕ ЗАДАЧИTHE SOLUTION OF THE PROBLEM
[0006] Способ кодирования изображений согласно аспекту настоящего изобретения является способом кодирования изображений для кодирования каждого из блоков изображений, причем способ кодирования изображений включает в себя: извлечение кандидата для вектора движения текущего блока, который должен быть кодирован, из вектора движения совместно размещенного блока, который является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок; добавление извлеченного кандидата в список; выбор вектора движения текущего блока из списка, в который добавлен кандидат; и кодирование текущего блока с использованием выбранного вектора движения и опорного изображения текущего блока, при этом извлечение включает в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением; извлечение кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения, которая не заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения, которая заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0006] An image encoding method according to an aspect of the present invention is an image encoding method for encoding each of the image blocks, the image encoding method including: extracting a candidate for a motion vector of a current block to be encoded from a motion vector of a co-located block that is a block included in an image other than an image that includes the current block; adding the extracted candidate to the list; selection of the motion vector of the current block from the list to which the candidate is added; and encoding the current block using the selected motion vector and the reference image of the current block, the extraction includes: determining whether the reference image of the current block is a long-term reference image or a short-term reference image, and whether the reference image of the co-located block is long-term reference image or short-term reference image; extracting the candidate from the motion vector of the co-located block by means of a first extraction circuit that does not include scaling based on the time distance, in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate from the motion vector of the co-located block by means of a second extraction scheme that incorporates scaling based on the time distance, in the event that it is determined that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image.
[0007] Эти общие и конкретные аспекты могут быть реализованы с использованием системы, устройства, интегральной схемы, компьютерной программы или энергонезависимого машиночитаемого носителя записи, такого как CD-ROM, либо любой комбинации систем, устройств, способов, интегральных схем, компьютерных программ их носителей записи.[0007] These general and specific aspects can be implemented using a system, device, integrated circuit, computer program or non-volatile computer-readable recording medium such as a CD-ROM, or any combination of systems, devices, methods, integrated circuits, computer programs of their media records.
ПРЕИМУЩЕСТВА ИЗОБРЕТЕНИЯAdvantages of the Invention
[0008] Способ кодирования изображений согласно настоящему изобретению предоставляет способ кодирования изображений, который позволяет повышать эффективность кодирования при кодировании изображений.[0008] An image encoding method according to the present invention provides an image encoding method that can improve the encoding efficiency when encoding images.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS
[0009] Фиг. 1 является блок-схемой последовательности операций способа, показывающей работу устройства кодирования изображений согласно справочному примеру.[0009] FIG. 1 is a flowchart showing an operation of an image encoding apparatus according to a reference example.
Фиг. 2 является блок-схемой последовательности операций способа, показывающей работу устройства декодирования изображений согласно справочному примеру.FIG. 2 is a flowchart showing an operation of an image decoding apparatus according to a reference example.
Фиг. 3 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения согласно справочному примеру.FIG. 3 is a flowchart showing details of an extraction process according to a reference example.
Фиг. 4 является схемой для пояснения совместно размещенного блока согласно справочному примеру.FIG. 4 is a diagram for explaining a co-located unit according to a reference example.
Фиг. 5 является блок-схемой устройства декодирования изображений согласно варианту 1 осуществления.FIG. 5 is a block diagram of an image decoding apparatus according to
Фиг. 6 является блок-схемой устройства декодирования изображений согласно варианту 1 осуществления.FIG. 6 is a block diagram of an image decoding apparatus according to
Фиг. 7 является блок-схемой последовательности операций способа, показывающей работу устройства кодирования изображений согласно варианту 1 осуществления.FIG. 7 is a flowchart showing an operation of an image encoding apparatus according to
Фиг. 8 является блок-схемой последовательности операций способа, показывающей работу устройства декодирования изображений согласно варианту 1 осуществления.FIG. 8 is a flowchart showing an operation of an image decoding apparatus according to
Фиг. 9 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения согласно варианту 1 осуществления.FIG. 9 is a flowchart showing details of an extraction process according to
Фиг. 10 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения согласно варианту 2 осуществления.FIG. 10 is a flowchart showing details of an extraction process according to
Фиг. 11 является схемой для пояснения совместно размещенного блока согласно варианту 2 осуществления.FIG. 11 is a diagram for explaining a co-located unit according to
Фиг. 12 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения согласно варианту 3 осуществления.FIG. 12 is a flowchart showing details of an extraction process according to
Фиг. 13A является блок-схемой устройства декодирования изображений согласно варианту 4 осуществления.FIG. 13A is a block diagram of an image decoding apparatus according to
Фиг. 13B является блок-схемой последовательности операций способа, показывающей работу устройства кодирования изображений согласно варианту 4 осуществления.FIG. 13B is a flowchart showing an operation of an image encoding apparatus according to
Фиг. 14A является блок-схемой устройства декодирования изображений согласно варианту 4 осуществления.FIG. 14A is a block diagram of an image decoding apparatus according to
Фиг. 14B является блок-схемой последовательности операций способа, показывающей работу устройства декодирования изображений согласно варианту 4 осуществления.FIG. 14B is a flowchart showing an operation of an image decoding apparatus according to
Фиг. 15A является схемой, показывающей первый пример местоположения хранения для параметра, указывающего классификацию опорных изображений.FIG. 15A is a diagram showing a first example of a storage location for a parameter indicating a classification of reference images.
Фиг. 15B является схемой, показывающей второй пример местоположения хранения для параметра, указывающего классификацию опорных изображений.FIG. 15B is a diagram showing a second example of a storage location for a parameter indicating a classification of reference images.
Фиг. 15C является схемой, показывающей третий пример местоположения хранения для параметра, указывающего классификацию опорных изображений.FIG. 15C is a diagram showing a third example of a storage location for a parameter indicating a classification of reference images.
Фиг. 16 является схемой, показывающей пример местоположения хранения для параметра, указывающего режим прогнозирования.FIG. 16 is a diagram showing an example of a storage location for a parameter indicating a prediction mode.
Фиг. 17 иллюстрирует общую конфигурацию системы предоставления контента для реализации услуг распространения контента.FIG. 17 illustrates the overall configuration of a content delivery system for implementing content distribution services.
Фиг. 18 иллюстрирует общую конфигурацию системы цифровой широковещательной передачи.FIG. 18 illustrates the overall configuration of a digital broadcast system.
Фиг. 19 является блок-схемой, иллюстрирующей пример конфигурации телевизионного приемника.FIG. 19 is a block diagram illustrating an example configuration of a television receiver.
Фиг. 20 является блок-схемой, иллюстрирующей пример конфигурации модуля воспроизведения/записи информации, который считывает и записывает информацию с или на носитель записи, который является оптическим диском.FIG. 20 is a block diagram illustrating an example configuration of an information reproducing / recording unit that reads and writes information from or to a recording medium that is an optical disk.
Фиг. 21 показывает пример конфигурации носителя записи, который является оптическим диском.FIG. 21 shows an example configuration of a recording medium that is an optical disc.
Фиг. 22A показывает пример сотового телефона.FIG. 22A shows an example of a cell phone.
Фиг. 22B показывает пример конфигурации сотового телефона.FIG. 22B shows an example configuration of a cell phone.
Фиг. 23 показывает структуру мультиплексированных данных.FIG. 23 shows the structure of multiplexed data.
Фиг. 24 схематично иллюстрирует то, как каждый из потоков мультиплексируется в мультиплексированные данные.FIG. 24 schematically illustrates how each of the streams is multiplexed into multiplexed data.
Фиг. 25 иллюстрирует то, как видеопоток сохраняется в потоке PES-пакетов.FIG. 25 illustrates how a video stream is stored in a stream of PES packets.
Фиг. 26 показывает структуру TS-пакетов и исходных пакетов в мультиплексированных данных.FIG. 26 shows the structure of TS packets and source packets in multiplexed data.
Фиг. 27 показывает структуру данных PMT.FIG. 27 shows a PMT data structure.
Фиг. 28 показывает внутреннюю структуру информации мультиплексированных данных.FIG. 28 shows an internal structure of multiplexed data information.
Фиг. 29 показывает внутреннюю структуру информации атрибутов потока.FIG. 29 shows an internal structure of stream attribute information.
Фиг. 30 показывает этапы для идентификации видеоданных.FIG. 30 shows the steps for identifying video data.
Фиг. 31 является блок-схемой, иллюстрирующей пример конфигурации интегральной схемы для реализации способа кодирования движущихся изображений и способа декодирования движущихся изображений согласно каждому из вариантов осуществления.FIG. 31 is a flowchart illustrating an example configuration of an integrated circuit for implementing a moving image coding method and a moving image decoding method according to each of the embodiments.
Фиг. 32 показывает конфигурацию для переключения между частотами возбуждения.FIG. 32 shows a configuration for switching between driving frequencies.
Фиг. 33 показывает этапы для идентификации видеоданных и переключения между частотами возбуждения.FIG. 33 shows the steps for identifying video data and switching between driving frequencies.
Фиг. 34 показывает пример таблицы поиска, в которой стандарты видеоданных ассоциированы с частотами возбуждения.FIG. 34 shows an example of a lookup table in which video data standards are associated with driving frequencies.
Фиг. 35A показывает пример конфигурации для совместного использования модуля процессора сигналов.FIG. 35A shows an example configuration for sharing a signal processor module.
Фиг. 35B показывает другой пример конфигурации для совместного использования модуля процессора сигналов.FIG. 35B shows another configuration example for sharing a signal processor module.
ПОДРОБНОЕ ОПИСАНИЕ ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯDETAILED DESCRIPTION OF EMBODIMENTS
[0010] БАЗОВАЯ ОСНОВА ФОРМИРОВАНИЯ ЗНАНИЙ НАСТОЯЩЕГО ИЗОБРЕТЕНИЯ[0010] BASIC BASIS FOR FORMING KNOWLEDGE OF THE PRESENT INVENTION
Относительно способа кодирования изображений, раскрытого в разделе "Уровень техники", авторы изобретения обнаружили следующую проблему. Следует отметить, что в нижеприведенном описании, изображение может быть любым из движущегося изображения, состоящего из множества изображений, неподвижного изображения, состоящего из одного изображения, части изображения и т.п.Regarding the method of encoding images disclosed in the section "prior art", the inventors have discovered the following problem. It should be noted that in the description below, the image may be any of a moving image, consisting of many images, a still image, consisting of one image, part of the image, etc.
[0011] Схемы кодирования изображений в последние годы включают в себя MPEG-4 AVC/H.264 и HEVC (стандарт высокоэффективного кодирования видео). В этих схемах кодирования изображений доступно внешнее (inter-) прогнозирование с использованием кодированных опорных изображений.[0011] Image encoding schemes in recent years include MPEG-4 AVC / H.264 and HEVC (high performance video encoding standard). In these image coding schemes, external (inter-) prediction using encoded reference images is available.
[0012] Кроме того, в этих схемах кодирования изображений может быть использовано опорное изображение, называемое долговременным опорным изображением. Например, в случае, если опорное изображение сохраняется в DPB (буфере декодированных (графических) изображений) в течение длительного времени, опорное изображение может быть использовано в качестве долговременного опорного изображения.[0012] In addition, a reference image called a long-term reference image may be used in these image coding schemes. For example, if the reference image is stored in a DPB (buffer of decoded (graphic) images) for a long time, the reference image can be used as a long-term reference image.
[0013] В HEVC существует режим, называемый режимом слияния. В режиме слияния предиктор вектора движения, полученный посредством прогнозирования вектора движения текущего блока из вектора движения смежного блока и т.п., используется для кодирования текущего блока в качестве вектора движения текущего блока. Иными словами, в режиме слияния предиктор вектора движения обрабатывается в качестве вектора движения текущего блока. Предиктор вектора движения и вектор движения текущего блока в режиме слияния также упоминаются как вектор слияния.[0013] In HEVC, there is a mode called a merge mode. In merge mode, the motion vector predictor obtained by predicting the motion vector of the current block from the motion vector of an adjacent block, etc., is used to encode the current block as the motion vector of the current block. In other words, in merge mode, the motion vector predictor is processed as the motion vector of the current block. The motion vector predictor and the motion vector of the current block in merge mode are also referred to as the merge vector.
[0014] В HEVC, также может быть использован временной предиктор вектора движения. Временной предиктор вектора движения извлекается из вектора движения совместно размещенного блока в кодированном совместно размещенном изображении. Координаты совместно размещенного блока в совместно размещенном изображении соответствуют координатам текущего блока в текущем изображении, которое должно быть кодировано.[0014] In HEVC, a temporal motion vector predictor can also be used. The temporal predictor of the motion vector is extracted from the motion vector of the co-located block in the coded co-located image. The coordinates of the co-located block in the co-located image correspond to the coordinates of the current block in the current image to be encoded.
[0015] Далее, вектор движения совместно размещенного блока также упоминается как совместно размещенный вектор движения, и опорное изображение совместно размещенного блока также упоминается как совместно размещенное опорное изображение. Совместно размещенный блок кодируется с использованием совместно размещенного вектора движения и совместно размещенного опорного изображения. Следует отметить, что "совместно размещенный (co-located)" также может записываться как "совместно размещенный (collocated)".[0015] Further, the motion vector of the co-located block is also referred to as the co-located motion vector, and the reference image of the co-located block is also referred to as the co-located reference image. A co-located block is encoded using a co-located motion vector and a co-located reference image. It should be noted that “co-located” can also be written as “collocated”.
[0016] Аналогично, вектор движения текущего блока также упоминается как текущий вектор движения, и опорное изображение текущего блока также упоминается как текущее опорное изображение. Текущий блок кодируется с использованием текущего вектора движения и текущего опорного изображения.[0016] Similarly, the motion vector of the current block is also referred to as the current motion vector, and the reference image of the current block is also referred to as the current reference image. The current block is encoded using the current motion vector and the current reference image.
[0017] Вышеупомянутые текущий блок и совместно размещенный блок представляют собой единицу прогнозирования (PU). Единица прогнозирования является блоком изображения и задается как единица данных для прогнозирования. В HEVC, единица кодирования (CU) задается как единица данных для кодирования, отдельно от единицы прогнозирования. Единица прогнозирования является блоком в единице кодирования. В нижеприведенном описании, термин "блок" может быть заменен "единицей прогнозирования" или "единицей кодирования".[0017] The aforementioned current block and co-located block are a prediction unit (PU). A prediction unit is an image block and is defined as a data unit for prediction. In HEVC, a coding unit (CU) is defined as a unit of data for coding, separate from a prediction unit. A prediction unit is a block in a coding unit. In the description below, the term “block” may be replaced by “prediction unit” or “coding unit”.
[0018] Единица кодирования и единица прогнозирования не являются фиксированными по размеру. Например, одно изображение может включать в себя множество единиц кодирования с различными размерами, и одно изображение может включать в себя множество единиц прогнозирования с различными размерами.[0018] The coding unit and the prediction unit are not fixed in size. For example, a single image may include a plurality of coding units with different sizes, and a single image may include a plurality of prediction units with different sizes.
[0019] Это может приводить к случаю, когда блок, который точно совпадает с областью текущего блока, не задается в совместно размещенном изображении. Соответственно, в HEVC, совместно размещенный блок выбирается из множества блоков, включенных в совместно размещенное изображение посредством предварительно определенного способа выбора.[0019] This may lead to a case where a block that exactly matches the region of the current block is not defined in the shared image. Accordingly, in HEVC, a co-located block is selected from a plurality of blocks included in the co-located image by a predetermined selection method.
[0020] Временной предиктор вектора движения генерируется посредством масштабирования вектора движения выбранного совместно размещенного блока на базе расстояния POC (счетчика последовательности изображения). POC являются порядковыми числами, назначаемыми изображениям в порядке отображения. POC-расстояние соответствует временному расстоянию между двумя изображениями. Масштабирование на основе POC-расстояния также упоминается как масштабирование на основе POC. Выражение 1 ниже является арифметическим выражением для выполнения масштабирования на основе POC для вектора движения совместно размещенного блока.[0020] A temporal motion vector predictor is generated by scaling a motion vector of a selected co-located block based on a POC distance (image sequence counter). POCs are ordinals assigned to images in display order. The POC distance corresponds to the time distance between two images. POC distance scaling is also referred to as POC based scaling.
[0021] pmv=(tb/td)×colmv (выражение 1).[0021] pmv = (tb / td) × colmv (expression 1).
[0022] Здесь, colmv является вектором движения совместно размещенного блока; pmv является временным предиктором вектора движения, извлекаемым из вектора движения совместно размещенного блока; tb является POC-расстоянием со знаком, представляющим разность между текущим изображением и текущим опорным изображением; td является POC-расстоянием со знаком, представляющим разность между совместно размещенным изображением и совместно размещенным опорным изображением.[0022] Here, colmv is a motion vector of a co-located block; pmv is a temporary motion vector predictor extracted from the motion vector of a co-located block; tb is a signed POC distance representing the difference between the current image and the current reference image; td is a signed POC distance representing the difference between the co-located image and the co-located reference image.
[0023] В случае, если присутствует допустимый временной предиктор вектора движения, временной предиктор вектора движения вставляется в упорядоченный список кандидатов текущих векторов движения. Вектор движения, используемый для кодирования текущего блока, выбирается из упорядоченного списка кандидатов текущих векторов движения. Выбранный вектор движения указывается посредством параметра в потоке битов.[0023] In the event that a valid motion vector predictor is present, the motion vector predictor is inserted into the ordered list of candidates of the current motion vectors. The motion vector used to encode the current block is selected from an ordered list of candidates for the current motion vectors. The selected motion vector is indicated by a parameter in the bit stream.
[0024] Фиг. 1 является блок-схемой последовательности операций способа, показывающей работу устройства кодирования изображений согласно справочному примеру. В частности, фиг. 1 показывает процесс кодирования изображения посредством внешнего прогнозирования.[0024] FIG. 1 is a flowchart showing an operation of an image encoding apparatus according to a reference example. In particular, FIG. 1 shows an image encoding process by means of external prediction.
[0025] Во-первых, устройство кодирования изображений классифицирует каждое из опорных изображений в качестве кратковременного опорного изображения или в качестве долговременного опорного изображения (этап S101). Устройство кодирования изображений записывает информацию, указывающую классификацию каждого из опорных изображений, в заголовке потока битов (этап S102).[0025] First, the image encoding apparatus classifies each of the reference images as a short-term reference image or as a long-term reference image (step S101). The image encoding device records information indicating the classification of each of the reference images in the header of the bit stream (step S102).
[0026] Затем, устройство кодирования изображений идентифицирует текущее опорное изображение (этап S103). Устройство кодирования изображений далее извлекает текущий вектор движения (этап S104). Ниже подробно описывается процесс извлечения.[0026] Then, the image encoding apparatus identifies the current reference image (step S103). The image encoding apparatus further extracts the current motion vector (step S104). The extraction process is described in detail below.
[0027] После этого, устройство кодирования изображений генерирует блок прогнозирования посредством выполнения компенсации движения с использованием текущего опорного изображения и текущего вектора движения (этап S105).[0027] After that, the image encoding device generates a prediction block by performing motion compensation using the current reference image and the current motion vector (step S105).
[0028] После этого, устройство кодирования изображений вычитает блок прогнозирования из текущего блока, чтобы генерировать остаточный блок (этап S106). В завершение, устройство кодирования изображений кодирует остаточный блок, чтобы генерировать поток битов, включающий в себя кодированный остаточный блок (этап S107).[0028] After that, the image encoding device subtracts the prediction block from the current block to generate a residual block (step S106). Finally, the image encoding apparatus encodes a residual block to generate a bit stream including an encoded residual block (step S107).
[0029] Фиг. 2 является блок-схемой последовательности операций способа, показывающей работу устройства декодирования изображений согласно справочному примеру. В частности, фиг. 2 показывает процесс декодирования изображения посредством внешнего прогнозирования.[0029] FIG. 2 is a flowchart showing an operation of an image decoding apparatus according to a reference example. In particular, FIG. 2 shows an image decoding process by inter prediction.
[0030] Во-первых, устройство декодирования изображений получает поток битов и получает информацию, указывающую классификацию каждого из опорных изображений, посредством синтаксического анализа заголовка потока битов (этап S201). Устройство декодирования изображений также получает остаточный блок посредством синтаксического анализа потока битов (этап S202).[0030] First, the image decoding apparatus receives the bitstream and obtains information indicating the classification of each of the reference images by parsing the header of the bitstream (step S201). The image decoding apparatus also obtains a residual block by parsing the bitstream (step S202).
[0031] Затем, устройство декодирования изображений идентифицирует текущее опорное изображение (этап S203). Устройство декодирования изображений далее извлекает текущий вектор движения (этап S204). Ниже подробно описывается процесс извлечения. После этого, устройство декодирования изображений генерирует блок прогнозирования посредством выполнения компенсации движения с использованием текущего опорного изображения и текущего вектора движения (этап S205). В завершение, устройство декодирования изображений суммирует блок прогнозирования с остаточным блоком, чтобы генерировать восстановленный блок (этап S206).[0031] Then, the image decoding apparatus identifies the current reference image (step S203). The image decoding apparatus further extracts the current motion vector (step S204). The extraction process is described in detail below. After that, the image decoding apparatus generates a prediction block by performing motion compensation using the current reference image and the current motion vector (step S205). Finally, the image decoding apparatus summarizes the prediction block with the residual block to generate the reconstructed block (step S206).
[0032] Фиг. 3 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения, показанного на фиг. 1 и 2. Далее описывается работа устройства кодирования изображений. Работа устройства декодирования изображений является идентичной работе устройства кодирования изображений, при этом "кодирование" заменено на "декодирование".[0032] FIG. 3 is a flowchart showing details of the extraction process shown in FIG. 1 and 2. The following describes the operation of the image encoding device. The operation of the image decoding device is identical to the operation of the image encoding device, while the "encoding" is replaced by "decoding".
[0033] Во-первых, устройство кодирования изображений выбирает совместно размещенное изображение (этап S301). Затем, устройство кодирования изображений выбирает совместно размещенный блок в совместно размещенном изображении (этап S302). Устройство кодирования изображений далее идентифицирует совместно размещенное опорное изображение и совместно размещенный вектор движения (этап S303). После этого устройство кодирования изображений извлекает текущий вектор движения посредством схемы извлечения, которая заключает в себе масштабирование на основе POC (этап S304).[0033] First, the image encoding apparatus selects a co-located image (step S301). Then, the image encoding apparatus selects the co-located block in the co-located image (step S302). The image encoding apparatus further identifies a co-located reference image and a co-located motion vector (step S303). After that, the image encoding device extracts the current motion vector by an extraction circuit that incorporates POC-based scaling (step S304).
[0034] Фиг. 4 является схемой для пояснения совместно размещенного блока, используемого в процессе извлечения, показанном на фиг. 3. Совместно размещенный блок выбирается из множества блоков в совместно размещенном изображении.[0034] FIG. 4 is a diagram for explaining a co-located unit used in the extraction process shown in FIG. 3. A co-located block is selected from a plurality of blocks in a co-located image.
[0035] Совместно размещенное изображение отличается от текущего изображения, которое включает в себя текущий блок. Например, совместно размещенное изображение является изображением, непосредственно предшествующим или идущим сразу после текущего изображения в порядке отображения. Подробнее, например, совместно размещенное изображение является опорным изображением, перечисленным первым в любом из двух списков опорных изображений, используемых для кодирования B-изображений (бипрогнозирующего кодирования).[0035] The co-located image is different from the current image, which includes the current block. For example, a co-located image is an image immediately preceding or coming immediately after the current image in the display order. In more detail, for example, a co-located image is a reference image listed first in either of the two lists of reference images used for encoding B-images (bi-predictive coding).
[0036] Первый блок, включающий в себя выборку c0 в совместно размещенном изображении, является главным кандидатом для совместно размещенного блока и также упоминается как первичный совместно размещенный блок. Второй блок, включающий в себя выборку c1 в совместно размещенном изображении, является вторым главным кандидатом для совместно размещенного блока и также упоминается как вторичный совместно размещенный блок.[0036] The first block, including the c0 sample in the co-located image, is the main candidate for the co-located block and is also referred to as the primary co-located block. A second block including sample c1 in the co-located image is the second main candidate for the co-located block and is also referred to as a secondary co-located block.
[0037] Пусть (x, y) представляют собой координаты выборки tl сверху слева в текущем блоке, w представляет собой ширину текущего блока, а h представляет собой высоту текущего блока. Координаты выборки c0 представляют собой (x+w, y+h). Координаты выборки c1 представляют собой (x+(w/2)-1, y+(h/2)-1).[0037] Let (x, y) be the coordinates of the tl sample from the top left in the current block, w is the width of the current block, and h is the height of the current block. The coordinates of the sample c0 are (x + w, y + h). The sampling coordinates c1 are (x + (w / 2) -1, y + (h / 2) -1).
[0038] В случае, если первый блок недоступен, второй блок выбирается в качестве совместно размещенного блока. Примеры случая, когда первый блок недоступен, включают в себя случай, в котором первый блок не присутствует, поскольку текущий блок находится правее всего или ниже всего, и случай, в котором первый блок кодируется посредством внутреннего прогнозирования.[0038] In the event that the first block is unavailable, the second block is selected as the co-located block. Examples of a case where the first block is unavailable includes a case in which the first block is not present, since the current block is to the right of or least of all, and a case in which the first block is encoded by intra prediction.
[0039] Далее описывается более конкретный пример процесса извлечения временного предиктора вектора движения в качестве текущего вектора движения снова со ссылкой на фиг. 3.[0039] A more specific example of the process of extracting a temporary motion vector predictor as the current motion vector is again described again with reference to FIG. 3.
[0040] Во-первых, устройство кодирования изображений выбирает совместно размещенное изображение (этап S301). Затем, устройство кодирования изображений выбирает совместно размещенный блок (этап S302). В случае, если первый блок, включающий в себя выборку c0, показанную на фиг. 4, доступен, первый блок выбирается в качестве совместно размещенного блока. В случае, если первый блок недоступен, а второй блок, включающий в себя выборку c1, показанную на фиг. 4, доступен, второй блок выбирается в качестве совместно размещенного блока.[0040] First, the image encoding apparatus selects a co-located image (step S301). Then, the image encoding device selects the co-located unit (step S302). In the case where the first block including the sample c0 shown in FIG. 4 is available, the first block is selected as a co-located block. In the event that the first block is unavailable and the second block includes the sample c1 shown in FIG. 4 is available, the second block is selected as a co-located block.
[0041] В случае, если выбирается доступный совместно размещенный блок, устройство кодирования изображений задает временной предиктор вектора движения как доступный. В случае, если не выбирается доступный совместно размещенный блок, устройство кодирования изображений задает временной предиктор вектора движения как недоступный.[0041] In the case where an available co-located block is selected, the image encoding apparatus sets the time predictor of the motion vector to be available. In the event that an available co-located block is not selected, the image encoding device sets the time predictor of the motion vector as unavailable.
[0042] В случае, если временной предиктор вектора движения задается как доступный, устройство кодирования изображений идентифицирует совместно размещенный вектор движения в качестве базового вектора движения. Устройство кодирования изображений также идентифицирует совместно размещенное опорное изображение (этап S303). Устройство кодирования изображений далее извлекает временной предиктор вектора движения из базового вектора движения посредством масштабирования согласно выражению 1 (этап S304).[0042] In the event that the temporal motion vector predictor is set as available, the image encoding apparatus identifies the co-located motion vector as the base motion vector. The image encoding apparatus also identifies a co-located reference image (step S303). The image encoding apparatus further extracts the time predictor of the motion vector from the base motion vector by scaling according to expression 1 (step S304).
[0043] Посредством процесса, описанного выше, устройство кодирования изображений и устройство декодирования изображений извлекают временной предиктор вектора движения в качестве текущего вектора движения.[0043] Through the process described above, the image encoding apparatus and the image decoding apparatus extract a temporal motion vector predictor as the current motion vector.
[0044] Тем не менее, возникают случаи, когда трудно извлекать надлежащий текущий вектор движения, в зависимости от взаимосвязей между текущим изображением, текущим опорным изображением, совместно размещенным изображением и совместно размещенным опорным изображением.[0044] However, there are times when it is difficult to retrieve the proper current motion vector, depending on the relationships between the current image, the current reference image, the co-located image and the co-located reference image.
[0045] Например, в случае, если текущее опорное изображение является долговременным опорным изображением, имеется вероятность того, что временное расстояние между текущим опорным изображением и текущим изображением является большим. В случае, если совместно размещенное опорное изображение является долговременным опорным изображением, имеется вероятность того, что временное расстояние между совместно размещенным опорным изображением и совместно размещенным изображением является большим.[0045] For example, in the case where the current reference image is a long-term reference image, it is likely that the time distance between the current reference image and the current image is large. In case the co-located reference image is a long-term reference image, it is likely that the time distance between the co-located reference image and the co-located image is large.
[0046] Эти случаи подвержены вероятности того, что чрезвычайно большой или маленький текущий вектор движения генерируется в результате масштабирования на основе POC. Это приводит к снижению точности прогнозирования и снижению эффективности кодирования. В частности, чрезвычайно большой или маленький текущий вектор движения не может надлежащим образом выражаться фиксированным числом битов, приводя к значительному снижению точности прогнозирования и снижению эффективности кодирования.[0046] These cases are susceptible to the possibility that an extremely large or small current motion vector is generated as a result of scaling based on POC. This leads to a decrease in prediction accuracy and a decrease in coding efficiency. In particular, an extremely large or small current motion vector cannot be properly expressed by a fixed number of bits, resulting in a significant decrease in prediction accuracy and a decrease in coding efficiency.
[0047] Способ кодирования изображений согласно аспекту настоящего изобретения является способом кодирования изображений для кодирования каждого из блоков изображений, причем способ кодирования изображений включает в себя: извлечение кандидата для вектора движения текущего блока, который должен быть кодирован, из вектора движения совместно размещенного блока, который является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок; добавление извлеченного кандидата в список; выбор вектора движения текущего блока из списка, в который добавлен кандидат; и кодирование текущего блока с использованием выбранного вектора движения и опорного изображения текущего блока, при этом извлечение включает в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением; извлечение кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения, которая не заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения, которая заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0047] An image encoding method according to an aspect of the present invention is an image encoding method for encoding each of the image blocks, the image encoding method including: extracting a candidate for a motion vector of a current block to be encoded from a motion vector of a co-located block that is a block included in an image other than an image that includes the current block; adding the extracted candidate to the list; selection of the motion vector of the current block from the list to which the candidate is added; and encoding the current block using the selected motion vector and the reference image of the current block, the extraction includes: determining whether the reference image of the current block is a long-term reference image or a short-term reference image, and whether the reference image of the co-located block is long-term reference image or short-term reference image; extracting the candidate from the motion vector of the co-located block by means of a first extraction circuit that does not include scaling based on the time distance, in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate from the motion vector of the co-located block by means of a second extraction scheme that incorporates scaling based on the time distance, in the event that it is determined that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image.
[0048] Таким образом, кандидат для текущего вектора движения надлежащим образом извлекается при том, что он не является чрезвычайно большим или маленьким. Это способствует повышенной точности прогнозирования и повышенной эффективности кодирования.[0048] Thus, the candidate for the current motion vector is appropriately retrieved while it is not extremely large or small. This contributes to improved prediction accuracy and increased coding efficiency.
[0049] Например, при извлечении: извлечение кандидата из вектора движения совместно размещенного блока не может быть выполнено в случае определения того, что одно из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением, а другое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока может быть выполнено в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением, или в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0049] For example, when retrieving: extracting a candidate from a motion vector of a co-located block cannot be performed if it is determined that one of the reference image of the current block and the reference image of the co-located block is a long-term reference image, and the other from the reference image of the current block and the reference image of the co-located block is a short-term reference image; and extracting the candidate from the motion vector of the co-located block can be performed in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image, or in the case of determining that each of the reference image of the current block and the reference images of a co-located block is a short-term reference image.
[0050] Таким образом, в случае, если ожидается низкая точность прогнозирования, кандидата для текущего вектора движения не извлекается из вектора движения совместно размещенного блока. В силу этого может предотвращаться снижение точности прогнозирования.[0050] Thus, in the event that low prediction accuracy is expected, the candidate for the current motion vector is not extracted from the motion vector of the co-located block. Therefore, a decrease in prediction accuracy can be prevented.
[0051] Например, кодирование дополнительно может включать в себя кодирование информации, указывающей то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и информации, указывающей то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением.[0051] For example, the encoding may further include encoding information indicating whether the reference image of the current block is a long-term reference image or a short-term reference image, and information indicating whether the reference image of a co-located block is a long-term reference image or a short-term reference image.
[0052] Таким образом, информация, указывающая, для каждого опорного изображения, то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, предоставляется со стороны кодирования стороне декодирования. Это дает возможность стороне кодирования и стороне декодирования получать идентичный результат определения и выполнять идентичный процесс.[0052] Thus, information indicating for each reference image, whether the reference image is a long-term reference image or a short-term reference image is provided from the encoding side to the decoding side. This enables the encoding side and the decoding side to obtain an identical determination result and perform an identical process.
[0053] Например, извлечение может включать в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между опорным изображением текущего блока и изображением, которое включает в себя текущий блок; и определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между опорным изображением совместно размещенного блока и изображением, которое включает в себя совместно размещенный блок.[0053] For example, the extraction may include: determining whether the reference image of the current block is a long-term reference image or a short-term reference image using the time distance between the reference image of the current block and the image that includes the current block; and determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image using the time distance between the reference image of the co-located block and the image that includes the co-located block.
[0054] Таким образом, для каждого опорного изображения то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, определяется просто и надлежащим образом на основе временного расстояния.[0054] Thus, for each reference image, whether the reference image is a long-term reference image or a short-term reference image is determined simply and appropriately based on a time distance.
[0055] Например, извлечение может включать в себя определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого кодируется совместно размещенный блок.[0055] For example, the retrieval may include determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image during the period during which the co-located block is encoded.
[0056] Таким образом, то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, определяется более точно.[0056] Thus, whether the reference image of the co-located block is a long-term reference image or a short-term reference image is determined more accurately.
[0057] Например, извлечение может включать в себя определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого кодируется текущий блок.[0057] For example, the extraction may include determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image during the period during which the current block is encoded.
[0058] Таким образом, информация, указывающая то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, не должна сохраняться в течение длительного времени.[0058] Thus, information indicating whether the reference image of the co-located unit is a long-term reference image or a short-term reference image should not be stored for a long time.
[0059] Например, извлечение может включать в себя: извлечение вектора движения совместно размещенного блока в качестве кандидата в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата посредством масштабирования вектора движения совместно размещенного блока с использованием отношения в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением, причем отношение представляет собой отношение временного расстояния между опорным изображением текущего блока и изображением, которое включает в себя текущий блок, к временному расстоянию между опорным изображением совместно размещенного блока и изображением, которое включает в себя совместно размещенный блок.[0059] For example, the extraction may include: extracting the motion vector of the co-located block as a candidate in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate by scaling the motion vector of the co-located block using the relation in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image, wherein the ratio is the ratio of the time distance between the reference image of the current block and the image , which includes the current block, to the time distance between the reference image together Nogo and block image which includes co-located block.
[0060] Таким образом, в случае, если два опорных изображения являются долговременным опорным изображением, масштабирование опускается, за счет чего можно сокращать объем вычислений. В случае, если два опорных изображения являются кратковременным опорным изображением, кандидат для текущего вектора движения надлежащим образом извлекается на основе временного расстояния.[0060] Thus, in case the two reference images are a long-term reference image, scaling is omitted, thereby reducing the amount of computation. In case the two reference images are a short-term reference image, the candidate for the current motion vector is properly extracted based on the time distance.
[0061] Например, извлечение дополнительно может включать в себя, без извлечения кандидата из совместно размещенного блока, выбор другого совместно размещенного блока и извлечение кандидата из вектора движения другого совместно размещенного блока посредством второй схемы извлечения в случае определения того, что опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, причем другой совместно размещенный блок кодируется в отношении кратковременного опорного изображения.[0061] For example, the retrieval may further include, without retrieving the candidate from the co-located block, selecting another co-located block and retrieving the candidate from the motion vector of the other co-located block by the second retrieval circuit in the event that it is determined that the reference image of the current block is a short-term reference image, and the reference image of the co-located block is a long-term reference image, with another co-located block of code This applies to a short reference image.
[0062] Таким образом, выбирается блок для извлечения кандидата с высокой точностью прогнозирования. Это способствует повышенной точности прогнозирования.[0062] Thus, a block is selected for retrieving a candidate with high prediction accuracy. This contributes to improved prediction accuracy.
[0063] Кроме того, способ декодирования изображений согласно аспекту настоящего изобретения является способом декодирования изображений для декодирования каждого из блоков изображений, причем способ декодирования изображений включает в себя: извлечение кандидата для вектора движения текущего блока, который должен быть декодирован, из вектора движения совместно размещенного блока, который является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок; добавление извлеченного кандидата в список; выбор вектора движения текущего блока из списка, в который добавлен кандидат; и декодирование текущего блока с использованием выбранного вектора движения и опорного изображения текущего блока, при этом извлечение включает в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением; извлечение кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения, которая не заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения, которая заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0063] Further, an image decoding method according to an aspect of the present invention is an image decoding method for decoding each of the image blocks, the image decoding method including: extracting a candidate for a motion vector of a current block to be decoded from a motion vector co-located a block, which is a block included in an image other than an image that includes the current block; adding the extracted candidate to the list; selection of the motion vector of the current block from the list to which the candidate is added; and decoding the current block using the selected motion vector and the reference image of the current block, the extraction includes: determining whether the reference image of the current block is a long-term reference image or a short-term reference image, and whether the reference image of the co-located block is long-term reference image or short-term reference image; extracting the candidate from the motion vector of the co-located block by means of a first extraction circuit that does not include scaling based on the time distance, in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate from the motion vector of the co-located block by means of a second extraction scheme that incorporates scaling based on the time distance, in the event that it is determined that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image.
[0064] Таким образом, кандидат для текущего вектора движения надлежащим образом извлекается при том, что он не является ли чрезвычайно большим или маленьким. Это способствует повышенной точности прогнозирования и повышенной эффективности кодирования.[0064] Thus, the candidate for the current motion vector is appropriately retrieved despite being extremely large or small. This contributes to improved prediction accuracy and increased coding efficiency.
[0065] Например, при извлечении: извлечение кандидата из вектора движения совместно размещенного блока не может быть выполнено в случае определения того, что одно из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением, а другое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока может быть выполнено в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением, или в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0065] For example, when extracting: extracting a candidate from a motion vector of a co-located block cannot be performed if it is determined that one of the reference image of the current block and the reference image of the co-located block is a long-term reference image, and the other from the reference image of the current block and the reference image of the co-located block is a short-term reference image; and extracting the candidate from the motion vector of the co-located block can be performed in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image, or in the case of determining that each of the reference image of the current block and the reference images of a co-located block is a short-term reference image.
[0066] Таким образом, в случае, если ожидается низкая точность прогнозирования, кандидат для текущего вектора движения не извлекается из вектора движения совместно размещенного блока. В силу этого может предотвращаться снижение точности прогнозирования.[0066] Thus, in case a low prediction accuracy is expected, the candidate for the current motion vector is not extracted from the motion vector of the co-located block. Therefore, a decrease in prediction accuracy can be prevented.
[0067] Например, декодирование дополнительно может включать в себя декодирование информации, указывающей то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и информации, указывающей то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, при этом извлечение включает в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, с использованием информации, указывающей то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением; и определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, с использованием информации, указывающей то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением.[0067] For example, decoding may further include decoding information indicating whether the reference image of the current block is a long-term reference image or a short-term reference image, and information indicating whether the reference image of a co-located block is a long-term reference image or a short-term reference image, while the extraction includes: determining whether the reference image of the current block is a long-term reference image or a short-term reference image using information indicating whether the reference image of the current block is a long-term reference image or a short-term reference image; and determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image using information indicating whether the reference image of the co-located block is a long-term reference image or a short-term reference image.
[0068] Таким образом, информация, указывающая, для каждого опорного изображения, то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, предоставляется со стороны кодирования стороне декодирования. Это дает возможность стороне кодирования и стороне декодирования получать идентичный результат определения и выполнять идентичный процесс.[0068] Thus, information indicating for each reference image whether the reference image is a long-term reference image or a short-term reference image is provided from the encoding side to the decoding side. This enables the encoding side and the decoding side to obtain an identical determination result and perform an identical process.
[0069] Например, извлечение может включать в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между опорным изображением текущего блока и изображением, которое включает в себя текущий блок; и определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между опорным изображением совместно размещенного блока и изображением, которое включает в себя совместно размещенный блок.[0069] For example, the extraction may include: determining whether the reference image of the current block is a long-term reference image or a short-term reference image using the time distance between the reference image of the current block and the image that includes the current block; and determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image using the time distance between the reference image of the co-located block and the image that includes the co-located block.
[0070] Таким образом, для каждого опорного изображения то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, определяется просто и надлежащим образом на основе временного расстояния.[0070] Thus, for each reference image, whether the reference image is a long-term reference image or a short-term reference image is determined simply and appropriately based on a time distance.
[0071] Например, извлечение может включать в себя определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого декодируется совместно размещенный блок.[0071] For example, the retrieval may include determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image during the period during which the co-located block is decoded.
[0072] Таким образом, то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, определяется более точно.[0072] Thus, whether the reference image of the co-located block is a long-term reference image or a short-term reference image is determined more accurately.
[0073] Например, извлечение может включать в себя определение того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого декодируется текущий блок.[0073] For example, the extraction may include determining whether the reference image of the co-located block is a long-term reference image or a short-term reference image during the period during which the current block is decoded.
[0074] Таким образом, информация, указывающая то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, не должна сохраняться в течение длительного времени.[0074] Thus, information indicating whether the reference image of the co-located unit is a long-term reference image or a short-term reference image should not be stored for a long time.
[0075] Например, извлечение может включать в себя: извлечение вектора движения совместно размещенного блока в качестве кандидата в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата посредством масштабирования вектора движения совместно размещенного блока с использованием отношения в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением, причем отношение представляет собой отношение временного расстояния между опорным изображением текущего блока и изображением, которое включает в себя текущий блок, к временному расстоянию между опорным изображением совместно размещенного блока и изображением, которое включает в себя совместно размещенный блок.[0075] For example, the extraction may include: extracting the motion vector of the co-located block as a candidate in the event that it is determined that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate by scaling the motion vector of the co-located block using the relation in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image, wherein the ratio is the ratio of the time distance between the reference image of the current block and the image , which includes the current block, to the time distance between the reference image together Nogo and block image which includes co-located block.
[0076] Таким образом, в случае, если два опорных изображения являются долговременным опорным изображением, масштабирование опускается, за счет чего можно сокращать объем вычислений. В случае, если два опорных изображения являются кратковременным опорным изображением, кандидата для текущего вектора движения надлежащим образом извлекается на основе временного расстояния.[0076] Thus, in case the two reference images are a long-term reference image, scaling is omitted, thereby reducing the amount of computation. In case the two reference images are a short-term reference image, the candidate for the current motion vector is appropriately retrieved based on the time distance.
[0077] Например, извлечение дополнительно может включать в себя, без извлечения кандидата из совместно размещенного блока, выбор другого совместно размещенного блока и извлечение кандидата из вектора движения другого совместно размещенного блока посредством второй схемы извлечения в случае определения того, что опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, причем другой совместно размещенный блок декодируется в отношении кратковременного опорного изображения.[0077] For example, the extraction may further include, without extracting the candidate from the co-located block, selecting another co-located block and extracting the candidate from the motion vector of the other co-located block by the second extraction scheme in the event that it is determined that the reference image of the current block is a short-term reference image, and the reference image of the co-located block is a long-term reference image, wherein another co-located deco block It is based on a short reference image.
[0078] Таким образом, выбирается блок для извлечения кандидата с высокой точностью прогнозирования. Это способствует повышенной точности прогнозирования.[0078] Thus, a block is selected for retrieving a candidate with high prediction accuracy. This contributes to improved prediction accuracy.
[0079] Кроме того, способ предоставления контента согласно аспекту настоящего изобретения представляет собой способ предоставления контента для передачи, из сервера, на который записаны данные изображений, кодированные посредством способа кодирования изображений, описанного выше, данных изображений в ответ на запрос из внешнего терминала.[0079] Furthermore, a method for providing content according to an aspect of the present invention is a method for providing content for transmission from a server to which image data encoded by the image encoding method described above of image data in response to a request from an external terminal is recorded.
[0080] Эти общие и конкретные аспекты могут быть реализованы с использованием системы, устройства, интегральной схемы, компьютерной программы или энергонезависимого машиночитаемого носителя записи, такого как CD-ROM, либо любой комбинации систем, устройств, способов, интегральных схем, компьютерных программ и носителей записи.[0080] These general and specific aspects can be implemented using a system, device, integrated circuit, computer program, or non-volatile computer-readable recording medium such as a CD-ROM, or any combination of systems, devices, methods, integrated circuits, computer programs and media records.
[0081] В дальнейшем в этом документе, определенные примерные варианты осуществления подробнее описываются со ссылкой на прилагаемые чертежи. Каждый из примерных вариантов осуществления, описанных ниже, показывает общий или конкретный пример. Числовые значения, формы, материалы, структурные элементы, компоновка и соединение структурных элементов, этапы, порядок обработки этапов и т.д., показанные в следующих примерных вариантах осуществления, являются просто примерами и, следовательно, не ограничивают объем настоящего изобретения. Следовательно, из структурных элементов в следующих примерных вариантах осуществления, структурные элементы, не изложенные в любом из независимых пунктов формулы изобретения, описываются как произвольные структурные элементы.[0081] Hereinafter, certain exemplary embodiments are described in more detail with reference to the accompanying drawings. Each of the exemplary embodiments described below shows a general or specific example. The numerical values, forms, materials, structural elements, arrangement and connection of structural elements, steps, processing steps, etc., shown in the following exemplary embodiments are merely examples and, therefore, do not limit the scope of the present invention. Therefore, of the structural elements in the following exemplary embodiments, structural elements not set forth in any of the independent claims are described as arbitrary structural elements.
[0082] ВАРИАНТ 1 ОСУЩЕСТВЛЕНИЯ[0082]
Фиг. 5 является блок-схемой устройства кодирования изображений согласно варианту 1 осуществления. Устройство 500 кодирования изображений, показанное на фиг. 5 кодирует изображение на основе блоков и выводит поток битов, включающий в себя кодированное изображение. Подробно, устройство 500 кодирования изображений включает в себя модуль 501 вычитания, модуль 502 преобразования, модуль 503 квантования, энтропийный кодер 504, модуль 505 обратного квантования, модуль 506 обратного преобразования, модуль 507 суммирования, память 508 блоков, память 509 изображений, модуль 510 внутреннего прогнозирования, модуль 511 внешнего прогнозирования и модуль 512 выбора.FIG. 5 is a block diagram of an image encoding apparatus according to
[0083] Модуль 501 вычитания вычитает изображение прогнозирования из изображения, предоставленного в устройство 500 кодирования изображений, чтобы генерировать разностное изображение. Модуль 502 преобразования выполняет преобразование частоты для разностного изображения, сгенерированного посредством модуля 501 вычитания, чтобы генерировать множество частотных коэффициентов. Модуль 503 квантования квантует множество частотных коэффициентов, сгенерированных посредством модуля 502 преобразования, чтобы генерировать множество коэффициентов квантования. Энтропийный кодер 504 кодирует множество коэффициентов квантования, сгенерированных посредством модуля 503 квантования, чтобы генерировать поток битов.[0083]
[0084] Модуль 505 обратного квантования обратно квантует множество коэффициентов квантования, сгенерированных посредством модуля 503 квантования, чтобы восстанавливать множество частотных коэффициентов. Модуль 506 обратного преобразования выполняет обратное преобразование частоты для множества частотных коэффициентов, восстановленных посредством модуля 505 обратного квантования, чтобы восстанавливать разностное изображение. Модуль 507 суммирования суммирует изображение прогнозирования с разностным изображением, восстановленным посредством модуля 506 обратного преобразования, чтобы восстанавливать (реконструировать) изображение. Модуль 507 суммирования сохраняет восстановленное изображение (реконструированное изображение) в памяти 508 блоков и памяти 509 изображений.[0084] The
[0085] Память 508 блоков является памятью для сохранения изображения, восстановленного посредством модуля 507 суммирования на основе блоков. Память 509 изображений является памятью для сохранения изображения, восстановленного посредством модуля 507 суммирования на основе изображений.[0085] The
[0086] Модуль 510 внутреннего прогнозирования выполняет внутреннее прогнозирование посредством обращения к памяти 508 блоков. Иными словами, модуль 510 внутреннего прогнозирования прогнозирует пиксельное значение в изображении из другого пиксельного значения в изображении. Модуль 510 внутреннего прогнозирования за счет этого генерирует изображение прогнозирования. Модуль 511 внешнего прогнозирования выполняет внешнее прогнозирование посредством обращения к памяти 509 изображений. Иными словами, модуль 511 внешнего прогнозирования прогнозирует пиксельное значение в изображении из пиксельного значения в другом изображении. Модуль 511 внешнего прогнозирования за счет этого генерирует изображение прогнозирования.[0086] The
[0087] Модуль 512 выбора выбирает любое из изображения прогнозирования, сгенерированного посредством модуля 510 внутреннего прогнозирования, и изображения прогнозирования, сгенерированного посредством модуля 511 внешнего прогнозирования, и выводит выбранное изображение прогнозирования в модуль 501 вычитания и модуль 507 суммирования.[0087] The
[0088] Хотя не показано на фиг. 5, устройство 500 кодирования изображений может включать в себя модуль фильтрации для удаления блочности. Модуль фильтрации для удаления блочности может выполнять процесс фильтрации для удаления блочности для изображения, восстановленного посредством модуля 507 суммирования, чтобы удалять шум около границ блоков. Устройство 500 кодирования изображений также может включать в себя модуль управления, который управляет каждым процессом в устройстве 500 кодирования изображений.[0088] Although not shown in FIG. 5, the
[0089] Фиг. 6 является блок-схемой устройства декодирования изображений согласно этому варианту осуществления. Устройство 600 декодирования изображений, показанное на фиг. 6, получает поток битов и декодирует изображение на основе блоков. Подробно, устройство 600 декодирования изображений включает в себя энтропийный декодер 601, модуль 602 обратного квантования, модуль 603 обратного преобразования, модуль 604 суммирования, память 605 блоков, память 606 изображений, модуль 607 внутреннего прогнозирования, модуль 608 внешнего прогнозирования и модуль 609 выбора.[0089] FIG. 6 is a block diagram of an image decoding apparatus according to this embodiment. The
[0090] Энтропийный декодер 601 декодирует кодированное множество коэффициентов квантования, включенных в поток битов. Модуль 602 обратного квантования обратно квантует множество коэффициентов квантования, декодированных посредством энтропийного декодера 601, чтобы восстанавливать множество частотных коэффициентов. Модуль 603 обратного преобразования выполняет обратное преобразование частоты для множества частотных коэффициентов, восстановленных посредством модуля 602 обратного квантования, чтобы восстанавливать разностное изображение.[0090] The
[0091] Модуль 604 суммирования суммирует изображение прогнозирования с разностным изображением, восстановленным посредством модуля 603 обратного преобразования, чтобы восстанавливать (реконструировать) изображение. Модуль 604 суммирования выводит восстановленное изображение (реконструированное изображение). Модуль 604 суммирования также сохраняет восстановленное изображение в памяти 605 блоков и памяти 606 изображений.[0091] The summing
[0092] Память 605 блоков является памятью для сохранения изображения, восстановленного посредством модуля 604 суммирования на основе блоков. Память 606 изображений является памятью для сохранения изображений, восстановленных посредством модуля 604 суммирования на основе изображений.[0092] The
[0093] Модуль 607 внутреннего прогнозирования выполняет внутреннее прогнозирование посредством обращения к памяти 605 блоков. Иными словами, модуль 607 внутреннего прогнозирования прогнозирует пиксельное значение в изображении из другого пиксельного значения в изображении. Модуль 607 внутреннего прогнозирования за счет этого генерирует изображение прогнозирования. Модуль 608 внешнего прогнозирования выполняет внешнее прогнозирование посредством обращения к памяти 606 изображений. Иными словами, модуль 608 внешнего прогнозирования прогнозирует пиксельное значение в изображении из пиксельного значения в другом изображении. Модуль 608 внешнего прогнозирования за счет этого генерирует изображение прогнозирования.[0093] The
[0094] Модуль 609 выбора выбирает любое из изображения прогнозирования, сгенерированного посредством модуля 607 внутреннего прогнозирования, и изображения прогнозирования, сгенерированного посредством модуля 608 внешнего прогнозирования, и выводит выбранное изображение прогнозирования в модуль 604 суммирования.[0094] The
[0095] Хотя не показано на фиг. 6, устройство 600 декодирования изображений может включать в себя модуль фильтрации для удаления блочности. Модуль фильтрации для удаления блочности может выполнять процесс фильтрации для удаления блочности для изображения, восстановленного посредством модуля 604 суммирования, чтобы удалять шум около границ блоков. Устройство 600 декодирования изображений также может включать в себя модуль управления, который управляет каждым процессом в устройстве 600 декодирования изображений.[0095] Although not shown in FIG. 6, the
[0096] Вышеупомянутые процесс кодирования и процесс декодирования выполняются на основе единицы кодирования. Процесс преобразования, процесс квантования, процесс обратного преобразования и процесс обратного квантования выполняются на основе единицы преобразования (TU), при этом единица преобразования включается в единицу кодирования. Процесс прогнозирования выполняется на основе единицы прогнозирования, при этом единица прогнозирования включается в единицу кодирования.[0096] The above encoding process and decoding process are performed based on the coding unit. The transform process, the quantization process, the inverse transform process, and the inverse quantization process are performed based on the transform unit (TU), and the transform unit is included in the coding unit. The prediction process is performed based on the prediction unit, with the prediction unit being included in the coding unit.
[0097] Фиг. 7 является блок-схемой последовательности операций способа, показывающей работу устройства 500 кодирования изображений, показанного на фиг. 5. В частности, фиг. 7 показывает процесс кодирования изображения посредством внешнего прогнозирования.[0097] FIG. 7 is a flowchart showing the operation of the
[0098] Во-первых, модуль 511 внешнего прогнозирования классифицирует каждое из опорных изображений в качестве кратковременного опорного изображения или долговременного опорного изображения (этап 701).[0098] First, the
[0099] Долговременное опорное изображение является ли опорным изображением, подходящим для длительного использования. Долговременное опорное изображение задается как опорное изображение для более длительного использования, чем кратковременное опорное изображение. Соответственно, имеется высокая вероятность того, что долговременное опорное изображение сохраняется в памяти 509 изображений в течение длительного времени. Долговременное опорное изображение обозначается посредством абсолютного POC, который не зависит от текущего изображения. Между тем, кратковременное опорное изображение обозначается посредством POC относительно текущего изображения.[0099] Long-term reference image is a reference image suitable for long-term use. A long-term reference image is defined as a reference image for longer use than a short-term reference image. Accordingly, there is a high probability that a long-term reference image is stored in the
[0100] Затем, энтропийный кодер 504 записывает информацию, указывающую классификацию каждого из опорных изображений, в заголовке потока битов (этап 702). Иными словами, энтропийный кодер 504 записывает информацию, указывающую, для каждого из опорных изображений, то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением.[0100] Then, the
[0101] После этого, модуль 511 внешнего прогнозирования идентифицирует опорное изображение текущего блока, который должен быть кодирован (который должен быть прогнозирован) (этап S703). Модуль 511 внешнего прогнозирования может идентифицировать опорное изображение блока, смежного с текущим блоком, в качестве текущего опорного изображения. Альтернативно, модуль 511 внешнего прогнозирования может идентифицировать текущее опорное изображение посредством предварительно определенного опорного индекса. Модуль 511 внешнего прогнозирования далее извлекает текущий вектор движения (этап S704). Ниже подробно описывается процесс извлечения.[0101] After that, the
[0102] Модуль 511 внешнего прогнозирования генерирует блок прогнозирования посредством выполнения компенсации движения с использованием текущего опорного изображения и текущего вектора движения (этап S705). После этого модуль 501 вычитания вычитает блок прогнозирования из текущего блока (исходного изображения), чтобы генерировать остаточный блок (этап S706). В завершение, энтропийный кодер 504 кодирует остаточный блок, чтобы генерировать поток битов, включающий в себя остаточный блок (этап S707).[0102] The
[0103] Фиг. 8 является блок-схемой последовательности операций способа, показывающей работу 600 устройства декодирования изображений, показанного на фиг. 6. В частности, фиг. 8 показывает процесс декодирования изображения посредством внешнего прогнозирования.[0103] FIG. 8 is a flowchart showing the
[0104] Во-первых, энтропийный декодер 601 получает кодированный поток и получает информацию, указывающую классификацию каждого из опорных изображений, посредством синтаксического анализа заголовка потока битов (этап 801). Иными словами, энтропийный декодер 601 получает информацию, указывающую, для каждого из опорных изображений, то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением. Энтропийный декодер 601 также получает остаточный блок посредством синтаксического анализа потока битов (этап S802).[0104] First, the
[0105] Затем, модуль 608 внешнего прогнозирования идентифицирует текущее опорное изображение (этап S803). Модуль 608 внешнего прогнозирования может идентифицировать опорное изображение блока, смежного с текущим блоком, в качестве текущего опорного изображения. Альтернативно, модуль 608 внешнего прогнозирования может идентифицировать текущее опорное изображение посредством предварительно определенного опорного индекса.[0105] Then, the
[0106] После этого, модуль 608 внешнего прогнозирования извлекает текущий вектор движения (этап S804). Ниже подробно описывается процесс извлечения. Модуль 608 внешнего прогнозирования далее генерирует блок прогнозирования посредством выполнения компенсации движения с использованием текущего опорного изображения и текущего вектора движения (этап S805). В завершение, модуль 604 суммирования суммирует блок прогнозирования с остаточным блоком, чтобы генерировать восстановленный блок (этап 806).[0106] After this, the
[0107] Фиг. 9 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения, показанного на фиг. 7 и 8. Далее описывается, главным образом, работа модуля 511 внешнего прогнозирования, показанного на фиг. 5. Работа модуля 608 внешнего прогнозирования, показанного на фиг. 6, является идентичной работе модуля 511 внешнего прогнозирования, показанного на фиг. 5, при этом "кодирование" заменено на "декодирование".[0107] FIG. 9 is a flowchart showing details of the extraction process shown in FIG. 7 and 8. The following describes mainly the operation of the
[0108] Во-первых, модуль 511 внешнего прогнозирования выбирает совместно размещенное изображение из множества доступных опорных изображений (этап S901). Множество доступных опорных изображений представляют собой кодированные изображения и сохраняются в память 509 изображений.[0108] First, the
[0109] Затем, модуль 511 внешнего прогнозирования выбирает совместно размещенный блок в совместно размещенном изображении (этап S902). Модуль 511 внешнего прогнозирования далее идентифицирует совместно размещенное опорное изображение и совместно размещенный вектор движения (этап S903).[0109] Then, the
[0110] После этого, модуль 511 внешнего прогнозирования определяет то, является ли какое-либо из текущего опорного изображения и совместно размещенного опорного изображения долговременным опорным изображением (этап S904). В случае определения того, что какое-либо из текущего опорного изображения и совместно размещенного опорного изображения является долговременным опорным изображением (этап S904: "Да"), модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством первой схемы извлечения (этап S905).[0110] After this, the
[0111] Первая схема извлечения является схемой с использованием совместно размещенного вектора движения. Подробнее, первая схема извлечения является схемой непосредственного извлечения совместно размещенного вектора движения в качестве текущего вектора движения без масштабирования на основе POC. Первая схема извлечения может быть схемой извлечения текущего вектора движения посредством масштабирования совместно размещенного вектора движения в предварительно определенном соотношении.[0111] The first extraction scheme is a scheme using a co-located motion vector. In more detail, the first extraction scheme is a scheme for directly extracting a co-located motion vector as the current motion vector without scaling based on the POC. The first extraction scheme may be a scheme for extracting the current motion vector by scaling the co-located motion vector in a predetermined ratio.
[0112] В случае определения того, что ни одно из текущего опорного изображения и совместно размещенного опорного изображения не является долговременным опорным изображением (этап S904: "Нет"), модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством второй схемы извлечения (этап S906). Иными словами, в случае определения того, что текущее опорное изображение и совместно размещенное опорное изображение являются кратковременным опорным изображением, модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством второй схемы извлечения.[0112] If it is determined that none of the current reference image and the shared reference image is a long-term reference image (step S904: "No"), the
[0113] Вторая схема извлечения является схемой с использованием текущего опорного изображения, совместно размещенного опорного изображения и совместно размещенного вектора движения. Подробнее, вторая схема извлечения является схемой извлечения текущего вектора движения посредством выполнения масштабирования на основе POC (выражение 1) для совместно размещенного вектора движения.[0113] The second extraction circuit is a circuit using a current reference image, a co-located reference image, and a co-located motion vector. In more detail, the second extraction scheme is the extraction scheme of the current motion vector by performing POC-based scaling (expression 1) for the co-located motion vector.
[0114] Далее описывается более конкретный пример процесса извлечения текущего вектора движения снова со ссылкой на фиг. 9. Процесс извлечения, описанный выше, может быть изменен следующим образом.[0114] The following is a more specific example of the process of extracting the current motion vector again with reference to FIG. 9. The extraction process described above can be modified as follows.
[0115] Во-первых, модуль 511 внешнего прогнозирования выбирает совместно размещенное изображение (этап S901). Подробнее, в случае, если параметр slice_type заголовка среза равен B, а параметр collocated_from_l0_flag заголовка среза равен 0, изображение RefPicList1[0] выбирается в качестве совместно размещенного изображения. Изображение RefPicList1[0] является опорным изображением, перечисленным первым в упорядоченном списке RefPicList1 опорных изображений.[0115] First, the
[0116] В случае, если параметр slice_type заголовка среза не равен B, или в случае, если параметр collocated_from_l0_flag заголовка среза не равен 0, изображение RefPicList0[0] выбирается в качестве совместно размещенного изображения. Изображение RefPicList0[0] является опорным изображением, перечисленным первым в упорядоченном списке RefPicList0 опорных изображений.[0116] If the slice_type parameter of the slice header is not equal to B, or if the collocated_from_l0_flag parameter of the slice header is not 0, the image RefPicList0 [0] is selected as the co-located image. Image RefPicList0 [0] is a reference image listed first in the ordered list RefPicList0 of reference images.
[0117] Затем, модуль 511 внешнего прогнозирования выбирает совместно размещенный блок (этап S902). В случае, если первый блок, включающий в себя выборку c0, показанную на фиг. 4, доступен, первый блок выбирается в качестве совместно размещенного блока. В случае, если первый блок недоступен, а второй блок, включающий в себя выборку c1, показанную на фиг. 4, доступен, второй блок выбирается в качестве совместно размещенного блока.[0117] Then, the
[0118] В случае, если выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования задает временной предиктор вектора движения как доступный. В случае, если не выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования задает временной предиктор вектора движения как недоступный.[0118] In the case where an available co-located block is selected, the
[0119] В случае, если временной предиктор вектора движения задается как доступный, модуль 511 внешнего прогнозирования идентифицирует совместно размещенный вектор движения в качестве базового вектора движения. Модуль 511 внешнего прогнозирования также идентифицирует совместно размещенное опорное изображение (этап S903). В случае, если совместно размещенный блок имеет множество векторов движения, т.е. в случае, если совместно размещенный блок кодируется с использованием множества векторов движения, модуль 511 внешнего прогнозирования выбирает базовый вектор движения согласно предварительно определенной очередности по приоритету.[0119] In the event that the time predictor of the motion vector is set as available, the
[0120] Например, в случае, если текущее опорное изображение является кратковременным опорным изображением, модуль 511 внешнего прогнозирования может предпочтительно выбирать вектор движения, который указывает на местоположение в кратковременном опорном изображении, из множества векторов движения в качестве базового вектора движения.[0120] For example, in the case where the current reference image is a short-term reference image, the
[0121] Подробно, в случае, если присутствует вектор движения, который указывает на местоположение в кратковременном опорном изображении, модуль 511 внешнего прогнозирования выбирает вектор движения в качестве базового вектора движения. В случае, если не присутствует вектор движения, который указывает на местоположение в кратковременном опорном изображении, модуль 511 внешнего прогнозирования выбирает вектор движения, который указывает на местоположение в долговременном опорном изображении, в качестве базового вектора движения.[0121] In detail, if there is a motion vector that indicates a location in the short-term reference image, the
[0122] После этого в случае, если какое-либо из текущего опорного изображения и совместно размещенного опорного изображения является долговременным опорным изображением (этап S904: "Да"), модуль 511 внешнего прогнозирования извлекает базовый вектор движения в качестве временного предиктора вектора движения (этап S905).[0122] After that, if any of the current reference image and the shared reference image is a long-term reference image (step S904: "Yes"), the
[0123] С другой стороны, в случае, если ни одно из двух опорных изображений не является долговременным опорным изображением (этап S904: "Нет"), модуль 511 внешнего прогнозирования извлекает временной предиктор вектора движения из базового вектора движения посредством масштабирования на основе POC (этап S906).[0123] On the other hand, in the event that neither of the two reference images is a long-term reference image (step S904: "No"), the
[0124] Как описано выше, временной предиктор вектора движения задается как доступный или недоступный. Модуль 511 внешнего прогнозирования вставляет временной предиктор вектора движения, заданный как доступный, в упорядоченный список кандидатов текущих векторов движения. Упорядоченный список хранит не только временной предиктор вектора движения, но и различные векторы движения в качестве кандидатов.[0124] As described above, the temporal predictor of the motion vector is set as available or inaccessible. The
[0125] Модуль 511 внешнего прогнозирования выбирает один вектор движения из упорядоченного списка в качестве текущего вектора движения. Здесь, модуль 511 внешнего прогнозирования выбирает вектор движения с наибольшей точностью прогнозирования для текущего блока или вектор движения, который дает возможность кодирования текущего блока с наибольшей эффективностью кодирования, из упорядоченного списка. Индекс, соответствующий выбранному вектору движения, записывается в поток битов.[0125]
[0126] Посредством процесса, описанного выше, текущий вектор движения надлежащим образом извлекается из совместно размещенного вектора движения при том, что он не является чрезвычайно большим или маленьким. Это способствует повышенной точности прогнозирования и повышенной эффективности кодирования.[0126] Through the process described above, the current motion vector is appropriately extracted from the co-located motion vector while it is not extremely large or small. This contributes to improved prediction accuracy and increased coding efficiency.
[0127] Следует отметить, что состояние каждого опорного изображения в отношении того, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, может быть изменено согласно времени. Например, кратковременное опорное изображение впоследствии может быть изменено на долговременное опорное изображение, и долговременное опорное изображение впоследствии может быть изменено на кратковременное опорное изображение.[0127] It should be noted that the state of each reference image with respect to whether the reference image is a long-term reference image or a short-term reference image can be changed according to time. For example, a short-term reference image may subsequently be changed to a long-term reference image, and a long-term reference image may subsequently be changed to a short-term reference image.
[0128] Кроме того, модуль 511 внешнего прогнозирования может определять то, является ли совместно размещенное опорное изображение долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого кодируется совместно размещенный блок. Устройство 500 кодирования изображений далее может включать в себя дополнительную память для хранения результата определения от момента, когда кодируется совместно размещенный блок, до момента, когда кодируется текущий блок.[0128] Furthermore, the
[0129] Таким образом, то, является ли совместно размещенное опорное изображение долговременным опорным изображением или кратковременным опорным изображением, определяется более точно.[0129] Thus, whether the co-located reference image is a long-term reference image or a short-term reference image is determined more accurately.
[0130] В качестве альтернативы, модуль 511 внешнего прогнозирования может определять то, является ли совместно размещенное опорное изображение долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого кодируется текущий блок.[0130] Alternatively, the
[0131] Таким образом, информация относительно того, является ли совместно размещенное опорное изображение долговременным опорным изображением или кратковременным опорным изображением, не должна сохраняться в течение длительного времени.[0131] Thus, information regarding whether the co-located reference image is a long-term reference image or a short-term reference image should not be stored for a long time.
[0132] Кроме того, модуль 511 внешнего прогнозирования может определять то, является ли текущее опорное изображение долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между текущим опорным изображением и текущим изображением.[0132] Furthermore, the
[0133] В качестве примера, в случае, если временное расстояние между текущим опорным изображением и текущим изображением превышает предварительно определенное пороговое значение, модуль 511 внешнего прогнозирования определяет то, что текущее опорное изображение является долговременным опорным изображением. В случае, если временное расстояние не превышает предварительно определенное пороговое значение, модуль 511 внешнего прогнозирования определяет то, что текущее опорное изображение является ли кратковременным опорным изображением.[0133] As an example, in case the time distance between the current reference image and the current image exceeds a predetermined threshold value, the
[0134] Аналогично, модуль 511 внешнего прогнозирования может определять то, является ли совместно размещенное опорное изображение долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между совместно размещенным опорным изображением и совместно размещенным изображением.[0134] Similarly, the
[0135] В качестве примера, в случае, если временное расстояние между совместно размещенным опорным изображением и совместно размещенным изображением превышает предварительно определенное пороговое значение, модуль 511 внешнего прогнозирования определяет то, что совместно размещенное опорное изображение является долговременным опорным изображением. В случае, если временное расстояние не превышает предварительно определенное пороговое значение, модуль 511 внешнего прогнозирования определяет то, что совместно размещенное опорное изображение является кратковременным опорным изображением.[0135] As an example, if the time distance between the co-located reference image and the co-located image exceeds a predetermined threshold value, the
[0136] Модуль 608 внешнего прогнозирования в устройстве 600 декодирования изображений может определять для каждого опорного изображения то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, на основе временного расстояния, таким же образом, как модуль 511 внешнего прогнозирования в устройстве 500 кодирования изображений. В таком случае, информация, указывающая, для каждого опорного изображения, то, является ли опорное изображение долговременным опорным изображением или кратковременным опорным изображением, не должна обязательно кодироваться.[0136] The
[0137] Кроме того, что касается каждого из других процессов, описанных в этом варианте осуществления, каждый структурный элемент в устройстве 600 декодирования изображений выполняет процесс, идентичный процессу соответствующего структурного элемента в устройстве 500 кодирования изображений, в результате чего изображение, кодированное с высокой эффективностью кодирования, надлежащим образом декодируется.[0137] In addition, with respect to each of the other processes described in this embodiment, each structural element in the
[0138] Операции, описанные выше, также являются применимыми к другим вариантам осуществления. Любая из структур и операций, описанных в этом варианте осуществления, может быть включена в другие варианты осуществления, и любая из структур и операций, описанных в других вариантах осуществления, может быть включена в этот вариант осуществления.[0138] The operations described above are also applicable to other embodiments. Any of the structures and operations described in this embodiment may be included in other embodiments, and any of the structures and operations described in other embodiments may be included in this embodiment.
[0139] ВАРИАНТ 2 ОСУЩЕСТВЛЕНИЯ[0139]
Устройство кодирования изображений и устройство декодирования изображений согласно варианту 2 осуществления имеют структуры, идентичные структурам в варианте 1 осуществления. Следовательно, операции устройства кодирования изображений и устройства декодирования изображений согласно этому варианту осуществления описываются ниже с использованием структуры устройства 500 кодирования изображений, показанного на фиг. 5, и структуры устройства 600 декодирования изображений, показанного на фиг. 6.The image encoding device and image decoding device according to
[0140] Устройство 500 кодирования изображений согласно этому варианту осуществления осуществляет работу, показанную на фиг. 7, аналогично варианту 1 осуществления. Устройство 600 декодирования изображений согласно этому варианту осуществления осуществляет работу, показанную на фиг. 8, аналогично варианту 1 осуществления. Этот вариант осуществления отличается от варианта 1 осуществления процессом извлечения текущих векторов движения. Это подробно описано далее.[0140] The
[0141] Фиг. 10 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения согласно этому варианту осуществления. Модуль 511 внешнего прогнозирования согласно этому варианту осуществления осуществляет работу, показанную на фиг. 10, вместо работы, показанной на фиг. 9. Далее описывается, главным образом, работа модуля 511 внешнего прогнозирования, показанного на фиг. 5. Работа модуля 608 внешнего прогнозирования, показанного на фиг. 6, является идентичной работе модуля 511 внешнего прогнозирования, показанного на фиг. 5, при этом "кодирование" заменено на "декодирование".[0141] FIG. 10 is a flowchart showing details of an extraction process according to this embodiment. The
[0142] Во-первых, модуль 511 внешнего прогнозирования выбирает совместно размещенное изображение из множества доступных опорных изображений (этап S1001). Затем, модуль 511 внешнего прогнозирования выбирает совместно размещенный блок в совместно размещенном изображении (этап S1002). Модуль 511 внешнего прогнозирования далее идентифицирует совместно размещенное опорное изображение и совместно размещенный вектор движения (этап S1003).[0142] First, the
[0143] Во-первых, модуль 511 внешнего прогнозирования определяет то, является ли текущее опорное изображение долговременным опорным изображением (этап S1004). В случае определения того, что текущее опорное изображение является долговременным опорным изображением (этап S1004: "Да"), модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством первой схемы извлечения, идентичной варианту 1 осуществления (этап S1005).[0143] First, the
[0144] В случае определения того, что текущее опорное изображение не является долговременным опорным изображением (этап S1004: "Нет"), модуль 511 внешнего прогнозирования определяет то, является ли совместно размещенное опорное изображение долговременным опорным изображением (этап S1006).[0144] If it is determined that the current reference image is not a long-term reference image (step S1004: "No"), the
[0145] В случае определения того, что совместно размещенное опорное изображение не является долговременным опорным изображением (этап S1006: "Нет"), модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством второй схемы извлечения, идентичной варианту 1 осуществления (этап S1007). Иными словами, в случае определения того, что текущее опорное изображение и совместно размещенное опорное изображение являются кратковременным опорным изображением, модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством второй схемы извлечения.[0145] If it is determined that the shared reference image is not a long-term reference image (step S1006: "No"), the
[0146] В случае определения того, что совместно размещенное опорное изображение является долговременным опорным изображением (этап S1006: "Да"), модуль 511 внешнего прогнозирования выбирает другой совместно размещенный блок в совместно размещенном изображении (этап S1008). В примере, показанном на фиг. 10, блок, кодированный в отношении кратковременного опорного изображения, выбирается в качестве другого совместно размещенного блока.[0146] If it is determined that the co-located reference image is a long-term reference image (step S1006: "Yes"), the
[0147] После этого модуль 511 внешнего прогнозирования идентифицирует совместно размещенное опорное изображение и совместно размещенный вектор движения, соответствующие другому совместно размещенному блоку (этап S1009). Модуль 511 внешнего прогнозирования далее извлекает текущий вектор движения посредством второй схемы извлечения, которая использует масштабирование на основе POC (этап S1010).[0147] Thereafter, the
[0148] Подробно, в случае, если опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, модуль 511 внешнего прогнозирования не извлекает текущий вектор движения из вектора движения совместно размещенного блока. Модуль 511 внешнего прогнозирования вместо этого выбирает другой совместно размещенный блок, кодированный в отношении кратковременного опорного изображения, и извлекает текущий вектор движения из вектора движения выбранного другого совместно размещенного блока.[0148] In detail, if the reference image of the current block is a short-term reference image, and the reference image of the co-located block is a long-term reference image, the
[0149] В качестве примера, в случае, если опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, модуль 511 внешнего прогнозирования выполняет поиск блока, кодированного в отношении кратковременного опорного изображения. Модуль 511 внешнего прогнозирования выбирает блок, кодированный в отношении кратковременного опорного изображения, в качестве другого совместно размещенного блока.[0149] As an example, in the case where the reference image of the current block is a short-term reference image and the reference image of the co-located block is a long-term reference image, the
[0150] В качестве другого примера, в случае, если опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, модуль 511 внешнего прогнозирования сначала выполняет поиск блока, кодированного в отношении кратковременного опорного изображения.[0150] As another example, in the case where the reference image of the current block is a short-term reference image and the reference image of the co-located block is a long-term reference image, the
[0151] В случае, если присутствует блок, кодированный в отношении кратковременного опорного изображения, модуль 511 внешнего прогнозирования выбирает блок в качестве другого совместно размещенного блока. В случае, если не присутствует блок, кодированный в отношении кратковременного опорного изображения, модуль 511 внешнего прогнозирования выполняет поиск блока, кодированного в отношении долговременного опорного изображения. Модуль 511 внешнего прогнозирования выбирает блок, кодированный в отношении долговременного опорного изображения, в качестве другого совместно размещенного блока.[0151] In the event that a block encoded with respect to the short-term reference picture is present, the
[0152] Например, модуль 511 внешнего прогнозирования сначала выбирает первый блок, показанный на фиг. 4, в качестве совместно размещенного блока. В случае, если текущее опорное изображение является кратковременным опорным изображением, а совместно размещенное опорное изображение является долговременным опорным изображением, далее модуль 511 внешнего прогнозирования вновь выбирает второй блок, показанный на фиг. 4, в качестве совместно размещенного блока.[0152] For example, the
[0153] В вышеуказанном примере, модуль 511 внешнего прогнозирования может выбирать второй блок, показанный на фиг. 4, в качестве совместно размещенного блока только в случае, если опорное изображение второго блока является кратковременным опорным изображением. Блок, выбранный здесь в качестве совместно размещенного блока, не ограничивается вторым блоком, показанным на фиг. 4, и блок, отличный от второго блока, может быть выбран в качестве совместно размещенного блока.[0153] In the above example, the
[0154] Фиг. 11 является схемой для пояснения совместно размещенного блока согласно этому варианту осуществления. Выборки c0, c1, c2 и c3 в совместно размещенном изображении показаны на фиг. 11. Выборки c0 и c1 на фиг. 11 равны выборкам c0 и c1 на фиг. 4. Не только второй блок, включающий в себя выборку c1, но также и третий блок, включающий в себя выборку c2, или четвертый блок, включающий в себя выборку c3, может быть выбран в качестве другого совместно размещенного блока.[0154] FIG. 11 is a diagram for explaining a co-located unit according to this embodiment. Samples c0, c1, c2 and c3 in a co-located image are shown in FIG. 11. Samples c0 and c1 in FIG. 11 are equal to samples c0 and c1 in FIG. 4. Not only the second block including the c1 sample, but also the third block including the c2 sample, or the fourth block including the c3 sample, can be selected as another co-located block.
[0155] Координаты выборки c2 представляют собой (x+w-1, y+h-1). Координаты выборки c3 представляют собой (x+1, y+1).[0155] The coordinates of the sample c2 are (x + w-1, y + h-1). The coordinates of the c3 sample are (x + 1, y + 1).
[0156] Модуль 511 внешнего прогнозирования определяет для каждого из первого, второго, третьего и четвертого блоков в этом порядке то, доступен или нет блок. Модуль 511 внешнего прогнозирования определяет доступный блок в качестве конечного совместно размещенного блока. Примеры случая, когда блок недоступен, включают в себя случай, в котором блок не присутствует, и случай, в котором блок кодируется посредством внутреннего прогнозирования.[0156]
[0157] В случае, если текущее опорное изображение является ли кратковременным опорным изображением, модуль 511 внешнего прогнозирования может определять то, что блок, кодированный в отношении долговременного опорного изображения, недоступен.[0157] In the event that the current reference image is a short-term reference image, the
[0158] Хотя выше описывается пример способа выбора совместно размещенного блока, способ выбора совместно размещенного блока не ограничивается вышеприведенным примером. Блок, включающий в себя выборку, отличную от выборок c0, c1, c2 и c3, может быть выбран в качестве совместно размещенного блока. Кроме того, очередность по приоритету блоков не ограничивается примером, описанным в этом варианте осуществления.[0158] Although an example of a method for selecting a co-located block is described above, the method for selecting the co-located block is not limited to the above example. A block including a sample other than samples c0, c1, c2 and c3 may be selected as a co-located block. In addition, the priority order of blocks is not limited to the example described in this embodiment.
[0159] Далее описывается более конкретный пример процесса извлечения текущего вектора движения снова со ссылкой на фиг. 10. Процесс извлечения, описанный выше, может быть изменен следующим образом.[0159] The following describes a more specific example of the process of extracting the current motion vector again with reference to FIG. 10. The extraction process described above can be modified as follows.
[0160] Во-первых, модуль 511 внешнего прогнозирования выбирает совместно размещенное изображение аналогично варианту 1 осуществления (этап S1001). Затем, модуль 511 внешнего прогнозирования выбирает первый блок, включающий в себя выборку c0, показанную на фиг. 11, в качестве совместно размещенного блока и идентифицирует совместно размещенное опорное изображение (этапы S1002 и S1003).[0160] First, the
[0161] После этого, модуль 511 внешнего прогнозирования определяет то, доступен или нет совместно размещенный блок. В случае, если текущее опорное изображение является кратковременным опорным изображением, а совместно размещенное опорное изображение является долговременным опорным изображением, модуль 511 внешнего прогнозирования определяет то, что совместно размещенный блок недоступен (этапы S1004 и S1006).[0161] After that, the
[0162] В случае, если совместно размещенный блок недоступен, модуль 511 внешнего прогнозирования выполняет поиск и выбирает другой совместно размещенный блок, который доступен (этап S1008). Подробно, модуль 511 внешнего прогнозирования выбирает блок, кодированный в отношении кратковременного опорного изображения, из числа второго блока, включающего в себя выборку c1, третьего блока, включающего в себя выборку c2, и четвертого блока, включающего в себя выборку c3, на фиг. 11. Модуль 511 внешнего прогнозирования далее идентифицирует опорное изображение совместно размещенного блока (этап S1009).[0162] In the event that the co-located block is unavailable, the
[0163] В случае, если выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования задает временной предиктор вектора движения как доступный. В случае, если не выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования задает временной предиктор вектора движения как недоступный.[0163] In the case where an available co-located block is selected, the
[0164] В случае, если временной предиктор вектора движения задается как доступный, модуль 511 внешнего прогнозирования идентифицирует совместно размещенный вектор движения в качестве базового вектора движения (этапы S1003 и S1009). В случае, если совместно размещенный блок имеет множество векторов движения, т.е. в случае, если совместно размещенный блок кодируется с использованием множества векторов движения, модуль 511 внешнего прогнозирования выбирает базовый вектор движения согласно предварительно определенной очередности по приоритету аналогично варианту 1 осуществления.[0164] In the event that the time predictor of the motion vector is set as available, the
[0165] В случае, если какое-либо из текущего опорного изображения и совместно размещенного опорного изображения является долговременным опорным изображением (этап S1004: "Да"), модуль 511 внешнего прогнозирования извлекает базовый вектор движения в качестве временного предиктора вектора движения (этап S1005).[0165] In the event that any of the current reference image and the shared reference image is a long-term reference image (step S1004: "Yes"), the
[0166] С другой стороны, в случае, если ни одно из текущего опорного изображения и совместно размещенного опорного изображения не является долговременным опорным изображением (этап S1004: "Нет"), модуль 511 внешнего прогнозирования извлекает временной предиктор вектора движения из базового вектора движения посредством масштабирования на основе POC (этапы S1007 и S1010).[0166] On the other hand, in the event that none of the current reference image and the shared reference image is a long-term reference image (step S1004: "No"), the
[0167] В случае, если временной предиктор вектора движения задается как недоступный, модуль 511 внешнего прогнозирования не извлекает временной предиктор вектора движения.[0167] If the time predictor of the motion vector is set to be unavailable, the
[0168] Аналогично варианту 1 осуществления, модуль 511 внешнего прогнозирования добавляет временной предиктор вектора движения, заданный как доступный, в список в качестве кандидата для текущего вектора движения. Модуль 511 внешнего прогнозирования далее выбирает текущий вектор движения из списка.[0168] Similar to
[0169] Как описано выше, в этом варианте осуществления, в случае, если опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, текущий вектор движения не извлекается из вектора движения совместно размещенного блока.[0169] As described above, in this embodiment, if the reference image of the current block is a short-term reference image and the reference image of the co-located block is a long-term reference image, the current motion vector is not extracted from the motion vector of the co-located block.
[0170] Чрезвычайно трудно извлекать текущий вектор движения с высокой точностью прогнозирования в случае, если одно из текущего опорного изображения и совместно размещенного опорного изображения является долговременным опорным изображением, а другое из текущего опорного изображения и совместно размещенного опорного изображения является кратковременным опорным изображением. С учетом этого, устройство 500 кодирования изображений и устройство 600 декодирования изображений согласно этому варианту осуществления предотвращают снижение точности прогнозирования посредством работы, описанной выше.[0170] It is extremely difficult to retrieve the current motion vector with high prediction accuracy if one of the current reference image and the co-located reference image is a long-term reference image, and the other from the current reference image and the co-located reference image is a short-term reference image. With this in mind, the
[0171] ВАРИАНТ 3 ОСУЩЕСТВЛЕНИЯ[0171]
Устройство кодирования изображений и устройство декодирования изображений согласно варианту 3 осуществления имеют структуры, идентичные структурам в варианте 1 осуществления. Следовательно, операции устройства кодирования изображений и устройства декодирования изображений согласно этому варианту осуществления описываются ниже с использованием структуры устройства 500 кодирования изображений, показанного на фиг. 5, и структуры устройства 600 декодирования изображений, показанного на фиг. 6.The image encoding device and image decoding device according to
[0172] Устройство 500 кодирования изображений согласно этому варианту осуществления осуществляет работу, показанную на фиг. 7, аналогично варианту 1 осуществления. Устройство 600 декодирования изображений согласно этому варианту осуществления осуществляет работу, показанную на фиг. 8, аналогично варианту 1 осуществления. Этот вариант осуществления отличается от варианта 1 осуществления процессом извлечения текущих векторов движения. Это подробно описано далее.[0172] The
[0173] Фиг. 12 является блок-схемой последовательности операций способа, показывающей подробности процесса извлечения согласно этому варианту осуществления. Модуль 511 внешнего прогнозирования согласно этому варианту осуществления осуществляет работу, показанную на фиг. 12, вместо работы, показанной на фиг. 9. Далее описывается, главным образом, работа модуля 511 внешнего прогнозирования, показанного на фиг. 5. Работа модуля 608 внешнего прогнозирования, показанного на фиг. 6, является идентичной работе модуля 511 внешнего прогнозирования, показанного на фиг. 5, при этом "кодирование" заменено на "декодирование".[0173] FIG. 12 is a flowchart showing details of an extraction process according to this embodiment. The
[0174] Во-первых, модуль 511 внешнего прогнозирования выбирает совместно размещенное изображение из множества доступных опорных изображений (этап S1201). Затем, модуль 511 внешнего прогнозирования выбирает совместно размещенный блок в совместно размещенном изображении (этап S1202). Модуль 511 внешнего прогнозирования далее идентифицирует совместно размещенное опорное изображение и совместно размещенный вектор движения (этап S1203).[0174] First, the
[0175] Во-первых, модуль 511 внешнего прогнозирования определяет то, является ли текущее опорное изображение долговременным опорным изображением (этап S1204). В случае определения того, что текущее опорное изображение является долговременным опорным изображением (этап S1204: "Да"), модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством первой схемы извлечения, идентичной варианту 1 осуществления (этап S1205).[0175] First, the
[0176] В случае определения того, что текущее опорное изображение не является долговременным опорным изображением (этап S1204: "Нет"), модуль 511 внешнего прогнозирования определяет то, является ли совместно размещенное опорное изображение долговременным опорным изображением (этап S1206).[0176] If it is determined that the current reference image is not a long-term reference image (step S1204: “No”), the
[0177] В случае определения того, что совместно размещенное опорное изображение не является долговременным опорным изображением (этап S1206: "Нет"), модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством второй схемы извлечения, идентичной варианту 1 осуществления (этап S1207). Иными словами, в случае определения того, что текущее опорное изображение и совместно размещенное опорное изображение являются кратковременным опорным изображением, модуль 511 внешнего прогнозирования извлекает текущий вектор движения посредством второй схемы извлечения.[0177] If it is determined that the shared reference image is not a long-term reference image (step S1206: “No”), the
[0178] В случае определения того, что совместно размещенное опорное изображение является долговременным опорным изображением (этап S1206: "Да"), модуль 511 внешнего прогнозирования выбирает другое совместно размещенное изображение (этап S1208). Модуль 511 внешнего прогнозирования далее выбирает другой совместно размещенный блок в другом совместно размещенном изображении (этап S1209). В примере, показанном на фиг. 12, блок, кодированный в отношении кратковременного опорного изображения, выбирается в качестве другого совместно размещенного блока.[0178] If it is determined that the co-located reference image is a long-term reference image (step S1206: "Yes"), the
[0179] После этого модуль 511 внешнего прогнозирования идентифицирует совместно размещенное опорное изображение и совместно размещенный вектор движения, соответствующие другому совместно размещенному блоку (этап S1210). Модуль 511 внешнего прогнозирования далее извлекает текущий вектор движения посредством второй схемы извлечения, которая использует масштабирование на основе POC (этап S1211).[0179] Thereafter, the
[0180] Подробно, в случае, если опорное изображение текущего блока является кратковременным опорным изображением, а опорное изображение совместно размещенного блока является долговременным опорным изображением, модуль 511 внешнего прогнозирования не извлекает текущий вектор движения из вектора движения совместно размещенного блока.[0180] In detail, if the reference image of the current block is a short-term reference image, and the reference image of the co-located block is a long-term reference image, the
[0181] Модуль 511 внешнего прогнозирования вместо этого выбирает другое совместно размещенное изображение. Модуль 511 внешнего прогнозирования дополнительно выбирает другой совместно размещенный блок, кодированный в отношении кратковременного опорного изображения, из выбранного другого совместно размещенного изображения. Модуль 511 внешнего прогнозирования извлекает текущий вектор движения из вектора движения выбранного другого совместно размещенного блока.[0181] The
[0182] В качестве примера, в случае, если текущее опорное изображение является кратковременным опорным изображением, а совместно размещенное опорное изображение является долговременным опорным изображением, модуль 511 внешнего прогнозирования выполняет поиск изображения, которое включает в себя блок, кодированный в отношении кратковременного опорного изображения. Модуль 511 внешнего прогнозирования выбирает изображение, которое включает в себя блок, кодированный в отношении кратковременного опорного изображения, в качестве другого совместно размещенного изображения.[0182] As an example, in the case where the current reference image is a short-term reference image and the co-located reference image is a long-term reference image, the
[0183] В качестве другого примера, в случае, если текущее опорное изображение является кратковременным опорным изображением, а совместно размещенное опорное изображение является долговременным опорным изображением, модуль 511 внешнего прогнозирования сначала выполняет поиск изображения, которое включает в себя блок, кодированный в отношении кратковременного опорного изображения.[0183] As another example, in the case where the current reference image is a short-term reference image and the co-located reference image is a long-term reference image, the
[0184] В случае, если присутствует изображение, которое включает в себя блок, кодированный в отношении кратковременного опорного изображения, модуль 511 внешнего прогнозирования выбирает изображение в качестве другого совместно размещенного изображения.[0184] In the event that an image is present that includes a block encoded with respect to the short-term reference image, the
[0185] В случае, если не присутствует изображение, которое включает в себя блок, кодированный в отношении кратковременного опорного изображения, модуль 511 внешнего прогнозирования выполняет поиск изображения, которое включает в себя блок, кодированный в отношении долговременного опорного изображения. Модуль 511 внешнего прогнозирования выбирает изображение, которое включает в себя блок, кодированный в отношении долговременного опорного изображения, в качестве другого совместно размещенного изображения.[0185] In the event that an image that includes a block encoded with respect to the short-term reference image is not present, the
[0186] Например, в случае, если изображение RefPicList0[0] является совместно размещенным изображением, изображение RefPicList1[0] является другим совместно размещенным изображением. В случае, если изображение RefPicList1[0] является совместно размещенным изображением, изображение RefPicList0[0] является другим совместно размещенным изображением.[0186] For example, if the image RefPicList0 [0] is a co-located image, the image RefPicList1 [0] is another co-located image. In case the image RefPicList1 [0] is a co-located image, the image RefPicList0 [0] is another co-located image.
[0187] Другими словами, изображение, перечисленное первым в одном из двух списков опорных изображений, используемых для кодирования B-изображений (бипрогнозирующего кодирования), является совместно размещенным изображением, и изображение, перечисленное первым в другом из двух списков опорных изображений, является другим совместно размещенным изображением.[0187] In other words, an image listed first in one of two lists of reference images used for encoding B-images (bi-predictive coding) is a co-located image, and an image listed first in the other of the two lists of reference images is the other together posted image.
[0188] Далее описывается более конкретный пример процесса извлечения текущего вектора движения снова со ссылкой на фиг. 12. Процесс извлечения, описанный выше, может быть изменен следующим образом.[0188] The following is a more specific example of the process of extracting the current motion vector again with reference to FIG. 12. The extraction process described above can be modified as follows.
[0189] Во-первых, модуль 511 внешнего прогнозирования выбирает одно из изображения RefPicList0[0] и изображения RefPicList1[0], в качестве совместно размещенного изображения (этап S1201). Модуль 511 внешнего прогнозирования выбирает, из выбранного совместно размещенного изображения, первый блок, включающий в себя выборку c0, показанную на фиг. 11, в качестве совместно размещенного блока и идентифицирует совместно размещенное опорное изображение (этапы S1202 и S1203).[0189] First, the
[0190] После этого, модуль 511 внешнего прогнозирования определяет то, доступен или нет совместно размещенный блок. В случае, если текущее опорное изображение является кратковременным опорным изображением, а совместно размещенное опорное изображение является долговременным опорным изображением, модуль 511 внешнего прогнозирования определяет то, что совместно размещенный блок недоступен (этапы S1204 и S1206).[0190] After this, the
[0191] В случае, если совместно размещенный блок недоступен, модуль 511 внешнего прогнозирования вновь выбирает доступный совместно размещенный блок. Например, модуль 511 внешнего прогнозирования выбирает второй блок, включающий в себя выборку c1, показанную на фиг. 11, в качестве совместно размещенного блока. Модуль 511 внешнего прогнозирования далее идентифицирует совместно размещенное опорное изображение.[0191] In the event that the co-located block is unavailable, the
[0192] В случае, если не выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования выбирает другое совместно размещенное изображение. Здесь, модуль 511 внешнего прогнозирования выбирает другое из изображения RefPicList0[0] и изображения RefPicList1[0], в качестве совместно размещенного изображения (этап S1208).[0192] In the event that an available co-located block is not selected, the
[0193] Модуль 511 внешнего прогнозирования выбирает, из выбранного совместно размещенного изображения, первый блок, включающий в себя выборку c0, показанную на фиг. 1, в качестве совместно размещенного блока и идентифицирует совместно размещенное опорное изображение (этапы S1209 и S1210).[0193] The
[0194] После этого, модуль 511 внешнего прогнозирования определяет то, доступен или нет совместно размещенный блок. Аналогично предыдущему определению, в случае, если текущее опорное изображение является кратковременным опорным изображением, а совместно размещенное опорное изображение является долговременным опорным изображением, модуль 511 внешнего прогнозирования определяет то, что совместно размещенный блок недоступен.[0194] After that, the
[0195] В случае, если совместно размещенный блок недоступен, модуль 511 внешнего прогнозирования вновь выбирает доступный совместно размещенный блок (этап S1209). Подробно, модуль 511 внешнего прогнозирования выбирает второй блок, включающий в себя выборку c1, показанную на фиг. 11, в качестве совместно размещенного блока. Модуль 511 внешнего прогнозирования далее идентифицирует совместно размещенное опорное изображение (этап S1210).[0195] In the event that the co-located block is unavailable, the
[0196] В случае, если в конечном счете выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования задает временной предиктор вектора движения как доступный. В случае, если в конечном счете не выбирается доступный совместно размещенный блок, модуль 511 внешнего прогнозирования задает временной предиктор вектора движения как недоступный.[0196] In the event that an accessible co-located block is ultimately selected, the
[0197] В случае, если временной предиктор вектора движения задается как доступный, модуль 511 внешнего прогнозирования идентифицирует вектор движения совместно размещенного блока в качестве базового вектора движения (этапы S1203 и S1210). В случае, если совместно размещенный блок имеет множество векторов движения, т.е. в случае, если совместно размещенный блок кодируется с использованием множества векторов движения, модуль 511 внешнего прогнозирования выбирает базовый вектор движения согласно предварительно определенной очередности по приоритету аналогично варианту 1 осуществления.[0197] In the event that the time predictor of the motion vector is set as available, the
[0198] В случае, если какое-либо из текущего опорного изображения и совместно размещенного опорного изображения является долговременным опорным изображением (этап S1204: "Да"), модуль 511 внешнего прогнозирования извлекает базовый вектор движения в качестве временного предиктора вектора движения (этап S1205).[0198] In the event that any of the current reference image and the shared reference image is a long-term reference image (step S1204: "Yes"), the
[0199] С другой стороны, в случае, если ни одно из текущего опорного изображения и совместно размещенного опорного изображения не является долговременным опорным изображением (этап S1204: "Нет"), модуль 511 внешнего прогнозирования извлекает временной предиктор вектора движения из базового вектора движения посредством масштабирования на основе POC (этапы S1207 и S1211).[0199] On the other hand, in the event that none of the current reference image and the shared reference image is a long-term reference image (step S1204: "No"), the
[0200] В случае, если временной предиктор вектора движения задается как недоступный, модуль 511 внешнего прогнозирования не извлекает временной предиктор вектора движения.[0200] In the event that the temporal predictor of the motion vector is set to be unavailable, the
[0201] Аналогично варианту 1 осуществления, модуль 511 внешнего прогнозирования добавляет временной предиктор вектора движения, заданный как доступный, в список в качестве кандидата для текущего вектора движения. Модуль 511 внешнего прогнозирования далее выбирает текущий вектор движения из списка.[0201] Similar to
[0202] Как описано выше, устройство 500 кодирования изображений и устройство 600 декодирования изображений согласно этому варианту осуществления выбирают блок, подходящий для извлечения текущих векторов движения из множества изображений, и извлекают текущий вектор движения из вектора движения выбранного блока. Это способствует повышенной эффективности кодирования.[0202] As described above, the
[0203] ВАРИАНТ 4 ОСУЩЕСТВЛЕНИЯ[0203]
Вариант 4 осуществления аргументировано описывает характерные структуры и характерные процедуры, включенные в варианты 1-3 осуществления.
[0204] Фиг. 13A является блок-схемой устройства декодирования изображений согласно этому варианту осуществления. Устройство 1300 кодирования изображений, показанное на фиг. 13A, кодирует каждый из блоков изображений. Устройство 1300 кодирования изображений включает в себя модуль 1301 извлечения, модуль 1302 добавления, модуль 1303 выбора и кодер 1304.[0204] FIG. 13A is a block diagram of an image decoding apparatus according to this embodiment. The
[0205] Например, модуль 1301 извлечения, модуль 1302 добавления и модуль 1303 выбора соответствуют модулю 511 внешнего прогнозирования, показанному на фиг. 5 и т.п., и кодер 1304 соответствует энтропийному кодеру 504, показанному на фиг. 5 и т.п.[0205] For example,
[0206] Фиг. 13B является блок-схемой последовательности операций способа, показывающей работу устройства 1300 кодирования изображений, показанного на фиг. 13A.[0206] FIG. 13B is a flowchart showing the operation of the
[0207] Модуль 1301 извлечения извлекает кандидата для вектора движения текущего блока из вектора движения совместно размещенного блока (этап S1301). Совместно размещенный блок является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок, который должен быть кодирован.[0207] The
[0208] При извлечении кандидата модуль 1301 извлечения определяет то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением. Модуль 1301 извлечения также определяет то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением.[0208] When extracting the candidate, the
[0209] В случае определения того, что опорное изображение текущего блока и опорное изображение совместно размещенного блока являются долговременным опорным изображением, модуль 1301 извлечения извлекает кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения. Первая схема извлечения является схемой извлечения, которая не заключает в себе масштабирование на основе временного расстояния.[0209] If it is determined that the reference image of the current block and the reference image of the co-located block are a long-term reference image, the
[0210] С другой стороны, в случае определения того, что опорное изображение текущего блока и опорное изображение совместно размещенного блока являются кратковременным опорным изображением, с другой стороны, модуль 1301 извлечения извлекает кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения. Вторая схема извлечения является схемой извлечения, которая заключает в себе масштабирование на основе временного расстояния.[0210] On the other hand, in the event that it is determined that the reference image of the current block and the reference image of the co-located block are a short-term reference image, on the other hand, the
[0211] Модуль 1302 добавления добавляет извлеченного кандидата в список (этап S1302). Модуль 1303 выбора выбирает вектор движения текущего блока из списка, в который добавлен кандидат (этап S1303).[0211] The
[0212] Кодер 1304 кодирует текущий блок с использованием выбранного вектора движения и опорного изображения текущего блока (этап S1304).[0212]
[0213] Фиг. 14A является блок-схемой устройства декодирования изображений согласно варианту 4 осуществления. Устройство 1400 декодирования изображений, показанное на фиг. 14A, декодирует каждый из блоков изображений. Устройство 1400 декодирования изображений включает в себя модуль 1401 извлечения, модуль 1402 добавления, модуль 1403 выбора и декодер 1404.[0213] FIG. 14A is a block diagram of an image decoding apparatus according to
[0214] Например, модуль 1401 извлечения, модуль 1402 добавления и модуль 1403 выбора соответствуют модулю 608 внешнего прогнозирования, показанному на фиг. 6 и т.п., и декодер 1404 соответствует энтропийному декодеру 601, показанному на фиг. 6 и т.п.[0214] For example,
[0215] Фиг. 14B является блок-схемой последовательности операций способа, показывающей работу устройства 1400 декодирования изображений, показанного на фиг. 14A.[0215] FIG. 14B is a flowchart showing the operation of the
[0216] Модуль 1401 извлечения извлекает кандидата для вектора движения текущего блока из вектора движения совместно размещенного блока (этап S1401). Совместно размещенный блок является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок, который должен быть декодирован.[0216] The
[0217] При извлечении кандидата модуль 1401 извлечения определяет то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением. Модуль 1401 извлечения также определяет то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением.[0217] When extracting the candidate, the
[0218] В случае определения того, что опорное изображение текущего блока и опорное изображение совместно размещенного блока являются долговременным опорным изображением, модуль 1401 извлечения извлекает кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения. Первая схема извлечения является схемой извлечения, которая не заключает в себе масштабирование на основе временного расстояния.[0218] In the case that it is determined that the reference image of the current block and the reference image of the co-located block are a long-term reference image, the
[0219] С другой стороны, в случае определения того, что опорное изображение текущего блока и опорное изображение совместно размещенного блока являются кратковременным опорным изображением, модуль 1401 извлечения извлекает кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения. Вторая схема извлечения является схемой извлечения, которая заключает в себе масштабирование на основе временного расстояния.[0219] On the other hand, in the event that it is determined that the reference image of the current block and the reference image of the co-located block are a short-term reference image, the
[0220] Модуль 1402 добавления добавляет извлеченного кандидата в список (этап S1402). Модуль 1403 выбора выбирает вектор движения текущего блока из списка, в который добавлен кандидат (этап S1403).[0220] The
[0221] Декодер 1404 декодирует текущий блок с использованием выбранного вектора движения и опорного изображения текущего блока (этап S1404).[0221] Decoder 1404 decodes the current block using the selected motion vector and a reference image of the current block (step S1404).
[0222] Посредством процесса, описанного выше, кандидат для текущего вектора движения надлежащим образом извлекается из вектора движения совместно размещенного блока при том, что он не является чрезвычайно большим или маленьким. Это способствует повышенной точности прогнозирования и повышенной эффективности кодирования.[0222] Through the process described above, the candidate for the current motion vector is appropriately extracted from the motion vector of the co-located block, although it is not extremely large or small. This contributes to improved prediction accuracy and increased coding efficiency.
[0223] Здесь, модули 1301 и 1401 извлечения могут не извлекать кандидата из вектора движения совместно размещенного блока в случае определения того, что одно из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением, а другое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0223] Here,
[0224] В этом случае, модули 1301 и 1401 извлечения могут дополнительно выбирать другой совместно размещенный блок, кодированный или декодированный в отношении кратковременного опорного изображения, и извлекать кандидата из другого совместно размещенного блока посредством второй схемы извлечения. В качестве альтернативы, модули 1301 и 1401 извлечения могут извлекать кандидата посредством другой схемы извлечения. В качестве другой альтернативы, модули 1301 и 1401 извлечения могут в конечном счете не извлекать кандидата, соответствующего временному предиктору вектора движения.[0224] In this case, the
[0225] Модули 1301 и 1401 извлечения могут определять то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между опорным изображением текущего блока и изображением, которое включает в себя текущий блок.[0225] The
[0226] Модули 1301 и 1401 извлечения могут определять то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, с использованием временного расстояния между опорным изображением совместно размещенного блока и изображением, которое включает в себя совместно размещенный блок.[0226] The
[0227] Модули 1301 и 1401 извлечения могут определять то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого совместно размещенный блок кодируется или декодируется.[0227] The
[0228] Модули 1301 и 1401 извлечения могут определять то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, в период, в течение которого текущий блок кодируется или декодируется.[0228] The
[0229] Первая схема извлечения может быть схемой извлечения вектора движения совместно размещенного блока в качестве кандидата. Вторая схема извлечения может быть схемой извлечения кандидата посредством масштабирования вектора движения совместно размещенного блока с использованием отношения временного расстояния между опорным изображением текущего блока и изображением, которое включает в себя текущий блок, к временному расстоянию между опорным изображением совместно размещенного блока и изображением, которое включает в себя совместно размещенный блок.[0229] The first extraction scheme may be a motion vector extraction scheme of a co-located block as a candidate. The second extraction scheme may be a candidate extraction scheme by scaling the motion vector of the co-located block using the ratio of the time distance between the reference image of the current block and the image that includes the current block to the time distance between the reference image of the co-located block and the image that includes self-hosted block.
[0230] Кодер 1304 дополнительно может кодировать информацию, указывающую то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и информацию, указывающую то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением.[0230] The
[0231] Декодер 1404 дополнительно может декодировать информацию, указывающую то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и информацию, указывающую то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением.[0231] The
[0232] Модуль 1401 извлечения далее может определять то, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, с использованием декодированной информации, и определять то, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением, с использованием декодированной информации.[0232] The
[0233] Информация, указывающая классификацию каждого опорного изображения, может быть сохранена, в качестве параметра, в потоке битов в местоположении, описанном ниже.[0233] Information indicating the classification of each reference image may be stored, as a parameter, in the bitstream at the location described below.
[0234] Фиг. 15A является схемой, показывающей первый пример местоположения хранения для параметра, указывающего классификацию опорных изображений. Как показано на фиг. 15A, параметр, указывающий классификацию опорных изображений, может быть сохранен в заголовке последовательности. Заголовок последовательности также упоминается как набор параметров последовательности.[0234] FIG. 15A is a diagram showing a first example of a storage location for a parameter indicating a classification of reference images. As shown in FIG. 15A, a parameter indicating the classification of the reference pictures can be stored in the header of the sequence. The sequence header is also referred to as a sequence parameter set.
[0235] Фиг. 15B является схемой, показывающей второй пример местоположения хранения для параметра, указывающего классификацию опорных изображений. Как показано на фиг. 15B, параметр, указывающий классификацию опорных изображений, может быть сохранен в заголовке изображения. Заголовок изображения также упоминается как набор параметров изображения.[0235] FIG. 15B is a diagram showing a second example of a storage location for a parameter indicating a classification of reference images. As shown in FIG. 15B, a parameter indicating the classification of reference images may be stored in the image header. The image header is also referred to as a set of image parameters.
[0236] Фиг. 15C является схемой, показывающей третий пример местоположения хранения для параметра, указывающего классификацию опорных изображений. Как показано на фиг. 15C, параметр, указывающий классификацию опорных изображений, может быть сохранен в заголовке среза.[0236] FIG. 15C is a diagram showing a third example of a storage location for a parameter indicating a classification of reference images. As shown in FIG. 15C, a parameter indicating the classification of reference images may be stored in the slice header.
[0237] Информация, указывающая режим прогнозирования (внешнее прогнозирование или внутреннее прогнозирование), может быть сохранена, в качестве параметра, в потоке битов в местоположении, описанном ниже.[0237] Information indicating the prediction mode (external prediction or internal prediction) may be stored, as a parameter, in the bitstream at the location described below.
[0238] Фиг. 16 является схемой, показывающей пример местоположения хранения для параметра, указывающего режим прогнозирования. Как показано на фиг. 16, параметр может быть сохранен в заголовке CU (заголовке единицы кодирования). Параметр указывает то, кодирована ли единица прогнозирования в единице кодирования посредством внешнего прогнозирования или внутреннего прогнозирования. Этот параметр может быть использован для того, чтобы определять то, доступен или нет совместно размещенный блок.[0238] FIG. 16 is a diagram showing an example of a storage location for a parameter indicating a prediction mode. As shown in FIG. 16, the parameter may be stored in the CU header (coding unit header). The parameter indicates whether the prediction unit is encoded in the coding unit by means of external prediction or internal prediction. This parameter can be used to determine if a shared block is available or not.
[0239] Каждый из структурных элементов в каждом из вышеописанных вариантов осуществления может быть сконфигурирован в форме полностью аппаратного продукта или может быть реализован посредством выполнения программы, подходящей для структурного элемента. Каждый из структурных элементов может быть реализован посредством модуля выполнения программ, такого как CPU и процессор, считывающий и выполняющий программу, записанную на носителе записи, таком как жесткий диск или полупроводниковое запоминающее устройство. Здесь, программа для реализации устройства кодирования изображений и т.п. согласно каждому из вариантов осуществления является программой, описанной ниже.[0239] Each of the structural elements in each of the above embodiments may be configured in the form of a fully hardware product or may be implemented by executing a program suitable for the structural element. Each of the structural elements can be implemented by a program execution module, such as a CPU and a processor, which reads and executes a program recorded on a recording medium, such as a hard disk or a semiconductor memory device. Here, a program for implementing an image encoding device, etc. according to each of the embodiments is a program described below.
[0240] Программа инструктирует компьютеру осуществлять способ кодирования изображений для кодирования каждого из блоков изображений, причем способ кодирования изображений включает в себя: извлечение кандидата для вектора движения текущего блока, который должен быть кодирован, из вектора движения совместно размещенного блока, который является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок; добавление извлеченного кандидата в список; выбор вектора движения текущего блока из списка, в который добавлен кандидат; и кодирование текущего блока с использованием выбранного вектора движения и опорного изображения текущего блока, при этом извлечение включает в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением; извлечение кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения, которая не заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения, которая заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0240] The program instructs the computer to implement an image encoding method for encoding each of the image blocks, the image encoding method including: extracting a candidate for a motion vector of a current block to be encoded from a motion vector of a co-located block, which is a block included an image other than an image that includes the current block; adding the extracted candidate to the list; selection of the motion vector of the current block from the list to which the candidate is added; and encoding the current block using the selected motion vector and the reference image of the current block, the extraction includes: determining whether the reference image of the current block is a long-term reference image or a short-term reference image, and whether the reference image of the co-located block is long-term reference image or short-term reference image; extracting the candidate from the motion vector of the co-located block by means of a first extraction circuit that does not include scaling based on the time distance, in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate from the motion vector of the co-located block by means of a second extraction scheme that incorporates scaling based on the time distance, in the event that it is determined that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image.
[0241] Программа может инструктировать компьютеру осуществлять способ декодирования изображений для декодирования каждого из блоков изображений, причем способ декодирования изображений включает в себя: извлечение кандидата для вектора движения текущего блока, который должен быть декодирован, из вектора движения совместно размещенного блока, который является блоком, включенным в изображение, отличное от изображения, которое включает в себя текущий блок; добавление извлеченного кандидата в список; выбор вектора движения текущего блока из списка, в который добавлен кандидат; и декодирование текущего блока с использованием выбранного вектора движения и опорного изображения текущего блока, при этом извлечение включает в себя: определение того, является ли опорное изображение текущего блока долговременным опорным изображением или кратковременным опорным изображением, и того, является ли опорное изображение совместно размещенного блока долговременным опорным изображением или кратковременным опорным изображением; извлечение кандидата из вектора движения совместно размещенного блока посредством первой схемы извлечения, которая не заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является долговременным опорным изображением; и извлечение кандидата из вектора движения совместно размещенного блока посредством второй схемы извлечения, которая заключает в себе масштабирование на основе временного расстояния, в случае определения того, что каждое из опорного изображения текущего блока и опорного изображения совместно размещенного блока является кратковременным опорным изображением.[0241] The program may instruct the computer to implement an image decoding method for decoding each of the image blocks, the image decoding method including: extracting a candidate for a motion vector of a current block to be decoded from a motion vector of a co-located block, which is a block, included in an image other than an image that includes the current block; adding the extracted candidate to the list; selection of the motion vector of the current block from the list to which the candidate is added; and decoding the current block using the selected motion vector and the reference image of the current block, the extraction includes: determining whether the reference image of the current block is a long-term reference image or a short-term reference image, and whether the reference image of the co-located block is long-term reference image or short-term reference image; extracting the candidate from the motion vector of the co-located block by means of a first extraction circuit that does not include scaling based on the time distance, in the case of determining that each of the reference image of the current block and the reference image of the co-located block is a long-term reference image; and extracting the candidate from the motion vector of the co-located block by means of a second extraction scheme that incorporates scaling based on the time distance, in the event that it is determined that each of the reference image of the current block and the reference image of the co-located block is a short-term reference image.
[0242] Каждый из структурных элементов может быть схемой. Эти схемы могут полностью составлять одну схему или быть отдельными схемами. Каждый из структурных элементов может быть реализован посредством процессора общего назначения или реализован посредством процессора специального назначения.[0242] Each of the structural elements may be a circuit. These circuits can be a single circuit or be separate circuits. Each of the structural elements may be implemented by a general-purpose processor or implemented by a special-purpose processor.
[0243] Выше описаны устройства кодирования изображений согласно одному или более вариантов осуществления, но объем настоящего изобретения не ограничен этими вариантами осуществления. Специалисты в данной области техники должны легко принимать во внимание, что различные модификации могут выполняться в этих примерных вариантах осуществления, и изменения могут быть получены посредством произвольного комбинирования структурных элементов различных вариантов осуществления без фактического отступления от объема настоящего изобретения. Соответственно, все такие модификации и изменения фактически могут быть включены в один или более вариантов осуществления, раскрытых в данном документе.[0243] Image encoding apparatuses according to one or more embodiments are described above, but the scope of the present invention is not limited to these embodiments. Specialists in the art should easily take into account that various modifications can be made in these exemplary embodiments, and changes can be obtained by arbitrarily combining structural elements of various embodiments without actually departing from the scope of the present invention. Accordingly, all such modifications and changes may in fact be included in one or more of the embodiments disclosed herein.
[0244] Например, устройство кодирования и декодирования изображений может включать в себя устройство кодирования изображений и устройство декодирования изображений. Процесс, выполняемый посредством конкретного процессора, может быть выполнен посредством другого процессора. Процессы могут выполняться в различном порядке, и два или более процессов могут выполняться параллельно.[0244] For example, an image encoding and decoding device may include an image encoding device and an image decoding device. A process performed by a particular processor may be performed by another processor. The processes can be performed in a different order, and two or more processes can be performed in parallel.
[0245] ВАРИАНТ 5 ОСУЩЕСТВЛЕНИЯ[0245]
Обработка, описанная в каждом из вариантов осуществления, может быть реализована просто в независимой компьютерной системе, посредством записи, на носителе записи, программы для реализации конфигураций способа кодирования движущихся изображений (способа кодирования изображений) и способа декодирования движущихся изображений (способа декодирования изображений), описанных в каждом из вариантов осуществления. Носители записи могут быть любыми носителями записи при условии, что программа может записываться, такими как магнитный диск, оптический диск, магнитооптический диск, IC-карта и полупроводниковое запоминающее устройство.The processing described in each of the embodiments can be implemented simply in an independent computer system, by recording, on a recording medium, a program for implementing configurations of a moving image encoding method (image encoding method) and a moving image decoding method (image decoding method) described in each of the embodiments. Recording media may be any recording medium provided that the program can be recorded, such as a magnetic disk, an optical disk, a magneto-optical disk, an IC card, and a semiconductor memory device.
[0246] В дальнейшем в этом документе описываются варианты применения к способу кодирования движущихся изображений (способу кодирования изображений) и способу декодирования движущихся изображений (способу декодирования изображений), описанных в каждом из вариантов осуществления, и к системам с их использованием. Система имеет признак наличия устройства кодирования и декодирования изображений, которое включает в себя устройство кодирования изображений с использованием способа кодирования изображений и устройство декодирования изображений с использованием способа декодирования изображений. Другие конфигурации в системе могут быть изменены надлежащим образом в зависимости от случаев применения.[0246] The rest of this document describes applications to the moving image coding method (image encoding method) and the moving image decoding method (image decoding method) described in each of the embodiments, and to systems using them. The system has a feature of having an image encoding and decoding device, which includes an image encoding device using an image encoding method and an image decoding device using an image decoding method. Other configurations in the system may be changed appropriately depending on the application.
[0247] Фиг. 17 иллюстрирует общую конфигурацию системы ex100 предоставления контента для реализации услуг распространения контента. Область для предоставления услуг связи разделяется на соты требуемого размера, и базовые станции ex106, ex107, ex108, ex109 и ex110, которые являются стационарными беспроводными станциями, размещаются в каждой из сот.[0247] FIG. 17 illustrates the overall configuration of a content providing system ex100 for implementing content distribution services. The area for the provision of communication services is divided into cells of the required size, and base stations ex106, ex107, ex108, ex109 and ex110, which are fixed wireless stations, are located in each of the cells.
[0248] Система ex100 предоставления контента подключается к таким устройствам, как компьютер ex111, персональное цифровое устройство (PDA) ex112, камера ex113, сотовый телефон ex114 и игровая машина ex115, через Интернет ex101, поставщика ex102 Интернет-услуг, телефонную сеть ex104, а также базовые станции ex106-ex110, соответственно.[0248] The content providing system ex100 connects to devices such as a computer ex111, a personal digital device (PDA) ex112, a camera ex113, a cellphone ex114 and a gaming machine ex115, via the Internet ex101, an Internet service provider ex102, a telephone network ex104, and also base stations ex106-ex110, respectively.
[0249] Тем не менее, конфигурация системы ex100 предоставления контента не ограничена конфигурацией, показанной на фиг. 17, и комбинация, в которой подключаются любые из элементов, является допустимой. Помимо этого, каждое устройство может подключаться к телефонной сети ex104 непосредственно, а не через базовые станции ex106-ex110, которые являются стационарными беспроводными станциями. Кроме того, устройства могут быть подключены друг к другу через беспроводную связь ближнего действия и т.п.[0249] However, the configuration of the content providing system ex100 is not limited to the configuration shown in FIG. 17, and the combination in which any of the elements are connected is valid. In addition, each device can connect to the telephone network ex104 directly, and not through the base stations ex106-ex110, which are fixed wireless stations. In addition, the devices can be connected to each other via short-range wireless communication, etc.
[0250] Камера ex113, такая как цифровая видеокамера, допускает захват видео. Камера ex116, такая как цифровая камера, допускает захват как неподвижных изображений, так и видео. Кроме того, сотовый телефон ex114 может быть телефоном, который удовлетворяет любому из таких стандартов, как глобальная система мобильной связи (GSM) (зарегистрированная торговая марка), множественный доступ с кодовым разделением каналов (CDMA), широкополосный множественный доступ с кодовым разделением каналов (W-CDMA), стандарт долгосрочного развития (LTE) и высокоскоростной пакетный доступ (HSPA). Альтернативно, сотовый телефон ex114 может соответствовать стандарту системы персональных мобильных телефонов (PHS).[0250] An ex113 camera, such as a digital video camera, allows video capture. An ex116 camera, such as a digital camera, can capture both still images and video. In addition, the ex114 cell phone can be a telephone that meets any of the standards such as Global System for Mobile Communications (GSM) (registered trademark), Code Division Multiple Access (CDMA), Code Division Multiple Access (W -CDMA), Long Term Evolution (LTE) and High Speed Packet Access (HSPA). Alternatively, the ex114 cell phone may comply with a Personal Mobile Phone System (PHS) standard.
[0251] В системе ex100 предоставления контента сервер ex103 потоковой передачи подключается к камере ex113 и т.п. через телефонную сеть ex104 и базовую станцию ex109, которая предоставляет распространение изображений трансляции в прямом эфире и т.п. При таком распределении, контент (например, видео музыкального концерта в прямом эфире), захватываемый пользователем с использованием камеры ex113, кодируется так, как описано выше в каждом из вариантов осуществления (т.е. камера выступает в качестве устройства кодирования изображений согласно аспекту настоящего изобретения), и кодированный контент передается на сервер ex103 потоковой передачи. С другой стороны, сервер ex103 потоковой передачи выполняет потоковое распространение передаваемых данных контента в клиенты при запросах. Клиенты включают в себя компьютер ex111, PDA ex112, камеру ex113, сотовый телефон ex114 и игровую машину ex115, которые допускают декодирование вышеуказанных кодированных данных. Каждое из устройств, которое принимает распределенные данные, декодирует и воспроизводит кодированные данные (т.е. выступает в качестве устройства декодирования изображений согласно аспекту настоящего изобретения).[0251] In the content providing system ex100, the streaming server ex103 connects to the camera ex113 and the like. via the telephone network ex104 and the base station ex109, which provides the distribution of live broadcast images, etc. With this distribution, content (e.g., live music concert video) captured by the user using the camera ex113 is encoded as described above in each of the embodiments (i.e., the camera acts as an image encoding device according to an aspect of the present invention ), and the encoded content is transmitted to the streaming server ex103. On the other hand, the streaming server ex103 streams the transmitted content data to clients upon request. Clients include a computer ex111, a PDA ex112, a camera ex113, a cell phone ex114 and a gaming machine ex115 that allow decoding of the above encoded data. Each of the devices that receives the distributed data decodes and reproduces the encoded data (i.e., acts as an image decoding device according to an aspect of the present invention).
[0252] Захватываемые данные могут кодироваться посредством камеры ex113 или сервера ex103 потоковой передачи, который передает данные, или процессы кодирования могут быть совместно использованы камерой ex113 и сервером ex103 потоковой передачи. Аналогично, распространенные данные могут быть декодированы посредством клиентов или сервера ex103 потоковой передачи, или процессы декодирования могут быть совместно использованы клиентами и сервером ex103 потоковой передачи. Кроме того, данные неподвижных изображений и видео, захватываемых не только посредством камеры ex113, но также и камеры ex116, могут быть переданы на сервер ex103 потоковой передачи через компьютер ex111. Процессы кодирования могут выполняться посредством камеры ex116, компьютера ex111 или сервера ex103 потоковой передачи или совместно использоваться ими.[0252] The captured data can be encoded by the camera ex113 or the streaming server ex103, which transmits the data, or the encoding processes can be shared between the camera ex113 and the streaming server ex103. Similarly, distributed data may be decoded by clients or a streaming server ex103, or decoding processes may be shared between clients and a streaming server ex103. In addition, data of still images and videos captured not only by the camera ex113, but also the camera ex116, can be transmitted to the streaming server ex103 through the computer ex111. Encoding processes may be performed by or shared between the camera ex116, the computer ex111, or the streaming server ex103.
[0253] Кроме того, процессы кодирования и декодирования могут выполняться посредством LSI ex500, в общем, включенной в каждый из компьютера ex111 и устройств. LSI ex500 может быть сконфигурирована из одного кристалла или множества кристаллов. Программное обеспечение для кодирования и декодирования видео может быть интегрировано в определенный тип носителя записи (такой как CD-ROM, гибкий диск и жесткий диск), который является читаемым посредством компьютера ex111 и т.п., и процессы кодирования и декодирования могут выполняться с использованием программного обеспечения. Кроме того, когда сотовый телефон ex114 содержит камеру, могут передаваться видеоданные, полученные посредством камеры. Видеоданные - это данные, кодированные посредством LSI ex500, включенной в сотовый телефон ex114.[0253] In addition, encoding and decoding processes can be performed by the LSI ex500, generally included in each of the computer ex111 and devices. The LSI ex500 can be configured from a single chip or multiple crystals. Video encoding and decoding software can be integrated into a certain type of recording medium (such as a CD-ROM, floppy disk and hard disk) that is readable by an ex111 computer and the like, and encoding and decoding processes can be performed using software. In addition, when the cell phone ex114 comprises a camera, video data obtained by the camera can be transmitted. Video data is data encoded by the LSI ex500 included in the ex114 cell phone.
[0254] Кроме того, сервер ex103 потоковой передачи может состоять из серверов и компьютеров и может децентрализовать данные и обрабатывать децентрализованные данные, записывать или распространять данные.[0254] In addition, the streaming server ex103 may consist of servers and computers, and may decentralize data and process decentralized data, record or distribute data.
[0255] Как описано выше, клиенты могут принимать и воспроизводить кодированные данные в системе ex100 предоставления контента. Другими словами, клиенты могут принимать и декодировать информацию, передаваемую пользователем, и воспроизводить декодированные данные в режиме реального времени в системе ex100 предоставления контента, так что пользователь, который не имеет конкретных прав и оборудования, может реализовывать персональную широковещательную передачу.[0255] As described above, clients can receive and play encoded data in the content providing system ex100. In other words, clients can receive and decode user-transmitted information and play back the decoded data in real time in the content providing system ex100, so that a user who does not have specific rights and equipment can implement personal broadcast.
[0256] Помимо примера системы ex100 предоставления контента, по меньшей мере, одно из устройства кодирования движущихся изображений (устройства кодирования изображений) и устройства декодирования движущихся изображений (устройства декодирования изображений), описанных в каждом из вариантов осуществления, может быть реализовано в цифровой широковещательной системе ex200, проиллюстрированной на фиг. 18. Более конкретно, широковещательная станция ex201 сообщает или передает по радиоволнам в широковещательный спутник ex202 мультиплексированные данные, полученные посредством мультиплексирования аудиоданных и т.п. в видеоданные. Видеоданные являются данными, кодированными посредством способа кодирования движущихся изображений, описанного в каждом из вариантов осуществления (т.е. данными, кодированными посредством устройства кодирования изображений согласно аспекту настоящего изобретения). При приеме мультиплексированных видеоданных широковещательный спутник ex202 передает радиоволны для широковещательной передачи. Затем, антенна ex204 для домашнего применения с функцией приема спутниковой широковещательной передачи принимает радиоволны. Далее такое устройство, как телевизионный приемник (приемное устройство) ex300 и абонентская приставка (STB) ex217, декодирует принятые мультиплексированные данные и воспроизводит декодированные данные (т.е. выступает в качестве устройства декодирования изображений согласно аспекту настоящего изобретения).[0256] In addition to the exemplary content providing system ex100, at least one of the moving image encoding device (image encoding device) and the moving image decoding device (image decoding device) described in each of the embodiments may be implemented in a digital broadcast system ex200 illustrated in FIG. 18. More specifically, the broadcast station ex201 reports or transmits on the radio waves to the broadcast satellite ex202 the multiplexed data obtained by multiplexing audio data and the like. in the video data. The video data is data encoded by the moving image encoding method described in each of the embodiments (i.e., data encoded by the image encoding device according to an aspect of the present invention). When receiving multiplexed video data, broadcast satellite ex202 transmits radio waves for broadcast transmission. Then, the ex204 antenna for home use with the satellite broadcast reception function receives radio waves. Further, a device such as a television receiver (receiver) ex300 and a set-top box (STB) ex217 decodes the received multiplexed data and reproduces the decoded data (i.e., acts as an image decoding device according to an aspect of the present invention).
[0257] Кроме того, модуль ex218 считывания/записи (i) считывает и декодирует мультиплексированные данные, записанные на носителе ex215 записи, таком как DVD и BD, или (i) кодирует видеосигналы на носителе ex215 записи, и в некоторых случаях записывает данные, полученные посредством мультиплексирования аудиосигнала, в кодированные данные. Модуль ex218 считывания/записи может включать в себя устройство декодирования движущихся изображений или устройство кодирования движущихся изображений, как показано в каждом из вариантов осуществления. В этом случае, воспроизведенные видеосигналы отображаются на мониторе ex219 и могут быть воспроизведены посредством другого устройства или системы с использованием носителя ex215 записи, на котором записываются мультиплексированные данные. Также можно реализовывать устройство декодирования движущихся изображений в абонентской приставке ex217, подключенной к кабелю ex203 для кабельного телевидения или к антенне ex204 для спутниковой и/или наземной широковещательной передачи, с тем чтобы отображать видеосигналы на мониторе ex219 телевизионного приемника ex300. Устройство декодирования движущихся изображений может быть реализовано не в абонентской приставке, а в телевизионном приемнике ex300.[0257] Furthermore, the reader / writer module ex218 (i) reads and decodes the multiplexed data recorded on the recording medium ex215, such as DVD and BD, or (i) encodes the video signals on the recording medium ex215, and in some cases records data, obtained by multiplexing an audio signal into encoded data. The reader / writer module ex218 may include a moving image decoding device or a moving image encoding device, as shown in each of the embodiments. In this case, the reproduced video signals are displayed on the monitor ex219 and can be reproduced by another device or system using the recording medium ex215 on which the multiplexed data is recorded. It is also possible to implement a moving picture decoding apparatus in an ex217 set-top box connected to an ex203 cable cable or an ex204 antenna for satellite and / or terrestrial broadcasting in order to display video signals on an ex219 monitor of an ex300 television receiver. A moving image decoding device may not be implemented in a set-top box, but in an ex300 television receiver.
[0258] Фиг. 19 иллюстрирует телевизионный приемник (приемное устройство) ex300, который использует способ кодирования движущихся изображений и способ декодирования движущихся изображений, описанные в каждом из вариантов осуществления. Телевизионный приемник ex300 включает в себя: тюнер ex301, который получает или предоставляет мультиплексированные данные, полученные посредством мультиплексирования аудиоданных в видеоданные, через антенну ex204 или кабель ex203 и т.д., который принимает широковещательную передачу; модуль ex302 модуляции/демодуляции, который демодулирует принятые мультиплексированные данные или модулирует данные в мультиплексированные данные, которые должны подаваться наружу; и модуль ex303 мультиплексирования/демультиплексирования, который демультиплексирует модулированные мультиплексированные данные в видеоданные и аудиоданные или мультиплексирует видеоданные и аудиоданные, кодированные посредством процессора ex306 сигналов, в данные.[0258] FIG. 19 illustrates an ex300 television receiver (receiver) that uses a moving picture coding method and a moving picture decoding method described in each of the embodiments. The ex300 television receiver includes: a tuner ex301 that receives or provides multiplexed data obtained by multiplexing audio data into video data through an antenna ex204 or cable ex203, etc., which receives broadcast transmission; a modulation / demodulation module ex302 that demodulates the received multiplexed data or modulates the data into multiplexed data to be supplied to the outside; and a multiplexing / demultiplexing unit ex303 that demultiplexes the modulated multiplexed data into video and audio data or multiplexes the video and audio data encoded by the signal processor ex306 into data.
[0259] Телевизионный приемник ex300 дополнительно включает в себя: процессор ex306 сигналов, включающий в себя процессор ex304 аудиосигналов и процессор ex305 видеосигналов, которые декодируют аудиоданные и видеоданные и кодируют аудиоданные и видеоданные, соответственно (которые выступают в качестве устройства кодирования изображений и устройства декодирования изображений согласно аспектам настоящего изобретения); и модуль ex309 вывода, включающий в себя динамик ex307, который предоставляет декодированный аудиосигнал, и модуль ex308 отображения, который отображает декодированный видеосигнал, такой как дисплей. Кроме того, телевизионный приемник ex300 включает в себя интерфейсный модуль ex317, включающий в себя модуль ex312 функционального ввода, который принимает ввод пользовательской операции. Кроме того, телевизионный приемник ex300 включает в себя модуль ex310 управления, который осуществляет общее управление каждым составляющим элементом телевизионного приемника ex300, и модуль ex311 схемы электропитания, который предоставляет питание в каждый из элементов. Кроме модуля ex312 функционального ввода, интерфейсный модуль ex317 может включать в себя: мост ex313, который подключается к внешнему устройству, такому как модуль ex218 считывания/записи; модуль ex314 гнезда для предоставления возможности присоединения носителя ex216 записи, такого как SD-карта; драйвер ex315 для того, чтобы подключаться к внешнему носителю записи, такому как жесткий диск; и модем ex316 для того, чтобы подключаться к телефонной сети. Здесь, носитель ex216 записи может электрически записывать информацию с использованием элемента энергонезависимого/энергозависимого полупроводникового запоминающего устройства для хранения. Составляющие элементы телевизионного приемника ex300 подключены друг к другу через синхронную шину.[0259] The television receiver ex300 further includes: a signal processor ex306 including an audio signal processor ex304 and a video signal processor ex305 that decode audio data and video data and encode audio data and video data, respectively (which act as an image encoding device and an image decoding device according to aspects of the present invention); and an output module ex309 including a speaker ex307 that provides the decoded audio signal, and a display module ex308 that displays the decoded video signal, such as a display. In addition, the television receiver ex300 includes an interface module ex317 including a function input module ex312 that receives a user operation input. In addition, the television receiver ex300 includes a control module ex310 that provides overall control of each constituent element of the television receiver ex300, and a power circuit module ex311 that provides power to each of the elements. In addition to the function input module ex312, the interface module ex317 may include: a bridge ex313 that connects to an external device, such as a read / write module ex218; a slot module ex314 for enabling the attachment of a recording medium ex216, such as an SD card; ex315 driver for connecting to an external recording medium such as a hard disk; and ex316 modem in order to connect to the telephone network. Here, the recording medium ex216 can electrically record information using a non-volatile / non-volatile semiconductor storage element. The constituent elements of the ex300 television receiver are connected to each other via a synchronous bus.
[0260] Во-первых, описывается конфигурация, в которой телевизионный приемник ex300 декодирует мультиплексированные данные, полученные снаружи через антенну ex204 и т.п., и воспроизводит декодированные данные. В телевизионном приемнике ex300, при пользовательской операции через удаленный контроллер ex220 и т.п., модуль ex303 мультиплексирования/демультиплексирования демультиплексирует мультиплексированные данные, демодулированные посредством модуля ex302 модуляции/демодуляции, под управлением модуля ex310 управления, включающего в себя CPU. Кроме того, процессор ex304 аудиосигналов декодирует демультиплексированные аудиоданные, и процессор ex305 видеосигналов декодирует демультиплексированные видеоданные с использованием способа декодирования, описанного в каждом из вариантов осуществления, в телевизионном приемнике ex300. Модуль ex309 вывода предоставляет декодированный видеосигнал и аудиосигнал наружу, соответственно. Когда модуль ex309 вывода предоставляет видеосигнал и аудиосигнал, сигналы могут временно сохраняться в буферах ex318 и ex319 и т.п. так, что сигналы воспроизводятся синхронно друг с другом. Кроме того, телевизионный приемник ex300 может считывать мультиплексированные данные не через широковещательную передачу и т.п., а из носителей ex215 и ex216 записи, таких как магнитный диск, оптический диск и SD-карта. Далее описывается конфигурация, в которой телевизионный приемник ex300 кодирует аудиосигнал и видеосигнал и передает данные наружу или записывает данные на носитель записи. В телевизионном приемнике ex300, при пользовательской операции через удаленный контроллер ex220 и т.п., процессор ex304 аудиосигналов кодирует аудиосигнал, и процессор ex305 видеосигналов кодирует видеосигнал под управлением модуля ex310 управления с использованием способа кодирования, как описано в каждом из вариантов осуществления. Модуль ex303 мультиплексирования/ демультиплексирования мультиплексирует кодированный видеосигнал и аудиосигнал и предоставляет результирующий сигнал наружу. Когда модуль ex303 мультиплексирования/демультиплексирования мультиплексирует видеосигнал и аудиосигнал, сигналы могут временно сохраняться в буферах ex320 и ex321 и т.п. так, что сигналы воспроизводятся синхронно друг с другом. Здесь, буферов ex318, ex319, ex320 и ex321 может быть множество, как проиллюстрировано, или, по меньшей мере, один буфер может быть совместно использован в телевизионном приемнике ex300. Кроме того, данные могут быть сохранены в буфере, так что может не допускаться переполнение и опустошение в системе, например, между модулем ex302 модуляции/демодуляции и модулем ex303 мультиплексирования/демультиплексирования.[0260] First, a configuration is described in which a television receiver ex300 decodes multiplexed data received externally through an antenna ex204 and the like, and reproduces decoded data. In a television receiver ex300, in a user operation through a remote controller ex220 or the like, the multiplexing / demultiplexing unit ex303 demultiplexes the multiplexed data demodulated by the modulation / demodulation unit ex302 under the control of the control unit ex310 including a CPU. In addition, the audio signal processor ex304 decodes the demultiplexed audio data, and the video signal processor ex305 decodes the demultiplexed video data using the decoding method described in each of the embodiments in the television receiver ex300. The output module ex309 provides the decoded video signal and the audio signal outward, respectively. When the output module ex309 provides a video signal and an audio signal, the signals may be temporarily stored in the buffers ex318 and ex319 and the like. so that the signals are reproduced synchronously with each other. In addition, the ex300 television receiver can read the multiplexed data not via broadcast or the like, but from recording media ex215 and ex216, such as a magnetic disk, an optical disk, and an SD card. The following describes a configuration in which an ex300 television receiver encodes an audio signal and a video signal and transmits data outward or writes data to a recording medium. In the television receiver ex300, in a user operation through a remote controller ex220 or the like, the audio signal processor ex304 encodes the audio signal, and the video signal processor ex305 encodes the video signal under the control of the ex310 control module using the encoding method as described in each of the embodiments. The multiplexing / demultiplexing unit ex303 multiplexes the encoded video signal and the audio signal and provides the resulting signal outward. When the multiplexing / demultiplexing unit ex303 multiplexes the video signal and the audio signal, the signals may be temporarily stored in the buffers ex320 and ex321 and the like. so that the signals are reproduced synchronously with each other. Here, the buffers ex318, ex319, ex320 and ex321 may be many, as illustrated, or at least one buffer may be shared in the television receiver ex300. In addition, data can be stored in a buffer, so that overflow and underflow in the system, for example, between modulation / demodulation module ex302 and multiplexing / demultiplexing module ex303, may not be allowed.
[0261] Кроме того, телевизионный приемник ex300 может включать в себя конфигурацию для приема AV-ввода из микрофона или камеры, отличную от конфигурации для получения аудио- и видеоданных из широковещательной передачи или носителя записи, и может кодировать полученные данные. Хотя телевизионный приемник ex300 может кодировать, мультиплексировать и предоставлять наружу данные в описании, он может допускать только прием, декодирование и предоставление наружу данных, а не кодирование, мультиплексирование и предоставление наружу данных.[0261] Furthermore, the ex300 television receiver may include a configuration for receiving AV input from a microphone or camera, different from a configuration for receiving audio and video data from a broadcast transmission or recording medium, and may encode the received data. Although the ex300 television receiver can encode, multiplex, and provide outward data in the description, it can only accept, decode, and provide outward data, and not encode, multiplex, and provide outward data.
[0262] Кроме того, когда модуль ex218 считывания/записи считывает или записывает мультиплексированные данные с или на носитель записи, один из телевизионного приемника ex300 и модуля ex218 считывания/записи может декодировать или кодировать мультиплексированные данные, и телевизионный приемник ex300 и модуль ex218 считывания/записи могут совместно использовать декодирование или кодирование.[0262] Furthermore, when the reader / writer module ex218 reads or writes multiplexed data from or to the recording medium, one of the television receiver ex300 and the reader / writer module ex218 can decode or code the multiplexed data, and the television receiver ex300 and the reader / module ex218 / records can share decoding or encoding.
[0263] В качестве примера, фиг. 20 иллюстрирует конфигурацию модуля ex400 воспроизведения/записи информации, когда данные считываются или записываются с или на оптический диск. Модуль ex400 воспроизведения/записи информации включает в себя составляющие элементы ex401, ex402, ex403, ex404, ex405, ex406 и ex407, которые описаны ниже. Оптическая головка ex401 испускает лазерное пятно на поверхности для записи носителя ex215 записи, который является оптическим диском, чтобы записывать информацию, и обнаруживает отраженный свет от поверхности для записи носителя ex215 записи, чтобы считывать информацию. Модуль ex402 модуляционной записи электрически возбуждает полупроводниковый лазер, включенный в оптическую головку ex401, и модулирует лазерное излучение согласно записанным данным. Модуль ex403 воспроизводящей демодуляции усиливает сигнал воспроизведения, полученный посредством электрического обнаружения отраженного света от поверхности для записи, с использованием фотодетектора, включенного в оптическую головку ex401, и демодулирует сигнал воспроизведения посредством разделения компонента сигнала, записанного на носитель ex215 записи, чтобы воспроизводить необходимую информацию. Буфер ex404 временно хранит информацию, которая должна записываться на носитель ex215 записи, и информацию, воспроизведенную из носителя ex215 записи. Дисковый электромотор ex405 вращает носитель ex215 записи. Модуль ex406 сервоуправления перемещает оптическую головку ex401 в заранее определенную информационную дорожку при одновременном управлении вращательным приводом дискового электромотора ex405, чтобы следовать лазерному пятну. Модуль ex407 управления системой осуществляет общее управление модулем ex400 воспроизведения/записи информации. Процессы считывания и записи могут реализовываться посредством модуля ex407 управления системой с использованием различной информации, хранимой в буфере ex404, и формирования и добавления новой информации по мере необходимости, и посредством модуля ex402 модуляционной записи, модуля ex403 демодуляции при воспроизведении и модуля ex406 сервоуправления, которые записывают и воспроизводят информацию через оптическую головку ex401 при координированном управлении. Модуль ex407 управления системой включает в себя, например, микропроцессор и выполняет обработку посредством инструктирования компьютеру выполнять программу для считывания и записи.[0263] As an example, FIG. 20 illustrates the configuration of an information reproducing / recording unit ex400 when data is read or written from or to an optical disc. The information reproducing / recording unit ex400 includes constituent elements ex401, ex402, ex403, ex404, ex405, ex406 and ex407, which are described below. The optical head ex401 emits a laser spot on the recording surface of the recording medium ex215, which is an optical disc for recording information, and detects reflected light from the recording surface of the recording medium ex215 to read information. The modulation recording module ex402 electrically excites a semiconductor laser included in the ex401 optical head and modulates the laser radiation according to the recorded data. The demodulation reproducing module ex403 amplifies the reproduction signal obtained by electrically detecting reflected light from the recording surface using a photo detector included in the optical head ex401, and demodulates the reproduction signal by separating a signal component recorded on the recording medium ex215 to reproduce the necessary information. The buffer ex404 temporarily stores information to be recorded on the recording medium ex215 and information reproduced from the recording medium ex215. The disk motor ex405 rotates the recording medium ex215. The servo control module ex406 moves the optical head ex401 to a predetermined information track while simultaneously controlling the rotary drive of the disk motor ex405 to follow the laser spot. The system control unit ex407 exercises overall control of the information playback / recording unit ex400. The read and write processes can be implemented by the system control module ex407 using various information stored in the ex404 buffer and generating and adding new information as necessary, and by the modulation recording module ex402, a playback demodulation module ex403, and servo control module ex406 that record and reproduce information through the optical head ex401 in coordinated control. The system control module ex407 includes, for example, a microprocessor, and performs processing by instructing the computer to execute a program for reading and writing.
[0264] Хотя в описании оптическая головка ex401 испускает лазерное пятно, она может выполнять запись с высокой плотностью с использованием света в поле в ближней зоне.[0264] Although the ex401 optical head emits a laser spot in the description, it can record at high density using light in a near field.
[0265] Фиг. 21 иллюстрирует носитель ex215 записи, который является оптическим диском. На поверхности для записи носителя ex215 записи, направляющие канавки формируются по спирали, и информационная дорожка ex230 записывает, заранее, информацию адреса, указывающую абсолютную позицию на диске, согласно изменению в форме направляющих канавок. Информация адреса включает в себя информацию для определения позиций блоков ex231 записи, которые являются единицей для записи данных. Воспроизведение информационной дорожки ex230 и считывание информации адреса в устройстве, которое записывает и воспроизводит данные, может приводить к определению позиций блоков записи. Кроме того, носитель ex215 записи включает в себя зону ex233 записи данных, зону ex232 внутренней окружности и зону ex234 внешней окружности. Зона ex233 записи данных является зоной для использования при записи пользовательских данных. Зона ex232 внутренней окружности и зона ex234 внешней окружности, которые находятся внутри и снаружи зоны ex233 записи данных, соответственно, предназначены для конкретного применения за исключением записи пользовательских данных. Модуль 400 воспроизведения/записи информации считывает и записывает кодированное аудио, кодированные видеоданные или мультиплексированные данные, полученные посредством мультиплексирования кодированного аудио и кодированных видеоданных, из и в зону ex233 записи данных носителя ex215 записи.[0265] FIG. 21 illustrates a recording medium ex215, which is an optical disc. On the recording surface of the recording medium ex215, the guide grooves are formed in a spiral, and the information track ex230 records, in advance, address information indicating an absolute position on the disc according to a change in the shape of the guide grooves. The address information includes information for determining positions of recording blocks ex231, which are a unit for recording data. Reproduction of the information track ex230 and reading of the address information in a device that records and reproduces data can lead to the determination of the positions of the recording blocks. In addition, the recording medium ex215 includes a data recording area ex233, an inner circle zone ex232, and an outer circle zone ex234. The data recording zone ex233 is a zone for use in recording user data. The inner circle zone ex232 and the outer circle zone ex234, which are inside and outside the data recording zone ex233, respectively, are for a specific application except for recording user data. The information reproducing / recording unit 400 reads and writes encoded audio, encoded video data or multiplexed data obtained by multiplexing encoded audio and encoded video data from and to a data recording area ex233 of a recording medium ex215.
[0266] Хотя оптический диск, имеющий слой, такой как DVD и BD, описывается в качестве примера в описании, оптический диск не ограничен таким образом и может быть оптическим диском, имеющим многослойную структуру и допускающим запись на часть, отличную от поверхности. Кроме того, оптический диск может иметь структуру для многомерной записи/воспроизведения, к примеру, записи информации с использованием света цветов с различными длинами волн в одной части оптического диска и для записи информации, имеющей различные слои, с различных углов.[0266] Although an optical disc having a layer such as DVD and BD is described as an example in the description, the optical disc is not so limited and may be an optical disc having a multilayer structure and allowing recording on a part other than the surface. In addition, the optical disk may have a structure for multidimensional recording / reproducing, for example, recording information using light of colors with different wavelengths in one part of the optical disk and for recording information having different layers from different angles.
[0267] Кроме того, автомобиль ex210, имеющий антенну ex205, может принимать данные из спутника ex202 и т.п. и воспроизводить видео на устройстве отображения, таком как автомобильная навигационная система ex211, установленная в автомобиле ex210, в цифровой широковещательной системе ex200. Здесь, конфигурация автомобильной навигационной системы ex211 является конфигурацией, например, включающей в себя приемный GPS-модуль, из конфигурации, проиллюстрированной на фиг. 19. То же применимо для конфигурации компьютера ex111, сотового телефона ex114 и т.п.[0267] In addition, a vehicle ex210 having an antenna ex205 may receive data from a satellite ex202 and the like. and play the video on a display device, such as an ex211 car navigation system installed in an ex210 car, in an ex200 digital broadcast system. Here, the configuration of the car navigation system ex211 is a configuration, for example, including a GPS receiving module, from the configuration illustrated in FIG. 19. The same applies to the configuration of the computer ex111, cell phone ex114, etc.
[0268] Фиг. 22A иллюстрирует сотовый телефон ex114, который использует способ кодирования движущихся изображений и способ декодирования движущихся изображений, описанные в вариантах осуществления. Сотовый телефон ex114 включает в себя: антенну ex350 для передачи и приема радиоволн через базовую станцию ex110; модуль ex365 камеры, допускающий захват движущихся и неподвижных изображений; и модуль ex358 отображения, к примеру, жидкокристаллический дисплей для отображения данных, таких как декодированное видео, захватываемое посредством модуля ex365 камеры или принимаемое посредством антенны ex350. Сотовый телефон ex114 дополнительно включает в себя: модуль основного корпуса, включающий в себя модуль ex366 функциональных клавиш; модуль ex357 аудиовывода, к примеру, динамик для вывода аудио; модуль ex356 аудиоввода, к примеру, микрофон для ввода аудио; запоминающее устройство ex367 для сохранения захваченного видео или неподвижных изображений, записанного аудио, кодированных или декодированных данных принимаемого видео, неподвижных изображений, почтовых сообщений и т.п.; и модуль ex364 гнезда, который является интерфейсным модулем для носителя записи, который сохраняет данные таким же образом, как запоминающее устройство ex367.[0268] FIG. 22A illustrates a cellular telephone ex114 that uses a moving picture coding method and a moving picture decoding method described in embodiments. The cell phone ex114 includes: an antenna ex350 for transmitting and receiving radio waves through the base station ex110; an ex365 camera module capable of capturing moving and still images; and a display module ex358, for example, a liquid crystal display for displaying data, such as decoded video, captured by a camera module ex365 or received by an ex350 antenna. The cell phone ex114 further includes: a main body module including a function key module ex366; an audio output module ex357, for example, a speaker for outputting audio; an audio input module ex356, for example, a microphone for inputting audio; a storage device ex367 for storing captured video or still images, recorded audio, encoded or decoded data of the received video, still images, mail messages, etc .; and a socket module ex364, which is an interface module for a recording medium that stores data in the same manner as the memory device ex367.
[0269] Далее описывается пример конфигурации сотового телефона ex114 со ссылкой на фиг. 22B. В сотовом телефоне ex114 главный модуль ex360 управления, спроектированный с возможностью полностью управлять каждым модулем основного корпуса, включающим в себя модуль ex358 отображения, а также модуль ex366 функциональных клавиш, взаимно соединяется, через синхронную шину ex370, с модулем ex361 схемы электропитания, модулем ex362 управления функциональным вводом, процессором ex355 видеосигналов, модулем ex363 интерфейса камеры, модулем ex359 управления жидкокристаллическим дисплеем (ЖК-дисплеем), модулем ex352 модуляции/демодуляции, модулем ex353 мультиплексирования/демультиплексирования, процессором ex354 аудиосигналов, модулем ex364 гнезда и запоминающим устройством ex367.[0269] An example of a configuration of a cellular telephone ex114 will now be described with reference to FIG. 22B. In the ex114 cellphone, the main control module ex360, designed to fully control each module of the main body including the display module ex358, as well as the function key module ex366, is interconnected, via the synchronous bus ex370, with the power circuit module ex361, control module ex362 function input, video signal processor ex355, camera interface module ex363, liquid crystal display (LCD) control module ex359, modulation / demodulation module ex352, multiplexer module ex353 anija / demultiplexing audio processor ex354, ex364 module sockets and the memory ex367.
[0270] Когда клавиша завершения вызова или клавиша включения питания включается посредством пользовательской операции, модуль ex361 схемы электропитания предоставляет в соответствующие модули питание из аккумуляторной батареи с тем, чтобы активировать сотовый телефон ex114.[0270] When the call end key or the power key is turned on by a user operation, the power circuit module ex361 provides power to the respective modules from the battery so as to activate the cell phone ex114.
[0271] В сотовом телефоне ex114 процессор ex354 аудиосигналов преобразует аудиосигналы, собираемые посредством модуля ex356 аудиоввода в режиме речевой связи, в цифровые аудиосигналы под управлением главного модуля ex360 управления, включающего в себя CPU, ROM и RAM. Затем, модуль ex352 модуляции/демодуляции выполняет обработку с расширенным спектром для цифровых аудиосигналов, и приемо-передающий модуль ex351 выполняет цифро-аналоговое преобразование и преобразование частоты для данных, с тем чтобы передавать результирующие данные через антенну ex350. Так же, в сотовом телефоне ex114, приемо-передающий модуль ex351 усиливает данные, принимаемые посредством антенны ex350 в режиме речевой связи, и выполняет преобразование частоты и аналого-цифровое преобразование для данных. Затем, модуль ex352 модуляции/демодуляции выполняет обработку с обратным расширенным спектром для данных, и процессор ex354 аудиосигналов преобразует их в аналоговые аудиосигналы, с тем чтобы выводить их через модуль ex357 аудиовывода.[0271] In the cellular telephone ex114, the audio signal processor ex354 converts the audio signals collected by the audio input module ex356 in the voice communication mode into digital audio signals under the control of a main control module ex360 including CPU, ROM and RAM. Then, the modulation / demodulation module ex352 performs spread spectrum processing for digital audio signals, and the ex351 transceiver module performs digital-to-analog and frequency conversion for the data so as to transmit the resulting data through the ex350 antenna. Also, in the cell phone ex114, the transceiver module ex351 amplifies the data received by the ex350 antenna in voice communication mode and performs frequency conversion and analog-to-digital conversion for the data. Then, the modulation / demodulation module ex352 performs backward spread spectrum processing for the data, and the audio signal processor ex354 converts them to analog audio signals so as to output them through the audio output module ex357.
[0272] Кроме того, когда передается электронная почта в режиме передачи данных, текстовые данные электронной почты, введенные посредством операций с модулем ex366 функциональных клавиш и т.п. основного корпуса, отправляются в главный модуль ex360 управления через модуль ex362 управления функциональным вводом. Главный модуль ex360 управления инструктирует модулю ex352 модуляции/демодуляции выполнять обработку с расширенным спектром для текстовых данных, и приемо-передающий модуль ex351 выполняет цифро-аналоговое преобразование и преобразование частоты для результирующих данных, чтобы передавать данные в базовую станцию ex110 через антенну ex350. Когда принимается почтовое сообщение, обработка, которая является приблизительно обратной относительно обработки для передачи почтового сообщения, выполняется для принимаемых данных, и результирующие данные предоставляются в модуль ex358 отображения.[0272] Furthermore, when email is transmitted in a data transmission mode, text email data inputted by operations with function key module ex366 and the like. of the main body are sent to the main control module ex360 through the function input control module ex362. The main control module ex360 instructs the modulation / demodulation module ex352 to perform spread spectrum processing for text data, and the transceiver module ex351 performs digital-to-analog and frequency conversion for the resulting data to transmit data to the base station ex110 via the ex350 antenna. When a mail message is received, processing that is approximately inverse with respect to processing for sending a mail message is performed on the received data, and the resulting data is provided to the display unit ex358.
[0273] Когда передается видео, неподвижные изображения либо видео и аудио в режиме передачи данных, процессор ex355 видеосигналов сжимает и кодирует видеосигналы, предоставляемые из модуля ex365 камеры, с использованием способа кодирования движущихся изображений, показанного в каждом из вариантов осуществления (т.е. выступает в качестве устройства кодирования изображений согласно аспекту настоящего изобретения), и передает кодированные видеоданные в модуль ex353 мультиплексирования/демультиплексирования. Напротив, в течение времени, когда модуль ex365 камеры захватывает видео, неподвижные изображения и т.п., процессор ex354 аудиосигналов кодирует аудиосигналы, собранные посредством модуля ex356 аудиоввода, и передает кодированные аудиоданные в модуль ex353 мультиплексирования/демультиплексирования.[0273] When video, still images, or video and audio in data mode are transmitted, the video signal processor ex355 compresses and encodes the video signals provided from the camera module ex365 using the moving image encoding method shown in each of the embodiments (ie acts as an image encoding device according to an aspect of the present invention), and transmits the encoded video data to the multiplexing / demultiplexing unit ex353. In contrast, during the time that the camera module ex365 captures video, still images and the like, the audio signal processor ex354 encodes the audio signals collected by the audio input module ex356 and transmits the encoded audio data to the multiplexing / demultiplexing module ex353.
[0274] Модуль ex353 мультиплексирования/демультиплексирования мультиплексирует кодированные видеоданные, подаваемые из процессора ex355 видеосигналов, и кодированные аудиоданные, подаваемые из процессора ex354 аудиосигналов, с использованием предварительно определенного способа. Затем, модуль ex352 модуляции/демодуляции (модуль схемы модуляции/демодуляции) выполняет обработку с расширенным спектром для мультиплексированных данных, и приемо- передающий модуль ex351 выполняет цифро-аналоговое преобразование и преобразование частоты для данных, с тем чтобы передавать результирующие данные через антенну ex350.[0274] The multiplexing / demultiplexing unit ex353 multiplexes encoded video data supplied from the video signal processor ex355 and encoded audio data supplied from the audio signal processor ex354 using a predetermined method. Then, the modulation / demodulation module ex352 (modulation / demodulation scheme module) performs spread spectrum processing for the multiplexed data, and the transceiver module ex351 performs digital-to-analog and frequency conversion for the data so as to transmit the resulting data through the ex350 antenna.
[0275] При приеме данных видеофайла, который связывается с веб-страницей и т.п., в режиме передачи данных или при приеме почтового сообщения с присоединенным видео и/или аудио, чтобы декодировать мультиплексированные данные, принятые через антенну ex350, модуль ex353 мультиплексирования/демультиплексирования демультиплексирует мультиплексированные данные в поток битов видеоданных и поток битов аудиоданных и предоставляет в процессор ex355 видеосигналов кодированные видеоданные, а в процессор ex354 аудиосигналов кодированные аудиоданные через синхронную шину ex370. Процессор ex355 видеосигналов декодирует видеосигнал с использованием способа декодирования движущихся изображений, соответствующего способу кодирования движущихся изображений, показанному в каждом из вариантов осуществления (т.е. выступает в качестве устройства декодирования изображений согласно аспекту настоящего изобретения), и затем модуль ex358 отображения отображает, например, видеоизображения и неподвижные изображения, включенные в видеофайл, связанный с веб-страницей, через модуль ex359 управления ЖК-дисплеем. Кроме того, процессор ex354 аудиосигналов декодирует аудиосигнал, и модуль ex357 аудиовывода предоставляет аудио.[0275] When receiving data of a video file that is linked to a web page or the like, in a data transmission mode or when receiving a mail message with attached video and / or audio, to decode the multiplexed data received via the ex350 antenna, the multiplexing unit ex353 / demultiplexing demultiplexes the multiplexed data into a video bit stream and an audio data bit stream and provides encoded video data to an ex355 video signal processor and encoded audio data to an ex354 audio signal processor through synchronous bus ex370. The video signal processor ex355 decodes the video signal using the moving image decoding method corresponding to the moving image encoding method shown in each of the embodiments (i.e., acts as an image decoding apparatus according to an aspect of the present invention), and then the display unit ex358 displays, for example, video images and still images included in the video file associated with the web page via the ex359 LCD control module. In addition, the audio signal processor ex354 decodes the audio signal, and the audio output module ex357 provides audio.
[0276] Кроме того, аналогично телевизионному приемнику ex300, терминал, такой как сотовый телефон ex114, вероятно, имеет 3 типа реализованных конфигураций, включающих в себя не только (i) приемо-передающий терминал, включающий в себя как устройство кодирования, так и устройство декодирования, но также и (ii) передающий терминал, включающий в себя только устройство кодирования, и (iii) приемный терминал, включающий в себя только устройство декодирования. Хотя в описании цифровая широковещательная система ex200 принимает и передает мультиплексированные данные, полученные посредством мультиплексирования аудиоданных в видеоданные в описании, мультиплексированные данные могут быть данными, полученными посредством мультиплексирования не аудиоданных, а символьных данных, связанных с видео, в видеоданные, и могут быть не мультиплексированными данными, а самими видеоданными.[0276] Furthermore, similarly to the ex300 television receiver, a terminal, such as an ex114 cell phone, probably has 3 types of configurations implemented, including not only (i) a transceiver terminal including both an encoding device and a device decoding, but also (ii) a transmitting terminal including only an encoding device, and (iii) a receiving terminal including only a decoding device. Although in the description, the ex200 digital broadcast system receives and transmits multiplexed data obtained by multiplexing the audio data into video data in the description, the multiplexed data may be data obtained by multiplexing not the audio data, but the character data associated with the video, into the video data, and may not be multiplexed data, and the video data itself.
[0277] По сути, способ кодирования движущихся изображений и способ декодирования движущихся изображений в каждом из вариантов осуществления могут использоваться в любых из описанных устройств и систем. Таким образом, могут быть получены преимущества, описанные в каждом из вариантов осуществления.[0277] In fact, the moving picture coding method and the moving picture decoding method in each of the embodiments can be used in any of the described devices and systems. Thus, the advantages described in each of the embodiments can be obtained.
[0278] Кроме того, настоящее изобретение не ограничено вышеприведенными вариантами осуществления, и различные модификации и изменения могут быть выполнены в любом из вариантов осуществления в настоящем изобретении.[0278] In addition, the present invention is not limited to the above embodiments, and various modifications and changes can be made in any of the embodiments in the present invention.
[0279] ВАРИАНТ 6 ОСУЩЕСТВЛЕНИЯ[0279]
Видеоданные могут быть сформированы посредством переключения, по мере необходимости, между (i) способом кодирования движущихся изображений или устройством кодирования движущихся изображений, показанными в каждом из вариантов осуществления, и (ii) способом кодирования движущихся изображений или устройством кодирования движущихся изображений в соответствии с другим стандартом, таким как MPEG-2, MPEG-4 AVC и VC-1.Video data may be generated by switching, as necessary, between (i) a moving image encoding method or a moving image encoding device shown in each of the embodiments, and (ii) a moving image encoding method or a moving image encoding device in accordance with another standard such as MPEG-2, MPEG-4 AVC and VC-1.
[0280] Здесь, когда множество видеоданных, которые соответствуют различным стандартам, формируются, а затем декодируются, способы декодирования должны быть выбраны таким образом, что они соответствуют различным стандартам. Тем не менее, поскольку не может быть обнаружено то, какому стандарту соответствуют каждые из множества из видеоданных, которые должны быть декодированы, имеется проблема в том, что не может быть выбран надлежащий способ декодирования.[0280] Here, when a plurality of video data that conforms to different standards is generated and then decoded, decoding methods must be selected so that they conform to different standards. However, since it cannot be detected which standard each of the plurality of video data to be decoded conforms to, there is a problem that the proper decoding method cannot be selected.
[0281] Чтобы разрешать проблему, мультиплексированные данные, полученные посредством мультиплексирования аудиоданных и т.п. в видеоданные, имеют структуру, включающую в себя идентификационную информацию, указывающую то, какому стандарту соответствуют видеоданные. Далее описывается конкретная структура мультиплексированных данных, включающих в себя видеоданные, сформированные в способе кодирования движущихся изображений и посредством устройства кодирования движущихся изображений, показанных в каждом из вариантов осуществления. Мультиплексированные данные являются цифровым потоком в формате транспортных потоков MPEG-2.[0281] In order to solve the problem, multiplexed data obtained by multiplexing audio data or the like. in video data, have a structure including identification information indicating to which standard the video data conforms. The following describes a specific structure of multiplexed data including video data generated in a moving image coding method and by a moving image coding device shown in each of the embodiments. Multiplexed data is a digital stream in the MPEG-2 transport stream format.
[0282] Фиг. 23 иллюстрирует структуру мультиплексированных данных. Как проиллюстрировано на фиг. 23, мультиплексированные данные могут быть получены посредством мультиплексирования, по меньшей мере, одного из видеопотока, аудиопотока, потока презентационной графики (PG) и потока интерактивной графики. Видеопоток представляет первичное видео и вторичное видео фильма, аудиопоток (IG) представляет часть первичного аудио и часть вторичного аудио, которая должна смешиваться с частью первичного аудио, а поток презентационной графики представляет субтитры фильма. Здесь, первичное видео является обычным видео, которое должно отображаться на экране, а вторичное видео является видео, которое должно отображаться в меньшем окне в первичном видео. Кроме того, поток интерактивной графики представляет интерактивный экран, который должен быть сформирован посредством размещения GUI-компонентов на экране. Видеопоток кодируется в способе кодирования движущихся изображений или посредством устройства кодирования движущихся изображений, показанных в каждом из вариантов осуществления, либо в способе кодирования движущихся изображений или посредством устройства кодирования движущихся изображений в соответствии с традиционным стандартом, таким как MPEG-2, MPEG-4 AVC и VC-1. Аудиопоток кодируется в соответствии с таким стандартом, как AC-3 Dolby, Dolby Digital Plus, MLP, DTS, DTS-HD и линейная PCM.[0282] FIG. 23 illustrates the structure of multiplexed data. As illustrated in FIG. 23, multiplexed data can be obtained by multiplexing at least one of a video stream, an audio stream, a presentation graphics stream (PG), and an interactive graphics stream. The video stream represents the primary video and the secondary video of the film, the audio stream (IG) represents the primary audio portion and the secondary audio portion to be mixed with the primary audio portion, and the presentation graphics stream represents the subtitles of the film. Here, the primary video is ordinary video that should be displayed on the screen, and the secondary video is video that should be displayed in a smaller window in the primary video. In addition, the interactive graphics stream represents an interactive screen, which should be formed by placing GUI components on the screen. The video stream is encoded in a moving picture coding method or through a moving picture coding device shown in each of the embodiments, or in a moving picture coding method or by a moving picture coding device in accordance with a conventional standard such as MPEG-2, MPEG-4 AVC and VC-1. The audio stream is encoded in accordance with such a standard as AC-3 Dolby, Dolby Digital Plus, MLP, DTS, DTS-HD and linear PCM.
[0283] Каждый поток, включенный в мультиплексированные данные, идентифицируется посредством PID. Например, 0×1011 выделяется видеопотоку, который должен быть использован для видео фильма, 0×1100-0×111F выделяются аудиопотокам, 0×1200-0×121F выделяются потокам презентационной графики, 0×1400-0×141F выделяются потокам интерактивной графики, 0×1B00-0×1B1F выделяются видеопотокам, которые должны быть использованы для вторичного видео фильма, и 0×1A00-0×1A1F выделяются аудиопотокам, которые должны быть использованы для вторичного аудио, которое должно смешиваться с первичным аудио.[0283] Each stream included in the multiplexed data is identified by a PID. For example, 0 × 1011 is allocated to the video stream that should be used for the movie video, 0 × 1100-0 × 111F are allocated to audio streams, 0 × 1200-0 × 121F are allocated to presentation graphics streams, 0 × 1400-0 × 141F are allocated to interactive graphics streams, 0 × 1B00-0 × 1B1F are allocated to the video streams that should be used for the secondary video of the film, and 0 × 1A00-0 × 1A1F are allocated to the audio streams that should be used for the secondary audio, which should be mixed with the primary audio.
[0284] Фиг. 24 схематично иллюстрирует то, как мультиплексируются данные. Во-первых, видеопоток ex235, состоящий из видеокадров, и аудиопоток ex238, состоящий из аудиокадров, преобразуются в поток PES-пакетов ex236 и поток PES-пакетов ex239 и дополнительно в TS-пакеты ex237 и TS-пакеты ex240, соответственно. Аналогично, данные потока ex241 презентационной графики и данные потока ex244 интерактивной графики преобразуются в поток PES-пакетов ex242 и поток PES-пакетов ex245 и дополнительно в TS-пакеты ex243 и TS-пакеты ex246, соответственно. Эти TS-пакеты мультиплексируются в поток, чтобы получать мультиплексированные данные ex247.[0284] FIG. 24 schematically illustrates how data is multiplexed. Firstly, the video stream ex235, consisting of video frames, and the audio stream ex238, consisting of audio frames, are converted into a stream of PES packets ex236 and a stream of PES packets ex239 and additionally into TS packets ex237 and TS packets ex240, respectively. Similarly, the data of the presentation graphics stream ex241 and the interactive graphics stream ex244 are converted into a stream of PES packets ex242 and a stream of PES packets ex245 and further into TS packets ex243 and TS packets ex246, respectively. These TS packets are multiplexed into the stream to receive multiplexed ex247 data.
[0285] Фиг. 25 иллюстрирует то, как видеопоток сохраняется в потоке PES-пакетов. Первая панель на фиг. 25 показывает поток видеокадров в видеопотоке. Вторая панель показывает поток PES-пакетов. Как указано посредством стрелок, обозначенных как yy1, yy2, yy3 и yy4 на фиг. 25, видеопоток разделяется на изображения, такие как I-изображения, B-изображения и P-изображения, каждое из которых является единицей видеопредставления, и изображения сохраняются в рабочих данных каждого из PES-пакетов. Каждый из PES-пакетов имеет PES-заголовок, и PES-заголовок сохраняет временную метку представления (PTS), указывающую время отображения изображения, и временную метку декодирования (DTS), указывающую время декодирования изображения.[0285] FIG. 25 illustrates how a video stream is stored in a stream of PES packets. The first panel in FIG. 25 shows a stream of video frames in a video stream. The second panel shows the flow of PES packets. As indicated by arrows denoted by yy1, yy2, yy3 and yy4 in FIG. 25, the video stream is divided into images, such as I-images, B-images and P-images, each of which is a unit of the video presentation, and the images are stored in the operational data of each of the PES packets. Each of the PES packets has a PES header, and the PES header stores a presentation time stamp (PTS) indicating an image display time and a decoding time stamp (DTS) indicating an image decoding time.
[0286] Фиг. 26 иллюстрирует формат TS-пакетов, которые должны быть в итоге записаны в мультиплексированные данные. Каждый из TS-пакетов является 188-байтовым пакетом фиксированной длины, включающим в себя 4-байтовый TS-заголовок, имеющий такую информацию, как PID для идентификации потока, и 184-байтовые рабочие TS-данные для сохранения данных. PES-пакеты разделяются и сохраняются в рабочих данных TS, соответственно. Когда используется BD-ROM, каждому из TS-пакетов присваивается 4-байтовый TP_Extra_Header, тем самым приводя к 192-байтовым исходным пакетам. Исходные пакеты записываются в мультиплексированные данные. TP_Extra_Header хранит такую информацию, как Arrival_Time_Stamp (ATS). ATS показывает время начала передачи, в которое каждый из TS-пакетов должен быть передан в PID-фильтр. Исходные пакеты размещаются в мультиплексированных данных, как показано в нижней части фиг. 26. Номера, увеличивающиеся с заголовка мультиплексированных данных, называются номерами исходных пакетов (SPN).[0286] FIG. 26 illustrates the format of TS packets to be finally written to the multiplexed data. Each of the TS packets is a fixed length 188-byte packet including a 4-byte TS header having information such as a PID for identifying a stream, and 184-byte working TS data for storing data. PES packets are split and stored in the TS operational data, respectively. When a BD-ROM is used, each of the TS packets is assigned a 4-byte TP_Extra_Header, thereby resulting in 192-byte source packets. Source packets are written to multiplexed data. TP_Extra_Header stores information such as Arrival_Time_Stamp (ATS). ATS shows the start time of the transmission at which each of the TS packets should be transmitted to the PID filter. Source packets are placed in multiplexed data, as shown at the bottom of FIG. 26. Numbers increasing from the header of the multiplexed data are called source packet numbers (SPNs).
[0287] Каждый из TS-пакетов, включенных в мультиплексированные данные, включает в себя не только потоки аудио, видео, субтитров и т.п., но также и таблицу ассоциаций программ (PAT), таблицу структуры программ (PMT) и временную отметку программ (PCR). PAT показывает то, что указывает PID в PMT, используемой в мультиплексированных данных, и PID самого PAT регистрируется как нуль. PMT сохраняет PID потоков видео, аудио, субтитров и т.п., включенных в мультиплексированные данные, и информацию атрибутов потоков, соответствующих PID. PMT также имеет различные дескрипторы, связанные с мультиплексированными данными. Дескрипторы имеют такую информацию, как информация управления копированием, показывающая то, разрешено или нет копирование мультиплексированных данных. PCR сохраняет информацию STC-времени, соответствующую ATS, показывающей, когда PCR-пакет передается в декодер, чтобы достигать синхронизации между таймером поступления (ATC), т.е. временной осью ATS, и системным таймером (STC), т.е. временной осью PTS и DTS.[0287] Each of the TS packets included in the multiplexed data includes not only audio, video, subtitle streams, etc., but also a program association table (PAT), a program structure table (PMT), and a time stamp programs (PCR). The PAT shows what the PID indicates in the PMT used in the multiplexed data, and the PID of the PAT itself is registered as zero. PMT stores the PIDs of video, audio, subtitle, and the like streams included in the multiplexed data and stream attribute information corresponding to the PIDs. PMT also has various descriptors associated with multiplexed data. Descriptors have information such as copy control information indicating whether copying of the multiplexed data is allowed or not. The PCR stores STC time information corresponding to the ATS, showing when the PCR packet is transmitted to the decoder in order to achieve synchronization between the arrival timer (ATC), i.e. time axis ATS, and system timer (STC), i.e. time axis of PTS and DTS.
[0288] Фиг. 27 подробно поясняет структуру данных PMT. PMT-заголовок располагается в верхней части PMT. PMT-заголовок описывает длину данных, включенных в PMT, и т.п. Множество дескрипторов, связанных с мультиплексированными данными, располагается после PMT-заголовка. Информация, такая как информация управления копированием, описывается в дескрипторах. После дескрипторов располагается множество фрагментов информации потока, связанных с потоками, включенными в мультиплексированные данные. Каждый фрагмент информации потока включает в себя дескрипторы потоков, каждый из которых описывает такую информацию, как тип потока для идентификации кодека сжатия потока, PID потока и информация атрибутов потока (такая как частота кадров или соотношение сторон). Дескрипторы потоков по числу равны числу потоков в мультиплексированных данных.[0288] FIG. 27 details the structure of the PMT data. The PMT header is located at the top of the PMT. The PMT header describes the length of the data included in the PMT, and the like. Many descriptors associated with the multiplexed data are located after the PMT header. Information, such as copy control information, is described in descriptors. After the descriptors are many pieces of stream information associated with the streams included in the multiplexed data. Each piece of stream information includes stream descriptors, each of which describes information such as a stream type for identifying a stream compression codec, a stream PID, and stream attribute information (such as frame rate or aspect ratio). The stream descriptors are equal in number to the number of streams in the multiplexed data.
[0289] Когда мультиплексированные данные записываются на носителе записи и т.д., они записываются вместе с файлами информации мультиплексированных данных.[0289] When the multiplexed data is recorded on a recording medium, etc., it is recorded together with the information files of the multiplexed data.
[0290] Каждый из файлов информации мультиплексированных данных является управляющей информацией мультиплексированных данных, как показано на фиг. 28. Файлы информации мультиплексированных данных находятся в соответствии "один-к- одному" с мультиплексированными данными, и каждый из файлов включает в себя информацию мультиплексированных данных, информацию атрибутов потока и карту вхождений.[0290] Each of the multiplexed data information files is control information of the multiplexed data, as shown in FIG. 28. The multiplexed data information files are in one-to-one correspondence with the multiplexed data, and each of the files includes multiplexed data information, stream attribute information and an entry map.
[0291] Как проиллюстрировано на фиг. 28, информация мультиплексированных данных включает в себя системную скорость, время начала воспроизведения и время завершения воспроизведения. Системная скорость указывает максимальную скорость передачи, на которой декодер системных целевых объектов, который должен быть описан ниже, передает мультиплексированные данные в PID-фильтр. Интервалы ATS, включенных в мультиплексированные данные, задаются не больше системной скорости. Время начала воспроизведения указывает PTS в видеокадре в заголовке мультиплексированных данных. Интервал одного кадра добавляется к PTS в видеокадре в конце мультиплексированных данных, и PTS задается равным времени завершения воспроизведения.[0291] As illustrated in FIG. 28, the multiplexed data information includes system speed, playback start time and playback end time. The system speed indicates the maximum transfer rate at which the system target decoder, which should be described below, transmits the multiplexed data to the PID filter. The ATS intervals included in the multiplexed data are set to no more than system speed. The start time of the playback indicates the PTS in the video frame in the header of the multiplexed data. The interval of one frame is added to the PTS in the video frame at the end of the multiplexed data, and the PTS is set to the end time of playback.
[0292] Как показано на фиг. 29, фрагмент информации атрибутов регистрируется в информации атрибутов потока для каждого PID каждого потока, включенного в мультиплексированные данные. Каждый фрагмент информации атрибутов имеет различную информацию в зависимости от того, является ли соответствующий поток видеопотоком, аудиопотоком, потоком презентационной графики или потоком интерактивной графики. Каждый фрагмент информации атрибутов видеопотока переносит информацию, включающую в себя то, какой кодек сжатия используется для сжатия видеопотока, а также разрешение, соотношение сторон и частоту кадров фрагментов данных изображений, которые включаются в видеопоток. Каждый фрагмент информации атрибутов аудиопотока переносит информацию, включающую в себя то, какой кодек сжатия используется для сжатия аудиопотока, сколько каналов включается в аудиопоток, какой язык поддерживает аудиопотока, и насколько высокой является частота дискретизации. Информация атрибутов видеопотока и информация атрибутов аудиопотока используются для инициализации декодера до того, как проигрыватель воспроизводит информацию.[0292] As shown in FIG. 29, a piece of attribute information is recorded in stream attribute information for each PID of each stream included in the multiplexed data. Each piece of attribute information has different information depending on whether the corresponding stream is a video stream, an audio stream, a presentation graphics stream, or an interactive graphics stream. Each piece of information of the attributes of the video stream carries information including which compression codec is used to compress the video stream, as well as the resolution, aspect ratio, and frame rate of the fragments of image data that are included in the video stream. Each piece of attribute information of an audio stream carries information including which compression codec is used to compress the audio stream, how many channels are included in the audio stream, which language supports the audio stream, and how high the sampling rate is. The video stream attribute information and the audio stream attribute information are used to initialize the decoder before the player reproduces the information.
[0293] В настоящем варианте осуществления мультиплексированные данные, которые должны быть использованы, имеют тип потока, включенный в PMT. Кроме того, когда мультиплексированные данные записываются на носителе записи, используется информация атрибутов видеопотока, включенная в информацию мультиплексированных данных. Более конкретно, способ кодирования движущихся изображений или устройство кодирования движущихся изображений, описанные в каждом из вариантов осуществления, включают в себя этап или модуль для выделения уникальных видеоданных, указывающих информацию, сформированную посредством способа кодирования движущихся изображений или устройства кодирования движущихся изображений в каждом из вариантов осуществления, для типа потока, включенного в PMT, или информации атрибутов видеопотока. При этой конфигурации, видеоданные, сформированные посредством способа кодирования движущихся изображений или устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, могут отличаться от видеоданных, которые соответствуют другому стандарту.[0293] In the present embodiment, the multiplexed data to be used has the stream type included in the PMT. In addition, when the multiplexed data is recorded on the recording medium, information of the attributes of the video stream included in the information of the multiplexed data is used. More specifically, the moving image encoding method or moving image encoding device described in each of the embodiments includes a step or module for extracting unique video data indicating information generated by the moving image encoding method or moving image encoding device in each of the embodiments , for the type of stream included in the PMT, or video stream attribute information. With this configuration, the video data generated by the moving image coding method or the moving image coding device described in each of the embodiments may differ from the video data that conform to another standard.
[0294] Кроме того, фиг. 30 иллюстрирует этапы способа декодирования движущихся изображений согласно настоящему варианту осуществления. На этапе exS100, тип потока, включенный в PMT или информацию атрибутов видеопотока, включенную в информацию мультиплексированных данных, получается из мультиплексированных данных. Затем, на этапе exS101, определяется то, указывает или нет тип потока либо информация атрибутов видеопотока то, что мультиплексированные данные формируются посредством способа кодирования видео или устройства кодирования видео в каждом из вариантов осуществления. Когда определяется то, что тип потока или информация атрибутов видеопотока указывают то, что мультиплексированные данные формируются посредством способа кодирования движущихся изображений или устройства кодирования движущихся изображений в каждом из вариантов осуществления, на этапе exS102, декодирование выполняется посредством способа декодирования движущихся изображений в каждом из вариантов осуществления. Кроме того, когда тип потока или информация атрибутов видеопотока указывает соответствие традиционным стандартам, таким как MPEG-2, MPEG-4 AVC и VC-1, на этапе exS103, декодирование выполняется посредством способа декодирования движущихся изображений в соответствии с традиционными стандартами.[0294] In addition, FIG. 30 illustrates the steps of a moving picture decoding method according to the present embodiment. In step exS100, the type of stream included in the PMT or attribute information of the video stream included in the information of the multiplexed data is obtained from the multiplexed data. Then, in step exS101, it is determined whether or not the type of stream or the attribute information of the video stream indicates that the multiplexed data is generated by the video encoding method or the video encoding device in each of the embodiments. When it is determined that the stream type or the video stream attribute information indicates that multiplexed data is generated by the moving image encoding method or the moving image encoding device in each of the embodiments, in step exS102, decoding is performed by the moving image decoding method in each of the embodiments . In addition, when the stream type or attribute information of the video stream indicates compliance with traditional standards such as MPEG-2, MPEG-4 AVC and VC-1 in step exS103, decoding is performed by a moving picture decoding method in accordance with traditional standards.
[0295] Так же, выделение нового уникального значения для типа потока или информации атрибутов видеопотока обеспечивает определение того, могут или нет выполнять декодирование способ декодирования движущихся изображений или устройство декодирования движущихся изображений, которые описываются в каждом из вариантов осуществления. Даже когда вводятся мультиплексированные данные, которые соответствуют другому стандарту, может быть выбран надлежащий способ или устройство декодирования. Таким образом, появляется возможность декодировать информацию без ошибок. Кроме того, способ или устройство кодирования движущихся изображений либо способ или устройство декодирования движущихся изображений в настоящем варианте осуществления могут быть использованы в устройствах и системах, описанных выше.[0295] Also, highlighting a new unique value for the stream type or the attribute information of the video stream provides a determination of whether or not to perform decoding, a moving image decoding method or a moving image decoding device that are described in each of the embodiments. Even when multiplexed data that conforms to another standard is input, an appropriate decoding method or apparatus can be selected. Thus, it becomes possible to decode information without errors. In addition, the moving image encoding method or device or the moving image decoding method or device in the present embodiment can be used in the devices and systems described above.
[0296] ВАРИАНТ 7 ОСУЩЕСТВЛЕНИЯ[0296]
Каждый из способа кодирования движущихся изображений, устройства кодирования движущихся изображений, способа декодирования движущихся изображений и устройства декодирования движущихся изображений в каждом из вариантов осуществления типично осуществляется в форме интегральной схемы или большой интегральной (LSI) схемы. В качестве примера LSI, фиг. 31 иллюстрирует конфигурацию LSI ex500, которая состоит из одного кристалла. LSI ex500 включает в себя элементы ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 и ex509, которые должны быть описаны ниже, и элементы соединяются друг с другом через шину ex510. Модуль ex505 схемы электропитания активируется посредством предоставления в каждый из элементов питания, когда модуль ex505 схемы электропитания включается.Each of the moving picture coding method, the moving picture coding device, the moving picture decoding method, and the moving picture decoding device in each of the embodiments are typically implemented in the form of an integrated circuit or a large integrated circuit (LSI). As an example of LSI, FIG. 31 illustrates the configuration of an LSI ex500, which consists of a single chip. LSI ex500 includes elements ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 and ex509, which should be described below, and the elements are connected to each other via bus ex510. The power circuit module ex505 is activated by providing each of the batteries when the power circuit module ex505 is turned on.
[0297] Например, когда выполняется кодирование, LSI ex500 принимает AV-сигнал из микрофона ex117, камеры ex113 и т.п. через AV-ввод/вывод ex509 под управлением модуля ex501 управления, включающего в себя CPU ex502, контроллер ex503 запоминающего устройства, потоковый контроллер ex504 и модуль ex512 управления частотой возбуждения. Принимаемый AV-сигнал временно сохраняется во внешней памяти ex511, к примеру, SDRAM. Под управлением модуля ex501 управления, сохраненные данные сегментируются на части данных согласно объему и скорости обработки так, что они передаются в процессор ex507 сигналов. Затем, процессор ex507 сигналов кодирует аудиосигнал и/или видеосигнал. Здесь, кодирование видеосигнала является кодированием, описанным в каждом из вариантов осуществления. Кроме того, процессор ex507 сигналов иногда мультиплексирует кодированные аудиоданные и кодированные видеоданные, и потоковый ввод-вывод ex506 предоставляет мультиплексированные данные наружу. Предоставляемый поток битов передается в базовую станцию ex107 или записывается на носителе ex215 записи. Когда наборы данных мультиплексируются, данные должны временно сохраняться в буфере ex508 так, что наборы данных являются синхронизированными друг с другом.[0297] For example, when encoding is performed, the LSI ex500 receives an AV signal from a microphone ex117, a camera ex113, and the like. via the AV input / output ex509 under the control of the control unit ex501 including the CPU ex502, a storage controller ex503, a stream controller ex504, and a drive frequency control unit ex512. The received AV signal is temporarily stored in the external memory ex511, for example, SDRAM. Under the control of the control module ex501, the stored data is segmented into pieces of data according to the volume and processing speed so that they are transmitted to the signal processor ex507. Then, the signal processor ex507 encodes the audio signal and / or video signal. Here, the encoding of a video signal is the encoding described in each of the embodiments. In addition, the signal processor ex507 sometimes multiplexes the encoded audio data and the encoded video data, and the streaming input / output ex506 provides the multiplexed data to the outside. The provided bitstream is transmitted to the base station ex107 or recorded on the recording medium ex215. When the data sets are multiplexed, the data should be temporarily stored in the buffer ex508 so that the data sets are synchronized with each other.
[0298] Хотя память ex511 является элементом за пределами LSI ex500, она может быть включена в LSI ex500. Буфер ex508 не ограничен одним буфером, а может состоять из буферов. Кроме того, LSI ex500 может состоять из одного кристалла или множества кристаллов.[0298] Although the ex511 memory is an item outside the LSI ex500, it can be included in the LSI ex500. The ex508 buffer is not limited to one buffer, but may consist of buffers. In addition, the LSI ex500 can consist of a single crystal or multiple crystals.
[0299] Кроме того, хотя модуль ex501 управления включает в себя CPU ex502, контроллер ex503 запоминающего устройства, потоковый контроллер ex504, модуль ex512 управления частотой возбуждения, конфигурация модуля ex501 управления не ограничена этой. Например, процессор ex507 сигналов дополнительно может включать в себя CPU. Включение другого CPU в процессор ex507 сигналов может повышать скорость обработки. Кроме того, в качестве другого примера, CPU ex502 может выступать в качестве или быть частью процессора ex507 сигналов и, например, может включать в себя процессор аудиосигналов. В таком случае, модуль ex501 управления включает в себя процессор ex507 сигналов или CPU ex502, включающий в себя часть процессора ex507 сигналов.[0299] Furthermore, although the control unit ex501 includes a CPU ex502, a storage controller ex503, a stream controller ex504, a drive frequency control unit ex512, the configuration of the control unit ex501 is not limited to this. For example, the signal processor ex507 may further include a CPU. The inclusion of another CPU in the signal processor ex507 may increase processing speed. In addition, as another example, the CPU ex502 may act as or be part of a signal processor ex507 and, for example, may include an audio signal processor. In such a case, the control unit ex501 includes a signal processor ex507 or a CPU ex502 including a portion of the signal processor ex507.
[0300] Используемым здесь названием является LSI, но она также может называться IC, системной LSI, супер-LSI или ультра-LSI в зависимости от степени интеграции.[0300] The name used here is LSI, but it may also be called IC, system LSI, super-LSI or ultra-LSI depending on the degree of integration.
[0301] Кроме того, способы достигать интеграции не ограничены LSI, и специальная схема или процессор общего назначения и т.д. также позволяет достигать интеграции. Программируемая пользователем вентильная матрица (FPGA), которая может программироваться после изготовления LSI, или реконфигурируемый процессор, который дает возможность переконфигурирования подключения или конфигурации LSI, может использоваться для аналогичной цели.[0301] In addition, methods to achieve integration are not limited to LSI, and a special circuit or general-purpose processor, etc. also allows integration. User-Programmable Gate Array (FPGA), which can be programmed after manufacturing the LSI, or a reconfigurable processor that allows reconfiguration of the connection or configuration of the LSI, can be used for a similar purpose.
[0302] В будущем, с развитием полупроводниковых технологий совершенно новая технология может заменять LSI. Функциональные блоки могут быть интегрированы с использованием этой технологии. Имеется возможность того, что настоящее изобретение применимо к биотехнологии.[0302] In the future, with the development of semiconductor technology, a completely new technology may replace LSI. Function blocks can be integrated using this technology. It is possible that the present invention is applicable to biotechnology.
[0303] ВАРИАНТ 8 ОСУЩЕСТВЛЕНИЯ[0303] OPTION 8
Когда декодируются видеоданные, сформированные в способе кодирования движущихся изображений или посредством устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, по сравнению с тем, когда декодируются видеоданные, которые соответствуют традиционному стандарту, такому как MPEG-2, MPEG-4 AVC и VC-1, объем обработки, вероятно, возрастает. Таким образом, LSI ex500 должна задаваться на частоте возбуждения, превышающей частоту CPU ex502, которая должна быть использована, когда видеоданные декодируются в соответствии с традиционным стандартом. Тем не менее, когда частота возбуждения задается большей, имеется проблема в том, что возрастает энергопотребление.When video data generated by the moving image coding method or by the moving image coding device described in each of the embodiments is decoded, compared to when video data that conforms to a conventional standard such as MPEG-2, MPEG-4 AVC and VC is decoded -1, the amount of processing is likely to increase. Thus, the LSI ex500 must be set at an excitation frequency higher than the frequency of the CPU ex502, which should be used when the video data is decoded in accordance with the traditional standard. However, when the excitation frequency is set higher, there is a problem in that the power consumption increases.
[0304] Чтобы разрешать проблему, устройство декодирования движущихся изображений, такое как телевизионный приемник ex300 и LSI ex500, выполнено с возможностью определять то, какому стандарту соответствуют видеоданные, и переключаться между частотами возбуждения согласно определенному стандарту. Фиг. 32 иллюстрирует конфигурацию ex800 в настоящем варианте осуществления. Модуль ex803 переключения частоты возбуждения задает частоту возбуждения равной высокой частоте возбуждения, когда видеоданные формируются посредством способа кодирования движущихся изображений или устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления. Затем, модуль ex803 переключения частоты возбуждения инструктирует процессору ex801 декодирования, который осуществляет способ декодирования движущихся изображений, описанный в каждом из вариантов осуществления, декодировать видеоданные. Когда видеоданные соответствуют традиционному стандарту, модуль ex803 переключения частоты возбуждения задает частоту возбуждения равной меньшей частоте возбуждения, чем частота возбуждения видеоданных, сгенерированных посредством способа кодирования движущихся изображений или устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления. Затем, модуль ex803 переключения частоты возбуждения инструктирует процессору ex802 декодирования, который соответствует традиционному стандарту, декодировать видеоданные.[0304] In order to solve the problem, a moving picture decoding device such as a television receiver ex300 and an LSI ex500 is configured to determine which standard the video data conforms to and switch between driving frequencies according to a specific standard. FIG. 32 illustrates a configuration of ex800 in the present embodiment. The driving frequency switching unit ex803 sets the driving frequency to a high driving frequency when the video data is generated by the moving image encoding method or the moving image encoding device described in each of the embodiments. Then, the driving frequency switching unit ex803 instructs the decoding processor ex801, which implements the moving image decoding method described in each of the embodiments, to decode the video data. When the video data complies with the traditional standard, the driving frequency switching unit ex803 sets the driving frequency to a lower driving frequency than the driving frequency of the video data generated by the moving image coding method or the moving image coding device described in each of the embodiments. Then, the driving frequency switching unit ex803 instructs the decoding processor ex802, which conforms to the conventional standard, to decode the video data.
[0305] Более конкретно, модуль ex803 переключения частоты возбуждения включает в себя CPU ex502 и модуль ex512 управления частотой возбуждения на фиг. 31. Здесь, каждый из процессора ex801 декодирования, который осуществляет способ декодирования движущихся изображений, описанный в каждом из вариантов осуществления, и процессора ex802 декодирования, который соответствует традиционному стандарту, соответствует процессору ex507 сигналов на фиг. 31. CPU ex502 определяет то, какому стандарту соответствуют видеоданные. Затем, модуль ex512 управления частотой возбуждения определяет частоту возбуждения на основе сигнала из CPU ex502. Кроме того, процессор ex507 сигналов декодирует видеоданные на основе сигнала из CPU ex502. Например, идентификационная информация, описанная в варианте 6 осуществления, вероятно, используется для идентификации видеоданных. Идентификационная информация не ограничена идентификационной информацией, описанной в варианте 6 осуществления, а может быть любой информацией при условии, что информация указывает то, какому стандарту соответствуют видеоданные. Например, когда то, какому стандарту соответствуют стандартные видеоданные, может быть определено на основе внешнего сигнала для определения того, что видеоданные используются для телевизионного приемника или диска и т.д., определение может выполняться на основе такого внешнего сигнала. Кроме того, CPU ex502 выбирает частоту возбуждения на основе, например, таблицы поиска, в которой стандарты видеоданных ассоциированы с частотами возбуждения, как показано на фиг. 34. Частота возбуждения может быть выбрана посредством сохранения таблицы поиска в буфере ex508 и внутреннем запоминающем устройстве LSI и при обращении к таблице поиска посредством CPU ex502.[0305] More specifically, the driving frequency switching unit ex803 includes a CPU ex502 and the driving frequency control unit ex512 in FIG. 31. Here, each of the decoding processor ex801 that implements the moving image decoding method described in each of the embodiments and the decoding processor ex802 that conforms to the conventional standard corresponds to the signal processor ex507 of FIG. 31. The CPU ex502 determines to which standard the video data conforms. Then, the driving frequency control unit ex512 determines the driving frequency based on the signal from the CPU ex502. In addition, the signal processor ex507 decodes the video data based on the signal from the CPU ex502. For example, the identification information described in
[0306] Фиг. 33 иллюстрирует этапы для осуществления способа в настоящем варианте осуществления. Во-первых, на этапе exS200, процессор ex507 сигналов получает идентификационную информацию из мультиплексированных данных. Затем, на этапе exS201, CPU ex502 определяет на основе идентификационной информации то, формируются или нет видеоданные посредством способа кодирования и устройства кодирования, описанных в каждом из вариантов осуществления. Когда видеоданные формируются посредством способа кодирования движущихся изображений и устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, на этапе exS202, CPU ex502 передает сигнал для задания частоты возбуждения равной большей частоте возбуждения в модуль ex512 управления частотой возбуждения. Затем, модуль ex512 управления частотой возбуждения задает частоту возбуждения равной большей частоте возбуждения. С другой стороны, когда идентификационная информация указывает то, что видеоданные соответствуют традиционному стандарту, такому как MPEG-2, MPEG-4 AVC и VC-1, на этапе exS203, CPU ex502 передает сигнал для задания частоты возбуждения равной меньшей частоте возбуждения в модуль ex512 управления частотой возбуждения. Затем, модуль ex512 управления частотой возбуждения задает частоту возбуждения равной меньшей частоте возбуждения, чем частота возбуждения в случае, если видеоданные формируются посредством способа кодирования движущихся изображений и устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления.[0306] FIG. 33 illustrates the steps for implementing the method in the present embodiment. First, in step exS200, the signal processor ex507 obtains identification information from the multiplexed data. Then, in step exS201, the CPU ex502 determines based on the identification information whether or not video data is generated by the encoding method and the encoding device described in each of the embodiments. When video data is generated by the moving image encoding method and the moving image encoding device described in each of the embodiments in step exS202, the CPU ex502 transmits a signal for setting the driving frequency to a higher driving frequency to the driving frequency control unit ex512. Then, the driving frequency control unit ex512 sets the driving frequency to a higher driving frequency. On the other hand, when the identification information indicates that the video data conforms to a traditional standard such as MPEG-2, MPEG-4 AVC and VC-1, in step exS203, the CPU ex502 transmits a signal for setting the driving frequency to a lower driving frequency to the ex512 module control the frequency of excitation. Then, the driving frequency control unit ex512 sets the driving frequency to a lower driving frequency than the driving frequency if the video data is generated by the moving image encoding method and the moving image encoding device described in each of the embodiments.
[0307] Кроме того, наряду с переключением частот возбуждения, энергосберегающий эффект может быть повышен посредством изменения напряжения, которое должно прикладываться к LSI ex500 или к устройству, включающему в себя LSI ex500. Например, когда частота возбуждения задается меньшей, напряжение, которое должно прикладываться к LSI ex500 или к устройству, включающему в себя LSI ex500, вероятно, задается равным напряжению, меньшему напряжения в случае, если частота возбуждения задается большей.[0307] In addition, along with switching the driving frequencies, the energy-saving effect can be enhanced by changing the voltage to be applied to the LSI ex500 or to a device including the LSI ex500. For example, when the drive frequency is set lower, the voltage to be applied to the LSI ex500 or to a device including the LSI ex500 is likely to be set to a voltage lower than the voltage if the drive frequency is set higher.
[0308] Кроме того, когда объем обработки для декодирования больше, частота возбуждения может задаваться большей, а когда объем обработки для декодирования меньше, частота возбуждения может задаваться меньшей в качестве способа для задания частоты возбуждения. Таким образом, способ задания не ограничен способами, описанными выше. Например, когда объем обработки для декодирования видеоданных в соответствии с MPEG-4 AVC превышает объем обработки для декодирования видеоданных, сгенерированных посредством способа кодирования движущихся изображений и устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, частота возбуждения, вероятно, задается в обратном порядке относительно задания, описанного выше.[0308] Further, when the processing amount for decoding is larger, the driving frequency may be set higher, and when the processing volume for decoding is smaller, the driving frequency may be set lower as a method for setting the driving frequency. Thus, the setting method is not limited to the methods described above. For example, when the processing amount for decoding video data in accordance with MPEG-4 AVC exceeds the processing amount for decoding video data generated by the moving image encoding method and the moving image encoding device described in each of the embodiments, the driving frequency is probably set in the reverse order regarding the task described above.
[0309] Кроме того, способ для задания частоты возбуждения не ограничен способом для задания частоты возбуждения меньшей. Например, когда идентификационная информация указывает то, что видеоданные формируются посредством способа кодирования движущихся изображений и устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, напряжение, которое должно прикладываться к LSI ex500 или к устройству, включающему в себя LSI ex500, вероятно, задается большим. Когда идентификационная информация указывает то, что видеоданные соответствуют традиционному стандарту, такому как MPEG-2, MPEG-4 AVC и VC-1, напряжение, которое должно прикладываться к LSI ex500 или к устройству, включающему в себя LSI ex500, вероятно, задается меньшим. В качестве другого примера, когда идентификационная информация указывает то, что видеоданные формируются посредством способа кодирования движущихся изображений и устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, возбуждение CPU ex502, вероятно, не должно приостанавливаться. Когда идентификационная информация указывает то, что видеоданные соответствуют традиционному стандарту, такому как MPEG-2, MPEG-4 AVC и VC-1, возбуждение CPU ex502, вероятно, приостанавливается в данное время, поскольку CPU ex502 имеет дополнительную производительность обработки. Даже когда идентификационная информация указывает то, что видеоданные формируются посредством способа кодирования движущихся изображений и устройства кодирования движущихся изображений, описанных в каждом из вариантов осуществления, в случае, если CPU ex502 имеет дополнительную производительность обработки, возбуждение CPU ex502, вероятно, приостанавливается в данное время. В таком случае, время приостановки, вероятно, задается меньшим времени приостановки в случае, когда идентификационная информация указывает то, что видеоданные соответствуют традиционному стандарту, такому как MPEG-2, MPEG-4 AVC и VC-1.[0309] Furthermore, a method for setting a driving frequency is not limited to a method for setting a driving frequency less. For example, when the identification information indicates that video data is generated by the moving image encoding method and the moving image encoding device described in each of the embodiments, the voltage to be applied to the LSI ex500 or to a device including the LSI ex500 is probably set great. When the identification information indicates that the video data conforms to a traditional standard such as MPEG-2, MPEG-4 AVC and VC-1, the voltage to be applied to the LSI ex500 or to a device including the LSI ex500 is likely to be set lower. As another example, when the identification information indicates that video data is generated by the moving image encoding method and the moving image encoding device described in each of the embodiments, the excitation of the CPU ex502 probably should not be stopped. When the identification information indicates that the video data conforms to a traditional standard such as MPEG-2, MPEG-4 AVC and VC-1, the excitation of the CPU ex502 is probably stopped at this time, because the CPU ex502 has additional processing performance. Even when the identification information indicates that video data is generated by the moving image encoding method and the moving image encoding device described in each of the embodiments, if the CPU ex502 has additional processing performance, the excitation of the CPU ex502 is probably stopped at this time. In such a case, the pause time is probably set to be shorter than the pause time when the identification information indicates that the video data conforms to a traditional standard such as MPEG-2, MPEG-4 AVC and VC-1.
[0310] Соответственно, энергосберегающий эффект может быть повышен посредством переключения между частотами возбуждения согласно стандарту, которому соответствуют видеоданные. Кроме того, когда LSI ex500 или устройство, включающее в себя LSI ex500, возбуждается с использованием аккумулятора, время работы от аккумулятора может быть продлено за счет энергосберегающего эффекта.[0310] Accordingly, the energy-saving effect can be enhanced by switching between driving frequencies according to the standard to which the video data conforms. In addition, when the LSI ex500 or device including the LSI ex500 is energized using a battery, the battery life can be extended due to the energy-saving effect.
[0311] ВАРИАНТ 9 ОСУЩЕСТВЛЕНИЯ[0311] OPTION 9
Возникают случаи, когда множество видеоданных, которые соответствуют различным стандартам, предоставляются в устройства и системы, такие как телевизионный приемник и сотовый телефон. Чтобы обеспечивать декодирование множества видеоданных, которые соответствуют различным стандартам, процессор ex507 сигналов LSI ex500 должен соответствовать различным стандартам. Тем не менее, проблемы увеличения масштаба схемы LSI ex500 и роста затрат возникают при отдельном использовании процессоров ex507 сигналов, которые соответствуют соответствующим стандартам.There are cases when a lot of video data that meet various standards is provided to devices and systems, such as a television receiver and cell phone. In order to decode a plurality of video data that conforms to different standards, the ex507 LSI ex500 signal processor must conform to different standards. However, problems with scaling up the LSI ex500 circuitry and rising costs arise with the separate use of signal processors ex507 that comply with the relevant standards.
[0312] Чтобы разрешать проблему, задумана конфигурация, в которой частично совместно используются процессор декодирования для реализации способа декодирования движущихся изображений, описанного в каждом из вариантов осуществления, и процессор декодирования, который соответствует традиционному стандарту, такому как MPEG-2, MPEG-4 AVC и VC-1. Ex900 на фиг. 35A показывает пример конфигурации. Например, способ декодирования движущихся изображений, описанный в каждом из вариантов осуществления, и способ декодирования движущихся изображений, который соответствует MPEG-4 AVC, имеют, частично совместно, сведения по обработке, такой как энтропийное кодирование, обратное квантование, фильтрация для удаления блочности и прогнозирование с компенсацией движения. Сведения по обработке, которая должна совместно использоваться, вероятно, включают в себя использование процессора ex902 декодирования, который соответствует MPEG-4 AVC. Напротив, выделенный процессор ex901 декодирования, вероятно, используется для другой обработки, уникальной для аспекта настоящего изобретения. Поскольку аспект настоящего изобретения конкретно отличается посредством внешнего прогнозирования, например, выделенный процессор ex901 декодирования используется для внешнего прогнозирования. В противном случае, процессор декодирования, вероятно, совместно используется для одного из энтропийного декодирования, фильтрации для удаления блочности и обратного квантования либо для всей обработки. Процессор декодирования для реализации способа декодирования движущихся изображений, описанного в каждом из вариантов осуществления, может быть совместно использован для обработки, которая должна совместно использоваться, и выделенный процессор декодирования может использоваться для обработки, уникальной для MPEG-4 AVC.[0312] In order to solve the problem, a configuration has been devised in which a decoding processor is partially shared to implement a moving image decoding method described in each of the embodiments, and a decoding processor that conforms to a conventional standard such as MPEG-2, MPEG-4 AVC and VC-1. Ex900 in FIG. 35A shows an example configuration. For example, the moving image decoding method described in each of the embodiments and the moving image decoding method that corresponds to MPEG-4 AVC have, in part, jointly processing information such as entropy encoding, inverse quantization, filtering for deblocking, and prediction with motion compensation. Information about the processing to be shared probably includes the use of a decoding processor ex902 that corresponds to MPEG-4 AVC. In contrast, the dedicated decoding processor ex901 is probably used for other processing unique to an aspect of the present invention. Since an aspect of the present invention is specifically different by inter prediction, for example, a dedicated decoding processor ex901 is used for inter prediction. Otherwise, the decoding processor is probably shared for one of entropy decoding, filtering for deblocking and inverse quantization, or for all processing. A decoding processor for implementing the moving picture decoding method described in each of the embodiments may be shared for processing to be shared, and a dedicated decoding processor may be used for processing unique to MPEG-4 AVC.
[0313] Кроме того, ex1000 на фиг. 35B показывает другой пример, в котором обработка совместно используется частично. Этот пример использует конфигурацию, включающую в себя выделенный процессор ex1001 декодирования, который поддерживает обработку, уникальную для аспекта настоящего изобретения, выделенный процессор ex1002 декодирования, который поддерживает обработку, уникальную для другого традиционного стандарта, и процессор ex1003 декодирования, который поддерживает обработку, которая должна совместно использоваться способом декодирования движущихся изображений согласно аспекту настоящего изобретения и традиционным способом декодирования движущихся изображений. Здесь, выделенные процессоры ex1001 и ex1002 декодирования не обязательно являются специализированными для обработки согласно аспекту настоящего изобретения и обработки по традиционному стандарту, соответственно, и могут быть процессорами, допускающими реализацию общей обработки. Кроме того, конфигурация настоящего варианта осуществления может быть реализована посредством LSI ex500.[0313] Furthermore, ex1000 in FIG. 35B shows another example in which processing is partially shared. This example uses a configuration including a dedicated decoding processor ex1001 that supports processing unique to an aspect of the present invention, a dedicated decoding processor ex1002 that supports processing unique to another traditional standard, and a decoding processor ex1003 that supports processing that must be shared used by a moving image decoding method according to an aspect of the present invention and a traditional moving decoding method images. Here, the dedicated decoding processors ex1001 and ex1002 are not necessarily specialized for processing according to an aspect of the present invention and processing according to the traditional standard, respectively, and may be processors capable of implementing general processing. In addition, the configuration of the present embodiment may be implemented by the LSI ex500.
[0314] Так же, уменьшение масштаба схемы LSI и сокращение затрат возможно за счет совместного использования процессора декодирования для обработки, которая должна совместно использоваться способом декодирования движущихся изображений согласно аспекту настоящего изобретения и способом декодирования движущихся изображений в соответствии с традиционным стандартом.[0314] Likewise, reducing the scale of the LSI scheme and reducing costs is possible by sharing a decoding processor for processing to be shared by a moving image decoding method according to an aspect of the present invention and a moving image decoding method in accordance with a conventional standard.
[0315] ПРОМЫШЛЕННАЯ ПРИМЕНИМОСТЬ[0315] INDUSTRIAL APPLICABILITY
Настоящее изобретение является применимым к телевизионному приемнику, цифровому записывающему видеоустройству, автомобильной навигационной системе, сотовому телефону, цифровой камере, цифровой видеокамере и т.п.The present invention is applicable to a television receiver, digital video recorder, car navigation system, cell phone, digital camera, digital video camera, and the like.
СПИСОК НОМЕРОВ ССЫЛОКLIST OF REFERENCE NUMBERS
[0316] 500, 1300 - устройство кодирования изображений[0316] 500, 1300 - image encoding device
501 - модуль вычитания501 - subtraction module
502 - модуль преобразования502 - conversion module
503 - модуль квантования503 - quantization module
504 - энтропийный кодер504 - entropy encoder
505, 602 - модуль обратного квантования505, 602 - inverse quantization module
506, 603 - модуль обратного преобразования506, 603 - inverse transformation module
507, 604 - модуль суммирования507, 604 - summing module
508, 605 - память блоков508, 605 - block memory
509, 606 - память изображений509, 606 - image memory
510, 607 - модуль внутреннего прогнозирования510, 607 - internal forecasting module
511, 608 - модуль внешнего прогнозирования511, 608 - external forecasting module
512, 609, 1303, 1403 - модуль выбора512, 609, 1303, 1403 - selection module
600, 1400 - устройство декодирования изображений600, 1400 - image decoding device
601 - энтропийный декодер601 - entropy decoder
1301, 1401 - модуль извлечения1301, 1401 - extraction module
1302, 1402 - модуль добавления1302, 1402 - add module
1304 - кодер1304 - encoder
1404 - декодер1404 - decoder
Claims (30)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161552848P | 2011-10-28 | 2011-10-28 | |
US61/552,848 | 2011-10-28 | ||
PCT/JP2012/006674 WO2013061549A1 (en) | 2011-10-28 | 2012-10-18 | Image encoding method, image decoding method, image encoding device, and image decoding device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017101232A Division RU2646328C1 (en) | 2011-10-28 | 2012-10-18 | Image encoding method, image decoding method, image encoding device and image decoding device |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013147415A RU2013147415A (en) | 2015-12-10 |
RU2609083C2 true RU2609083C2 (en) | 2017-01-30 |
Family
ID=48167405
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013147415A RU2609083C2 (en) | 2011-10-28 | 2012-10-18 | Image encoding method, image decoding method, image encoding device and image decoding device |
RU2017101232A RU2646328C1 (en) | 2011-10-28 | 2012-10-18 | Image encoding method, image decoding method, image encoding device and image decoding device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017101232A RU2646328C1 (en) | 2011-10-28 | 2012-10-18 | Image encoding method, image decoding method, image encoding device and image decoding device |
Country Status (13)
Country | Link |
---|---|
US (7) | US8913665B2 (en) |
EP (1) | EP2782341B1 (en) |
JP (4) | JP5379933B2 (en) |
KR (1) | KR101935977B1 (en) |
CN (2) | CN107948656B (en) |
AR (2) | AR088540A1 (en) |
CA (1) | CA2836244C (en) |
ES (1) | ES2780188T3 (en) |
MX (1) | MX2013012224A (en) |
PL (1) | PL2782341T3 (en) |
RU (2) | RU2609083C2 (en) |
TW (1) | TWI552576B (en) |
WO (1) | WO2013061549A1 (en) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101846603B1 (en) * | 2011-02-10 | 2018-04-06 | 선 페이턴트 트러스트 | Moving picture encoding method, moving picture encoding device, moving picture decoding method, moving picture decoding device, and moving picture encoding decoding device |
MX341889B (en) * | 2011-06-30 | 2016-09-07 | Sony Corp | Image processing device and method. |
CA2845548C (en) | 2011-08-25 | 2018-04-24 | Panasonic Corporation | Methods and apparatuses for encoding and decoding video using periodic buffer description |
KR101909308B1 (en) * | 2011-09-07 | 2018-10-17 | 선 페이턴트 트러스트 | Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device |
ES2844148T3 (en) | 2011-09-19 | 2021-07-21 | Sun Patent Trust | Image decoding procedure, image decoding device |
IN2014CN02604A (en) | 2011-10-19 | 2015-08-07 | Panasonic Corp | |
CN104025599B (en) * | 2011-11-08 | 2018-12-14 | 诺基亚技术有限公司 | reference picture processing |
US9973749B2 (en) * | 2012-01-20 | 2018-05-15 | Nokia Technologies Oy | Method for video coding and an apparatus, a computer-program product, a system, and a module for the same |
JP5613846B2 (en) | 2012-05-09 | 2014-10-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Motion vector prediction method and motion vector prediction apparatus |
US11595652B2 (en) | 2019-01-28 | 2023-02-28 | Op Solutions, Llc | Explicit signaling of extended long term reference picture retention |
US10271062B2 (en) | 2016-03-18 | 2019-04-23 | Google Llc | Motion vector prediction through scaling |
US10602176B2 (en) | 2016-04-15 | 2020-03-24 | Google Llc | Coding interpolation filter type |
JP6867763B2 (en) * | 2016-08-10 | 2021-05-12 | 日本放送協会 | Encoding device and program |
CN107295348A (en) * | 2017-07-31 | 2017-10-24 | 南通海鑫信息科技有限公司 | A kind of method for encoding images |
WO2019191890A1 (en) | 2018-04-02 | 2019-10-10 | 深圳市大疆创新科技有限公司 | Image processing method and image processing device |
GB2588531B (en) | 2018-06-29 | 2023-02-01 | Beijing Bytedance Network Tech Co Ltd | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
GB2588006B (en) | 2018-06-29 | 2023-03-22 | Beijing Bytedance Network Tech Co Ltd | Number of motion candidates in a look up table to be checked according to mode |
KR20240007299A (en) | 2018-06-29 | 2024-01-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Update of look up table: fifo, constrained fifo |
KR102680903B1 (en) | 2018-06-29 | 2024-07-04 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Partial/full pruning when adding a hmvp candidate to merge/amvp |
GB2589487B (en) | 2018-06-29 | 2023-02-08 | Beijing Bytedance Network Tech Co Ltd | Checking order of motion candidates in LUT |
TWI744662B (en) | 2018-06-29 | 2021-11-01 | 大陸商北京字節跳動網絡技術有限公司 | Conditions for updating luts |
JP7193629B2 (en) | 2018-06-29 | 2022-12-20 | 北京字節跳動網絡技術有限公司 | Either the LUT to be updated or not |
EP4325861A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
TWI735902B (en) | 2018-07-02 | 2021-08-11 | 大陸商北京字節跳動網絡技術有限公司 | Lookup table with intra frame prediction and intra frame predication from non adjacent blocks |
TW202025760A (en) | 2018-09-12 | 2020-07-01 | 大陸商北京字節跳動網絡技術有限公司 | How many hmvp candidates to be checked |
US11122288B2 (en) * | 2018-12-06 | 2021-09-14 | Qualcomm Incorporated | Spatio-temporal motion vector prediction patterns for video coding |
EP3888355A4 (en) | 2019-01-10 | 2022-03-23 | Beijing Bytedance Network Technology Co., Ltd. | Invoke of lut updating |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
CN113597768B (en) * | 2019-01-28 | 2024-10-15 | Op方案有限责任公司 | On-line and off-line selection to extend long-term reference picture preservation |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
US10638130B1 (en) * | 2019-04-09 | 2020-04-28 | Google Llc | Entropy-inspired directional filtering for image coding |
EP3944622A4 (en) | 2019-06-26 | 2022-07-06 | Samsung Electronics Co., Ltd. | Video encoding method for performing affine model-based prediction by considering encoding order, and device therefor, and video decoding method for performing affine model-based prediction by considering decoding order, and device therefor |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030202605A1 (en) * | 1998-12-23 | 2003-10-30 | Intel Corporation | Video frame synthesis |
US20030206589A1 (en) * | 2002-05-03 | 2003-11-06 | Lg Electronics Inc. | Method for coding moving picture |
US20040252764A1 (en) * | 2003-06-16 | 2004-12-16 | Hur Bong-Soo | Motion vector generation apparatus and method |
RU2335859C2 (en) * | 2003-12-22 | 2008-10-10 | Кэнон Кабусики Кайся | Full-motion video encoding device, method and control software for the device |
RU2360375C2 (en) * | 2002-07-18 | 2009-06-27 | Эл Джи Электроникс Инк. | Method of determining motion vectors for current unit in frame, subject to decoding |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2682616B1 (en) | 1991-10-18 | 1993-12-10 | Atochem | CATALYSTS FOR DEHALOGENATION OF ALPHAHALOGENIC CARBOXYLIC ACIDS. |
TW328969B (en) | 1995-09-30 | 1998-04-01 | Jiang Shiow Wan | Manufacturing method for NiAl metal matrix ceramic composite |
US6160920A (en) | 1998-09-15 | 2000-12-12 | Winbond Electronics Corp. | Cosine transforming and quantizing device, method of reducing multiplication operations in a video compressing apparatus |
JP2003116053A (en) | 2001-10-05 | 2003-04-18 | Hitachi Ltd | Method for encoding specific effect data, method for displaying specific effect, and method for editing specific effect data |
US20030123738A1 (en) | 2001-11-30 | 2003-07-03 | Per Frojdh | Global motion compensation for video pictures |
US20040247031A1 (en) * | 2002-03-14 | 2004-12-09 | Makoto Hagai | Motion vector detection method |
JP2004215215A (en) | 2002-03-14 | 2004-07-29 | Matsushita Electric Ind Co Ltd | Motion vector detecting method |
JP2004208258A (en) * | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | Motion vector calculating method |
JP4130783B2 (en) | 2002-04-23 | 2008-08-06 | 松下電器産業株式会社 | Motion vector encoding method and motion vector decoding method |
KR100901030B1 (en) | 2002-05-11 | 2009-06-04 | 엘지전자 주식회사 | Method for coding moving picture |
CN1666532A (en) * | 2002-07-02 | 2005-09-07 | 松下电器产业株式会社 | Image encoding method and image decoding method |
AU2003268763B2 (en) | 2002-11-01 | 2008-06-12 | Godo Kaisha Ip Bridge 1 | Motion picture encoding method and motion picture decoding method |
US7542510B2 (en) | 2002-11-20 | 2009-06-02 | Panasonic Corporation | Moving picture predicting method, moving image encoding method and device, and moving image decoding method and device |
US8131095B2 (en) | 2003-02-03 | 2012-03-06 | Actimagine | Process and device for the compression of portions of images |
FR2850827B1 (en) | 2003-02-03 | 2005-11-04 | Pagnac Andre | METHOD AND DEVICE FOR COMPRESSION OF PARTS OF IMAGES |
US7567617B2 (en) * | 2003-09-07 | 2009-07-28 | Microsoft Corporation | Predicting motion vectors for fields of forward-predicted interlaced video frames |
JP2005184042A (en) * | 2003-12-15 | 2005-07-07 | Sony Corp | Image decoding apparatus, image decoding method, and image decoding program |
CN100385957C (en) | 2004-05-21 | 2008-04-30 | 中国科学院计算技术研究所 | Kinematic vector predicting method |
KR100714696B1 (en) | 2005-06-24 | 2007-05-04 | 삼성전자주식회사 | Method and apparatus for coding video using weighted prediction based on multi-layer |
WO2007035056A1 (en) | 2005-09-26 | 2007-03-29 | Samsung Electronics Co., Ltd. | Method and apparatus for entropy encoding and entropy decoding fine-granularity scalability layer video data |
KR100727989B1 (en) | 2005-10-01 | 2007-06-14 | 삼성전자주식회사 | Method and apparatus for inter-mode decision in video coding |
JP4241709B2 (en) | 2005-10-11 | 2009-03-18 | ソニー株式会社 | Image processing device |
CN101005614A (en) | 2006-01-17 | 2007-07-25 | 鲁海宁 | Coding and decoding method and device for dynamic image, and computer readable record medium |
US8238442B2 (en) * | 2006-08-25 | 2012-08-07 | Sony Computer Entertainment Inc. | Methods and apparatus for concealing corrupted blocks of video data |
JP2008193503A (en) | 2007-02-06 | 2008-08-21 | Oki Electric Ind Co Ltd | Moving image encoding device and moving image encoding method |
US20100266042A1 (en) * | 2007-03-02 | 2010-10-21 | Han Suh Koo | Method and an apparatus for decoding/encoding a video signal |
US7761685B2 (en) | 2007-11-20 | 2010-07-20 | Seiko Epson Corporation | Compressing and decompressing image data without introducing artifacts |
KR101505195B1 (en) * | 2008-02-20 | 2015-03-24 | 삼성전자주식회사 | Method for direct mode encoding and decoding |
JP4978575B2 (en) | 2008-06-25 | 2012-07-18 | 富士通株式会社 | Image coding method and image coding program in thin client system |
KR101517768B1 (en) | 2008-07-02 | 2015-05-06 | 삼성전자주식회사 | Method and apparatus for encoding video and method and apparatus for decoding video |
CN102160384A (en) | 2008-09-24 | 2011-08-17 | 索尼公司 | Image processing device and method |
KR101590511B1 (en) | 2009-01-23 | 2016-02-02 | 에스케이텔레콤 주식회사 | / / Motion Vector Coding Method and Apparatus |
JP2011082683A (en) | 2009-10-05 | 2011-04-21 | Sony Corp | Image processing apparatus, image processing method, and program |
CN102045557B (en) | 2009-10-20 | 2012-09-19 | 鸿富锦精密工业(深圳)有限公司 | Video encoding and decoding method and video encoding device and decoding device thereof |
CN102131094A (en) * | 2010-01-18 | 2011-07-20 | 联发科技股份有限公司 | Motion prediction method |
US9036692B2 (en) | 2010-01-18 | 2015-05-19 | Mediatek Inc. | Motion prediction method |
KR101752418B1 (en) * | 2010-04-09 | 2017-06-29 | 엘지전자 주식회사 | A method and an apparatus for processing a video signal |
KR101791078B1 (en) | 2010-04-16 | 2017-10-30 | 에스케이텔레콤 주식회사 | Video Coding and Decoding Method and Apparatus |
KR102126486B1 (en) | 2011-05-24 | 2020-06-25 | 벨로스 미디어 인터내셔널 리미티드 | Image encoding method, image encoding apparatus, image decoding method, image decoding apparatus, and image encoding/decoding apparatus |
US9106927B2 (en) * | 2011-09-23 | 2015-08-11 | Qualcomm Incorporated | Video coding with subsets of a reference picture set |
KR102014332B1 (en) | 2011-10-21 | 2019-08-26 | 노키아 테크놀로지스 오와이 | Method for video coding and an apparatus |
MX2013008894A (en) | 2011-10-27 | 2013-08-21 | Panasonic Corp | Image encoding method, image decoding method, image encoding device, and image decoding device. |
CN107071471B (en) | 2011-10-28 | 2020-04-07 | 太阳专利托管公司 | Image encoding method and image encoding device |
TWI532370B (en) | 2011-11-08 | 2016-05-01 | 三星電子股份有限公司 | Method for decoding image |
US9420286B2 (en) | 2012-06-15 | 2016-08-16 | Qualcomm Incorporated | Temporal motion vector prediction in HEVC and its extensions |
US9491461B2 (en) | 2012-09-27 | 2016-11-08 | Qualcomm Incorporated | Scalable extensions to HEVC and temporal motion vector prediction |
CN105981387B (en) | 2013-10-15 | 2019-09-27 | 诺基亚技术有限公司 | For handling the method, apparatus and computer readable storage medium of video |
US20170294097A1 (en) | 2016-04-08 | 2017-10-12 | Vivint, Inc. | Automated nap mode |
-
2012
- 2012-10-18 PL PL12844046T patent/PL2782341T3/en unknown
- 2012-10-18 CA CA2836244A patent/CA2836244C/en active Active
- 2012-10-18 ES ES12844046T patent/ES2780188T3/en active Active
- 2012-10-18 KR KR1020137028063A patent/KR101935977B1/en active IP Right Grant
- 2012-10-18 MX MX2013012224A patent/MX2013012224A/en active IP Right Grant
- 2012-10-18 CN CN201711189653.9A patent/CN107948656B/en active Active
- 2012-10-18 EP EP12844046.8A patent/EP2782341B1/en active Active
- 2012-10-18 JP JP2013534510A patent/JP5379933B2/en active Active
- 2012-10-18 RU RU2013147415A patent/RU2609083C2/en active
- 2012-10-18 WO PCT/JP2012/006674 patent/WO2013061549A1/en active Application Filing
- 2012-10-18 RU RU2017101232A patent/RU2646328C1/en active
- 2012-10-18 CN CN201280020125.XA patent/CN104041042B/en active Active
- 2012-10-25 AR ARP120104009A patent/AR088540A1/en active IP Right Grant
- 2012-10-25 TW TW101139467A patent/TWI552576B/en active
- 2012-10-25 US US13/660,245 patent/US8913665B2/en active Active
-
2013
- 2013-09-24 JP JP2013197511A patent/JP6041102B2/en active Active
- 2013-09-24 JP JP2013197499A patent/JP5995102B2/en active Active
- 2013-09-27 JP JP2013202354A patent/JP5414942B1/en active Active
- 2013-11-07 US US14/074,179 patent/US10321152B2/en active Active
-
2018
- 2018-05-24 AR ARP180101396A patent/AR111961A2/en active IP Right Grant
-
2019
- 2019-04-30 US US16/399,437 patent/US10631004B2/en active Active
-
2020
- 2020-03-10 US US16/813,994 patent/US11115677B2/en active Active
-
2021
- 2021-07-30 US US17/389,783 patent/US11622128B2/en active Active
-
2023
- 2023-02-27 US US18/114,371 patent/US11902568B2/en active Active
- 2023-12-19 US US18/544,808 patent/US20240121429A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030202605A1 (en) * | 1998-12-23 | 2003-10-30 | Intel Corporation | Video frame synthesis |
US20030206589A1 (en) * | 2002-05-03 | 2003-11-06 | Lg Electronics Inc. | Method for coding moving picture |
RU2360375C2 (en) * | 2002-07-18 | 2009-06-27 | Эл Джи Электроникс Инк. | Method of determining motion vectors for current unit in frame, subject to decoding |
US20040252764A1 (en) * | 2003-06-16 | 2004-12-16 | Hur Bong-Soo | Motion vector generation apparatus and method |
RU2335859C2 (en) * | 2003-12-22 | 2008-10-10 | Кэнон Кабусики Кайся | Full-motion video encoding device, method and control software for the device |
Non-Patent Citations (1)
Title |
---|
статья Y. Zheng et al. "Unified motion vector predictor selection for merge and AMVP", опубликованная 16.03.2011, 5 стр. [он-лайн] [найдено 2016-05-31], найдено в Интернет: URL:http://wftp3.itu.int/av-arch/jctvc-site/2011_03_E_Geneva/. * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2609083C2 (en) | Image encoding method, image decoding method, image encoding device and image decoding device | |
RU2604679C2 (en) | Image encoding method, image decoding method, image encoding device and image decoding device | |
CA2836243C (en) | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus | |
RU2601192C2 (en) | Video encoding method, video encoding device, video decoding method, video decoding device and apparatus for encoding/decoding video | |
RU2600936C2 (en) | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus | |
AU2011306322B2 (en) | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus | |
WO2012090495A1 (en) | Image encoding method and image decoding method | |
WO2012081225A1 (en) | Image encoding method and image decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
HZ9A | Changing address for correspondence with an applicant |