JP2024500168A - 空間画像サブサンプリングを用いた符号化予定の映像シーケンスの画像を符号化するための方法、復号方法、対応するデバイス及びシステム - Google Patents
空間画像サブサンプリングを用いた符号化予定の映像シーケンスの画像を符号化するための方法、復号方法、対応するデバイス及びシステム Download PDFInfo
- Publication number
- JP2024500168A JP2024500168A JP2023538080A JP2023538080A JP2024500168A JP 2024500168 A JP2024500168 A JP 2024500168A JP 2023538080 A JP2023538080 A JP 2023538080A JP 2023538080 A JP2023538080 A JP 2023538080A JP 2024500168 A JP2024500168 A JP 2024500168A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- subsequence
- pictures
- subsampling
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 239000004149 tartrazine Substances 0.000 claims abstract description 15
- 239000004148 curcumin Substances 0.000 claims abstract description 6
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 24
- 239000002151 riboflavin Substances 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 12
- 239000004229 Alkannin Substances 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 2
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 abstract description 20
- 101150074417 SSC1 gene Proteins 0.000 abstract description 3
- 230000002123 temporal effect Effects 0.000 description 42
- 238000001914 filtration Methods 0.000 description 26
- 238000012805 post-processing Methods 0.000 description 24
- 238000007781 pre-processing Methods 0.000 description 24
- 239000011295 pitch Substances 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 9
- 230000009467 reduction Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 101000766246 Homo sapiens Probable E3 ubiquitin-protein ligase MID2 Proteins 0.000 description 3
- 102100026925 Myosin regulatory light chain 2, ventricular/cardiac muscle isoform Human genes 0.000 description 3
- 102100026310 Probable E3 ubiquitin-protein ligase MID2 Human genes 0.000 description 3
- 101100233058 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) IMA2 gene Proteins 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 108010065781 myosin light chain 2 Proteins 0.000 description 3
- 210000004279 orbit Anatomy 0.000 description 3
- 239000004172 quinoline yellow Substances 0.000 description 3
- 102100022404 E3 ubiquitin-protein ligase Midline-1 Human genes 0.000 description 2
- 101000680670 Homo sapiens E3 ubiquitin-protein ligase Midline-1 Proteins 0.000 description 2
- 101000801088 Homo sapiens Transmembrane protein 201 Proteins 0.000 description 2
- 101100041821 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) AI4 gene Proteins 0.000 description 2
- 101100225893 Saccharomyces cerevisiae ENS2 gene Proteins 0.000 description 2
- 102100033708 Transmembrane protein 201 Human genes 0.000 description 2
- 239000001099 ammonium carbonate Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- BWHMMNNQKKPAPP-UHFFFAOYSA-L potassium carbonate Substances [K+].[K+].[O-]C([O-])=O BWHMMNNQKKPAPP-UHFFFAOYSA-L 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- CDBYLPFSWZWCQE-UHFFFAOYSA-L sodium carbonate Substances [Na+].[Na+].[O-]C([O-])=O CDBYLPFSWZWCQE-UHFFFAOYSA-L 0.000 description 2
- 239000004380 Cholic acid Substances 0.000 description 1
- 239000004230 Fast Yellow AB Substances 0.000 description 1
- 102100031509 Fibrillin-1 Human genes 0.000 description 1
- 101000846893 Homo sapiens Fibrillin-1 Proteins 0.000 description 1
- 101000573526 Homo sapiens Membrane protein MLC1 Proteins 0.000 description 1
- 101000635885 Homo sapiens Myosin light chain 1/3, skeletal muscle isoform Proteins 0.000 description 1
- 101000712669 Homo sapiens TGF-beta receptor type-2 Proteins 0.000 description 1
- 208000001826 Marfan syndrome Diseases 0.000 description 1
- 208000031903 Marfan syndrome type 1 Diseases 0.000 description 1
- 208000004436 Marfan syndrome type 2 Diseases 0.000 description 1
- 102100030739 Myosin light chain 4 Human genes 0.000 description 1
- 101100076847 Oryza sativa subsp. japonica MFT2 gene Proteins 0.000 description 1
- 101100345756 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) MMT1 gene Proteins 0.000 description 1
- 101100345757 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) MMT2 gene Proteins 0.000 description 1
- 102100033455 TGF-beta receptor type-2 Human genes 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 101150020463 mft1 gene Proteins 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/164—Feedback from the receiver or from the transmission channel
- H04N19/166—Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234363—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234381—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本発明は、映像シーケンスの画像を符号化するための方法であって、以下のステップ、すなわち、c)表示デバイスの構造特性を表す初期の構成を得ること(E100)と、入力サブシーケンスと呼ばれる映像シーケンスの画像に対して、d1)第1の方向に方向付けられたフィルタを使用することによって、サブサンプリングファクタ値の第1のセット(ENS1)を含む、画像の要素において第1の空間サブサンプリング動作を行うこと(E102)であって、後者が、初期の構成に応じて決定される、第1の空間サブサンプリングを行うこと(E102)と、次いで、結果として得られた画像を出力サブシーケンスに挿入することと、e)出力サブシーケンスの画像を符号化すること(E2)との実施を含む、方法に関する。
Description
本発明は、映像シーケンス符号化及び復号の技術分野に関する。より具体的には、本発明は、符号化方法及びデバイス、復号方法及びデバイス、並びに、対応するデバイスに関する。
高空間及び時間分解能映像コンテンツを送信するため、国際公開第2020/025510号パンフレットにおいて説明される、いわゆるスケーラブルな方法を実施することが知られている。この方法を使用して映像シーケンスを処理することにより、ピクチャを表示する際に空間及び時間領域における映像シーケンス品質の目に見える変化をもたらすことなく、送信する映像データの量が低減される。
この文脈では、本発明の第1の態様によれば、映像シーケンスのピクチャを符号化するための方法であって、各ピクチャが、行と列に整理された要素で形成される、方法が提案される。方法は、以下のステップ、すなわち、
c)表示デバイスの構造特性を表す初期の構成を得ることと、入力サブシーケンスと呼ばれる映像シーケンスの1つ又は複数のピクチャのサブシーケンスの少なくとも1つのピクチャに対して、
d1)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間サブサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間サブサンプリングを行うことと、次いで、結果として得られたピクチャを出力サブシーケンスに挿入することと、
e)出力サブシーケンスのピクチャを符号化すること(E2)と
の実施を含む。
c)表示デバイスの構造特性を表す初期の構成を得ることと、入力サブシーケンスと呼ばれる映像シーケンスの1つ又は複数のピクチャのサブシーケンスの少なくとも1つのピクチャに対して、
d1)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間サブサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間サブサンプリングを行うことと、次いで、結果として得られたピクチャを出力サブシーケンスに挿入することと、
e)出力サブシーケンスのピクチャを符号化すること(E2)と
の実施を含む。
有利には、本発明の第1の態様による方法は、映像シーケンスを見るユーザに対する視覚的品質の損失が生じることなく、送信する符号化済みのデータの量を低減することができる。実際に、サブサンプリングは、ユーザが映像シーケンスを見るための表示デバイスの構造特性(例えば、表示デバイスの光学特性又はその形状に関連するもの)に依存する。従って、使用される表示デバイスに対して、ユーザのために、ピクチャの対象のエリアに合わせてサブサンプリングを調整することができる。
好ましくは、ステップd1)は、第2の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第2のセットを含む、サブサンプリング済みのピクチャの要素の少なくとも一部の第2の空間サブサンプリングを行うことであって、値の第2のセットが、上記初期の構成に応じて決定される、第2の空間サブサンプリングを行うことをさらに含む。
2つの異なる方向に方向付けられた2つのフィルタを使用した2つの逐次サブサンプリング動作の実施により、異なる空間分解能の値を有するエリアを定義する比較的複雑なパターンを生成することができる。次いで、表示デバイスの構造特性に従って、処理済みのピクチャの各エリアの分解能を微調整することができる。
好ましくは、空間サブサンプリングは、以下の方向、すなわち、
- 水平方向、
- 垂直方向
の一方に方向付けられたフィルタを使用して行われる。
- 水平方向、
- 垂直方向
の一方に方向付けられたフィルタを使用して行われる。
これらの方向の選択により、空間分解能の複雑なパターンを可能にする一方で、符号化デバイス内での特に単純なソリューションの実施が可能になる。
値のセットの各サブサンプリングファクタ値は、好ましくは、フィルタが方向付けられた方向におけるp個の連続要素の少なくとも1つのグループにそれぞれ適用され、pは、正の整数である。
実施形態によれば、方法は、ステップd1)の実施の前に、上記入力サブシーケンスの少なくとも1つのピクチャのコンテンツの分析を含む分析ステップと、コンテンツの分析の結果に応じて、サブサンプリングファクタ値を更新するステップとをさらに含み得る。
実施形態によれば、方法は、ステップd1)の実施の前に、ユーザが行った動きを表す測定値の分析を含む分析ステップであって、表示デバイスが、上記ユーザが(例えば、彼/彼女の頭及び/又は眼に)着用する頭部装着型ディスプレイである、分析ステップと、測定値の分析の結果に応じて、サブサンプリングファクタ値を更新するステップとをさらに含み得る。
別の実施形態によれば、方法は、ステップd1)の実施の前に、上記出力サブシーケンスのピクチャの視覚的品質の分析を含む別の分析ステップと、視覚的品質が既定の閾値より低い場合は、サブサンプリングファクタ値を更新するステップとをさらに含み得る。
別の実施形態によれば、方法は、以下のサブステップ、すなわち、
a)上記映像シーケンスから、いわゆる初期のサブシーケンスを得ることと、少なくとも1つの初期のサブシーケンスに対して、
b1)初期のサブシーケンスの少なくとも1つのピクチャのコンテンツを表す情報を決定することと、上記情報に応じて、
b2)決定された情報に応じて、初期のサブシーケンスに対して、初期のピクチャ表示周波数以下の処理周波数を決定することと、
b3)決定された処理周波数に応じて、入力サブシーケンスを形成するピクチャのサブシーケンスにピクチャグループのピクチャのすべて又は一部を挿入することと
を含む予備ステップをさらに含み得る。
a)上記映像シーケンスから、いわゆる初期のサブシーケンスを得ることと、少なくとも1つの初期のサブシーケンスに対して、
b1)初期のサブシーケンスの少なくとも1つのピクチャのコンテンツを表す情報を決定することと、上記情報に応じて、
b2)決定された情報に応じて、初期のサブシーケンスに対して、初期のピクチャ表示周波数以下の処理周波数を決定することと、
b3)決定された処理周波数に応じて、入力サブシーケンスを形成するピクチャのサブシーケンスにピクチャグループのピクチャのすべて又は一部を挿入することと
を含む予備ステップをさらに含み得る。
好ましくは、方法は、次いで、出力サブシーケンスのM個のピクチャに対する事後ステップであって、Mが整数である、事後ステップをさらに含み得、上記事後ステップは、以下のサブステップ、すなわち、
d2)出力サブシーケンスのピクチャと関連付けられた処理周波数を初期のピクチャ表示周波数と比較することと、
処理周波数が初期の周波数より低い場合は、出力サブシーケンスのM個のピクチャの各々をN個のサブピクチャに空間分割することであって、Nが、その値が処理周波数と初期の周波数との比率に依存する整数であり、符号化ステップe)が、出力サブシーケンスのM*N個のサブピクチャの符号化に相当する、空間分割することと
を含み、
処理周波数が初期の周波数より高い場合は、符号化ステップe)は、出力サブシーケンスの上記M個のピクチャの符号化に相当する。
d2)出力サブシーケンスのピクチャと関連付けられた処理周波数を初期のピクチャ表示周波数と比較することと、
処理周波数が初期の周波数より低い場合は、出力サブシーケンスのM個のピクチャの各々をN個のサブピクチャに空間分割することであって、Nが、その値が処理周波数と初期の周波数との比率に依存する整数であり、符号化ステップe)が、出力サブシーケンスのM*N個のサブピクチャの符号化に相当する、空間分割することと
を含み、
処理周波数が初期の周波数より高い場合は、符号化ステップe)は、出力サブシーケンスの上記M個のピクチャの符号化に相当する。
別の実施形態によれば、方法は、各出力サブシーケンスに対して、以下のステップ、すなわち、
- 以下のリスト、すなわち、
・ サブサンプリングファクタ値、
・ ユーザが行った動きを表す測定値(表示デバイスは、上記ユーザが着用する頭部装着型ディスプレイである)、
・ 表示デバイスの構造特性、
・ 処理周波数
の要素の少なくとも1つを表す情報を得ることと、
- 上記情報を符号化することと
をさらに含み得る。
- 以下のリスト、すなわち、
・ サブサンプリングファクタ値、
・ ユーザが行った動きを表す測定値(表示デバイスは、上記ユーザが着用する頭部装着型ディスプレイである)、
・ 表示デバイスの構造特性、
・ 処理周波数
の要素の少なくとも1つを表す情報を得ることと、
- 上記情報を符号化することと
をさらに含み得る。
本発明の第2の態様によれば、映像シーケンスのピクチャに対応するデータを復号するための方法であって、各ピクチャが、行と列に整理された要素で形成され、映像シーケンスのピクチャが、出力サブシーケンスと呼ばれる1つ又は複数のピクチャのサブシーケンスに分類される、方法が提案される。方法は、以下のステップ、すなわち、
c1)表示デバイスの構造特性を表す初期の構成を得ることと、出力サブシーケンスの少なくとも1つのピクチャに対して、
d11)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間オーバーサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間オーバーサンプリングを行うことと、次いで、結果として得られたピクチャを復号予定のサブシーケンスに挿入することと、
e1)復号予定のサブシーケンスのピクチャを復号することと
の実施を含む。
c1)表示デバイスの構造特性を表す初期の構成を得ることと、出力サブシーケンスの少なくとも1つのピクチャに対して、
d11)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間オーバーサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間オーバーサンプリングを行うことと、次いで、結果として得られたピクチャを復号予定のサブシーケンスに挿入することと、
e1)復号予定のサブシーケンスのピクチャを復号することと
の実施を含む。
好ましくは、ステップd11)は、第2の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第2のセットを含む、オーバーサンプリング済みのピクチャの要素の少なくとも一部の第2の空間オーバーサンプリングを行うことであって、値の第2のセットが、上記初期の構成に応じて決定される、第2の空間オーバーサンプリングを行うことをさらに含み得る。
本発明の第3の態様によれば、映像シーケンスのピクチャを符号化するためのデバイスであって、各ピクチャが、行と列に整理された要素で形成される、デバイスが提案される。デバイスは、以下のステップ、すなわち、
c)表示デバイスの構造特性を表す初期の構成を得ることと、入力サブシーケンスと呼ばれる映像シーケンスの1つ又は複数のピクチャのサブシーケンスの少なくとも1つのピクチャに対して、
d1)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間サブサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間サブサンプリングを行うことと、次いで、結果として得られたピクチャを出力サブシーケンスに挿入することと、
e)出力サブシーケンスのピクチャを符号化することと
を実施するように構成される。
c)表示デバイスの構造特性を表す初期の構成を得ることと、入力サブシーケンスと呼ばれる映像シーケンスの1つ又は複数のピクチャのサブシーケンスの少なくとも1つのピクチャに対して、
d1)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間サブサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間サブサンプリングを行うことと、次いで、結果として得られたピクチャを出力サブシーケンスに挿入することと、
e)出力サブシーケンスのピクチャを符号化することと
を実施するように構成される。
本発明の第4の態様によれば、映像シーケンスのピクチャに対応するデータを復号するためのデバイスであって、各ピクチャが、行と列に整理された要素で形成され、映像シーケンスのピクチャが、出力サブシーケンスと呼ばれる1つ又は複数のピクチャのサブシーケンスに分類される、デバイスが提案される。デバイスは、以下のステップ、すなわち、
c1)表示デバイスの構造特性を表す初期の構成を得ることと、出力サブシーケンスの少なくとも1つのピクチャに対して、
d11)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間オーバーサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間オーバーサンプリングを行うことと、次いで、結果として得られたピクチャを復号予定のサブシーケンスに挿入することと、
e1)復号予定のサブシーケンスのピクチャを復号することと
を実施するように構成される。
c1)表示デバイスの構造特性を表す初期の構成を得ることと、出力サブシーケンスの少なくとも1つのピクチャに対して、
d11)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第1のセットを含む、ピクチャの要素の少なくとも一部の第1の空間オーバーサンプリングを行うことであって、値の第1のセットが、上記初期の構成に応じて決定される、第1の空間オーバーサンプリングを行うことと、次いで、結果として得られたピクチャを復号予定のサブシーケンスに挿入することと、
e1)復号予定のサブシーケンスのピクチャを復号することと
を実施するように構成される。
その上、本発明の様々な他の特徴は、本発明の非限定的な実施形態を示す図面を参照して行われる添付の説明から明らかであろう。
図1は、本発明による方法の実施形態を示す。ソース映像データSVDは、前処理ステップE1の入力として、例えば、UHD(「超高解像度」)映像フォーマットで、提供される。各ソース映像は、「ピクチャグループ」(GOP)ベースで処理される。ピクチャグループは、入力サブシーケンスを形成する。このステップE1(以下でさらに詳細に説明される)は、空間処理及び任意選択により時間処理を映像データに適用することを可能にする。映像シーケンスSVDのピクチャを形成する画素の空間及び場合により時間周波数は、前処理の結果として低減される。次いで、映像のフォーマットが修正される。場合により、以下の説明において解説されるように、前処理に関連するメタデータが生成される。
処理済みの映像データは、ステップE2の間に符号化され、次いで、表示手段に送信される(ステップE3)。表示する前に、送信された符号化済みの映像データが復号される(ステップE4)。次いで、それらの映像データは、符号化の前に行われた前処理E3に応じた後処理E5の対象となる。場合により、後処理E5は、前処理ステップE2の間に生成されるメタデータに依存する。最後に、ステップE6において、表示手段を使用して、後処理が行われた映像データが表示される。
ステップE1、E2及びE3は、送信デバイスによって実施され、ステップE4、E5及びE6は、表示手段を含む受信デバイスによって実施される。
表示手段は、可変寸法のスクリーン、頭部装着型ディスプレイ又は単純な表示面を含み得るが、このリストは網羅的ではない。これらの表示手段は、それら自体のディスプレイ構成を有する。ディスプレイ構成は、表示デバイスの構造特性(その寸法又はその光学コンポーネントのパラメータなど)によって定義することができる。例として、図2は、頭部装着型ディスプレイのレンズの左LGと右LDのそれぞれの光学特性を概略的に示す。従来の方式では、両眼視を可能にする各レンズLG、LDは、中心円CCG、CCD内において最適な空間分解能を有する。ユーザが頭部装着型ディスプレイを着用すると、この中心円は、左右のそれぞれの眼窩に当てはまる。眼窩は、詳細の視覚化が最も正確な網膜エリアである。次いで、中心円から遠ざかる際は、同心円の半径の増加と共に、表示ピクチャの空間分解能は、段階的に徐々に低減する。最後に、黒いエリアZNは、映像の円形表示エリアを取り囲む。
図3は、図1のステップE1及びE5をより詳細に示す。前処理ステップE1は、初期の構成の第1のサブステップE100を含む。このサブステップは、構成から得られたフィルタリングパターンに従ってソース映像のピクチャグループに適用するための空間及び任意選択により時間フィルタのセットを得ることを可能にする。初期の構成は、デフォルト(例えば、格納されたもの)として設定することも、使用中の状況の変化を考慮するように、各入力サブシーケンスに対して更新することもできる。初期の構成は、1つ又は複数の基準の組合せに依存し、これらの基準は、上記で定義されるディスプレイ構成を含む。さらに、初期の構成は、例えば、送信機と受信機との間の映像の送信チェーン又はユーザが与える指示(これらの指示は、送信可能なデータの量、許容レイテンシ閾値若しくは複雑度の耐容レベルに関連する)に関連するものなど、追加の基準に依存し得る。
サブステップE100は、品質の損失がほとんど生じることなく、コンテンツが表示デバイス上にレンダリングされるように、許容可能な空間及び場合により時間周波数値を先験的に提供することを可能にする。空間周波数値は、ピクチャのパーティション(少なくとも2つのパーティションを含むピクチャ)と関連付けられる。時間周波数値(ピクチャ送信周波数又は「送信するピクチャ周波数」に相当する)は、ソース映像のピクチャグループ内の送信するピクチャ周波数に相当する。
得られた初期の構成に応じて、以下の2つのサブステップE101及びE102が実施され、ステップE101は、任意選択である。初期の構成が時間フィルタリングを伴う場合は、ステップE101が実施される。ステップE101は、ピクチャグループに対して、ピクチャの入力サブシーケンスの修正を行うことを含み、ピクチャの一部のみが維持される。簡単にするため、別段の明記がない限り、以下の説明では、空間フィルタリング(E102)と時間フィルタリング(E102)が実施されると考えられる。従って、ソース映像の入力サブシーケンスは、ピクチャの少なくとも一部の空間及び時間サブサンプリングを含む処理動作の組合せの対象となる。
処理済みのピクチャの各グループに対して、サブステップE101は、その時間周波数が初期の構成に依存するピクチャのサブシーケンスを提供する。時間周波数は、入力サブシーケンスのピクチャグループのオリジナルの時間周波数と同一であり得る。その結果、サブステップE101の出力側のピクチャのサブシーケンスは、ピクチャの入力サブシーケンスと同一である。反対に、初期の構成に依拠する時間周波数は、上記オリジナルの周波数をNで除したものに相当し得る(Nは、2以上の整数)。次いで、入力ストリームのN個のピクチャのうちの1つが抑制される。従って、サブステップE101の出力側のピクチャのサブシーケンスは、時間周波数をNで除したものを有する。
実施形態では、サブステップE101は、表示デバイスがユーザが着用する頭部装着型ディスプレイである場合は、表示デバイス及び/又はこのユーザ(彼/彼女の眼)が行った動きの測定値の分析(E105)から得られた情報を受信することができる。次いで、頭部装着型ディスプレイ着用者が経験する「動揺病」徴候を防ぐため、動き推定のための測定値を表すこの情報を使用して、時間周波数が適応され、それは、最先端技術の(すなわち、時間周波数に関して非動的な)手法によって生み出すことができる。好ましくは、入力サブシーケンスがかなりの動きを示す場合は、時間周波数は、その最大で維持され、サブステップE102で実施される空間分解能を低減することが有利である。それに対して、入力サブシーケンスがほとんど動きを示さない場合は、時間周波数の低減が有利であり、サブステップE102で実施される空間分解能は、ほとんど又は全く低減されない。
次いで、初期の構成に応じて、入力サブシーケンスの少なくとも1つのピクチャグループのピクチャに空間フィルタリング(E102)が適用される。空間フィルタリングは、ピクチャの少なくとも1つの行又は少なくとも1つの列の要素の少なくとも1つの空間サブサンプリングを使用して行われる。この空間サブサンプリングは、初期の構成によって定義される、サブサンプリングピッチとも呼ばれる、ファクタのセットに依存する。1つの要素は、ピクチャの1つの画素又はピクチャの色成分の1つに対するこの画素の成分を表す。
その代替として、以下の説明で考慮されるように、空間フィルタリングは、水平(水平フィルタ)及び垂直(垂直フィルタ)のそれぞれの2つの異なる方向に方向付けられたフィルタを使用した2つの逐次サブサンプリング動作に従って行われる(その順番に関係なく)。従って、ピクチャの列のサブサンプリングに次いで、行のサブサンプリングが逐次に行われる。その代替として、1つの行のサブサンプリングに次ぐ1つの列のサブサンプリング(又はその逆も同様)を交互に行うことができる。
サブサンプリング動作の各々に対して、2つの異なる方向に方向付けられたフィルタを使用して、空間フィルタリングを2つのサブサンプリング動作に分解することにより、フィルタによって実施されるサンプリングファクタに従って、ピクチャ内において、異なる分解能のエリア又はパーティションを得ることができる。垂直又は水平フィルタを使用してサブサンプリング動作を行うように適応させたプログラマブル回路における電子処理の実施は、単純であるが、ほとんどメモリを必要とせず、処理レイテンシを制限する。サンプリングファクタによって取られる値を最終的に適応させることにより、ピクチャの対象のエリアに依存する、各々がそれら自体の空間分解能を有する、非常に正確なパターンを得ることができる。例えば、表示されるピクチャエリアが眼窩に近いほど、空間分解能は高くなる。言い換えれば、パターン作成は、ピクチャの異なるエリアに応じて異なるサブサンプリングファクタを適用することができ、これらのエリアは、それらの空間座標を使用して、初期の構成において定義することができる。
図4及び5は、サブサンプリングピッチ又はファクタ及び各サブサンプリングピッチ値と関係する画素サブセットの2つの異なる構成に従ってサブサンプリングされた2つのピクチャをそれぞれ示す。
各正方形は、ピクチャの要素のグループに相当する。図4のパターン(水平ストリップ)は、垂直フィルタを使用して適用された異なるサンプリングピッチ値のセットを使用した単一のサブサンプリングから得られる。図5のパターンは、垂直フィルタを使用して適用された異なるサンプリングピッチ値の第1のセットを使用した第1のサブサンプリングの適用に次いで、水平フィルタを使用して適用された異なるサンプリングピッチ値の第2のセットを使用した第2のサブサンプリングの適用から得られる。第1のサブサンプリング動作と第2のサブサンプリング動作の適用順番は、逆にすることができる。長方形のパターンは、適用されたサンプリングピッチの値及び各サンプリングピッチと関係する画素の数に応じて得られる。パターンの長方形の色調が薄いほど、ピクチャの対応するエリアの空間分解能は高くなる。反対に、色調が濃いほど、ピクチャの対応するエリアの空間分解能は低減する。
図6及び7は、第1及び第2の空間サブサンプリング動作をそれぞれ解説する。
図6は、処理予定のピクチャ又はピクチャ部分IMA1を概略的に示す。ピクチャの行は、L個の連続水平ストリップBD1、BD2、BD3、BD4、BD5に整理される。より一般的には、Lは、正の整数である。例えば、各水平ストリップは、空間サブサンプリングを行うために使用されるフィルタの構成に依存する行の数を含む(例えば、8つのライン)。
次いで、垂直フィルタFLVを使用して、サブサンプリングピッチの第1のセットENS1がピクチャIMA1に適用される。この第1のセットENS1は、この例では、次のサブサンプリングファクタ値、すなわち、{1/3,1/2,1,1/2,1/3}を含む。従って、第1のBD1及び第5のBD5の水平ストリップに属する行の場合、垂直方向において3つの連続画素のうちの1つの画素のみが維持される。第2のBD2及び第4のBD4の水平ストリップに属する行の場合、垂直方向において2つの連続画素のうちの1つの画素のみが維持される。最後に、第3の水平ストリップBD3の場合、すべての画素が維持される。
サブサンプリング動作の終了時に維持される各画素の値は、公知の双一次若しくは双三次アルゴリズム方法を使用して又は当業者に周知のランチョス法のおかげで、補間することができる。その代替として、維持される画素の値は、そのオリジナルの値に等しいものであり得る。
水平ストリップのセットがサブサンプリングされた時点で、結果として得られるサブサンプリング済みのピクチャIMAF1が得られ、示されるストリップが濃いほど(ハッチングが最も密である)、残りの画素の数が多くなる。
図7は、処理予定のピクチャ又はピクチャ部分IMA2を概略的に示す。ピクチャの列は、M個の連続垂直ストリップBD6、BD7、BD8、BD9、BD10、BD11、BD12、BD13、BD14に整理される。より一般的には、Mは、正の整数である。例えば、各垂直ストリップは、空間サブサンプリングを行うために使用されるフィルタの構成に依存する列の数を含む(例えば、8つの列)。
次いで、水平フィルタFLHを使用して、サブサンプリングピッチの第2のセットENS2がピクチャIMA2に適用される。この第2のセットENS2は、この例では、次のサブサンプリングファクタ値、すなわち、{1/8,1/2,1,1/2,1/8,1/2,1,1/2,1/8}を含む。従って、第1のBD6、第5のBD10及び最後のBD14の垂直ストリップに属する列の場合、水平方向において8つの連続画素のうちの1つの画素のみが維持される。第2のBD7、第4のBD9、第6のBD11及び第8のBD13の垂直ストリップに属する列の場合、水平方向において2つの連続画素のうちの1つの画素のみが維持される。最後に、第3のBD8及び第7のBD12の垂直ストリップの場合、水平方向においてすべての画素が維持される。
前の図で説明されるサブサンプリングと同じ方法で、サブサンプリング動作の終了時に維持される各画素の値は、公知の双一次若しくは双三次アルゴリズム方法を使用して又は当業者に周知のランチョス法のおかげで、補間することができる。その代替として、維持される画素の値は、そのオリジナルの値に等しいものであり得る。
サブサンプリングが行われた時点で、結果として得られるサブサンプリング済みのピクチャIMAF2が得られ、示されるストリップが濃いほど(ハッチングが最も密である)、残りの画素の数が多くなる。
第1及び第2のサブサンプリング動作は、いかなる順番でも、逐次に適用することができる。最初に水平ストリップのサブサンプリングが適用される場合は、出力ピクチャIMA1Fは、垂直ストリップの第2のサブサンプリングのサブサンプリング予定のピクチャIMA2に相当する。
図8は、2回サンプリングされたピクチャ全体の不均一な分解能を表現したパターンを概略的に示し、このパターンは、図6及び7に示される2つの空間サブサンプリング動作の逐次適用の終了時に描かれたものである。
2回サブサンプリングされたピクチャIMAFの各部分又はタイルの空間分解能は、考慮されるタイルを含むストリップに適用されるサブサンプリングファクタ値に依存する。最後に、均一な空間分解能Riの8つの異なる値は、R0<R1<R2<R3<R4<R5<R6<R7となるように、ピクチャIMAF内に共存する。2つの異なる方向における二重のサブサンプリングにより、空間分解能の複雑なパターンを得ることができ、空間分解能がR7(最も薄いエリア)に等しい際に、ピクチャの特定の場所における最大分解能の保存が可能になる。その上、ピクチャの特定の場所における空間分解能の低減の制御により、送信されるデータの量の低減が可能になる。
例えば、図8のパターンは、図2に示されるような頭部装着型ディスプレイとディスプレイ構成が関連付けられる際に実施され得る。最大空間分解能R7は、中心円の前方に位置するエリアに対応する。
実施形態によれば、ピクチャグループの時間周波数値が高いほど、空間分解能値は低くなる。例えば、前処理ステップを実施する前処理手段は、ステップE101において実施された時間周波数値とステップE102において適用されたサブサンプリングピッチのセットとの対応表を格納することができる。対応表は、後者がサブサンプリングされた(例えば、オリジナルのピクチャに関して正の整数Pで除した)時点で、ピクチャの全分解能の中間値を格納することができる。完全なピクチャが全分解能の中間値によって平均的にサブサンプリングされるように、ピクチャの全分解能の中間値は、サブサンプリングピッチの1つ又は複数のセットに対応する。
例えば、初期の構成は、指示として、送信できるデータの量を含み得、この指示は、以下の通り表現することができる。
- 初期のデータ量の全体的な低減率RED(REDは、整数又は正の10進数値として表現することができる)
- 許容時間サブサンプリングレートTEMP(このレートは、処理をより簡単にするために正の整数値を取ることができ、この制約は、技術環境によってより複雑な処理が可能になる場合は、解除することができる)
- 初期のデータ量の全体的な低減率RED(REDは、整数又は正の10進数値として表現することができる)
- 許容時間サブサンプリングレートTEMP(このレートは、処理をより簡単にするために正の整数値を取ることができ、この制約は、技術環境によってより複雑な処理が可能になる場合は、解除することができる)
次いで、次の公式、すなわち、SPAT=RED/TEMPから、空間サブサンプリングレートSPATが得られる。後者は、整数か否かにかかわらず、正の値を取ることができる。
例えば、全体的な低減率REDが4に等しい場合、
- TEMP=4であれば、SPAT=1であり、
- TEMP=3であれば、SPAT=4/3であり、
- TEMP=2であれば、SPAT=2であり、
- TEMP=1であれば、SPAT=4である。
- TEMP=4であれば、SPAT=1であり、
- TEMP=3であれば、SPAT=4/3であり、
- TEMP=2であれば、SPAT=2であり、
- TEMP=1であれば、SPAT=4である。
サブサンプリングピッチのセットは、例えば、SPATによって取られる値に応じて初期の構成によって定義される、ルックアップテーブルを使用して得られる。
再び図3を参照する。任意選択により、ピクチャグループのピクチャに対して、ピクチャ分割E103のサブステップが実施される。このステップは、符号化ステップE2に先行する。このステップは、ピクチャグループの各ピクチャをk個のサブピクチャ(kは、正の整数である)に分解することを目的とする。例えば、k=2の場合、各ピクチャは、二等分される。より一般的には、サブステップE101の出力側のピクチャグループの時間周波数が、オリジナルの周波数をNで除したものに等しい場合は、サブステップE103において、各ピクチャは、N個のサブピクチャに分割される。入力サブシーケンスのすべてのピクチャが処理されると、それらは、処理のために発行される(E104)。
従って、サブステップE104の出力側では、処理済みのピクチャのグループは、符号化予定の出力サブシーケンスを形成し、この出力サブシーケンスは、サブステップE103の間のサブピクチャへのピクチャの分解により、むしろ低い空間分解能(値は、平均的に全分解能の中間値に等しい)及びオリジナルの時間周波数に等しい時間周波数を有する。オリジナルの時間周波数の保存により、前処理は、固定入力周波数で動作するエンコーダを使用して実施される符号化と適合するようになる。
本発明は、本出願人等の名の下で、国際公開第2020/025510号パンフレットの提案と組み合わせることができる。その場合、サブステップE101とE103のみを実施することもできる。この場合、組合せから生じる方法により、分解能の変化が生じることも、視覚的品質の主観的な損失が生じることもなく、データ量を2(N=2の場合)で除することが可能になるであろう。従って、上記組合せから生じる方法(及び対応するデバイス)は、3つの代替法を提供し、その代替法に従って、N=2の場合は2~4の間で変化する低減ファクタを用いて、送信するデータの量を低減することが可能になる。時間周波数のみが低減するか、空間分解能のみが劣化するか、空間分解能と時間周波数の両方が低減するかのいずれかである。
従って、ステップE2の符号化は、固定分解能(最も低い空間分解能、例えば、図8のR0)及び高い時間周波数(オリジナルの時間周波数)で動作する低レイテンシ標準コーデックを使用して行うことができる。本発明による行及び/又は列サブサンプリング動作を実施する電子回路は、小型化することができる。その上、標準コーデックとの互換性を有することにより、重量を著しく増やすことなく、電子回路を頭部装着型ディスプレイに組み込むことができる(例えば、HTC companyの頭部装着型ディスプレイVIVE(商標))。
次いで、例えば、無線送信チャネル(非限定的な例)を介して、符号化済みの出力サブシーケンスの各々が送信される(ステップE3)。例えば、出力サブシーケンスは、一部の頭部装着型ディスプレイ着用者に関与する仮想現実アプリケーションのフレームワークの範囲内の一部のユーザ向けであり得る。その結果、無線送信チャネルは、マルチユーザである。例えば、WiGig 60GHzのWi-Fi無線ネットワークプロトコルを使用して送信することができる(帯域幅は、7Gbps程度である)。その代替として、600Mbpsの帯域幅を提供するWi-Fi 5プロトコルを使用することができる。
各出力サブシーケンスの受信及び復号が行われる(ステップE4)。実施される復号は、ステップE2で実施される符号化のものに依存する。次いで、後処理ステップE5が行われる。このステップは、後処理構成を得るサブステップE500を含む。このサブステップについては、以下で図10を参照してさらに詳細に説明する。
次いで、前処理E1の間にピクチャ分割サブステップE103が実施されている事例では、ステップE5は、ピクチャ再構築サブステップE501を含む。ステップE103の間に各ピクチャが二等分されている場合は、受信及び復号が行われた出力サブシーケンスの2つの連続ピクチャを適切に並置することによって、新しい再構築されたピクチャの各々が得られる。ピクチャが再構築された時点で、オーバーサンプリングサブステップE502により、再構築されたピクチャの空間分解能の増加が可能になる。オーバーサンプリングは、サブサンプリングと同じ方向で、オーバーサンプリングピッチ値の逆数を有するオーバーサンプリングピッチのセットを使用して行われる。オーバーサンプリングにリンクされた新しい画素の各々の値は、例えば、公知の双一次若しくは双三次アルゴリズム方法を使用して又は当業者に周知のランチョス法のおかげで、補間することができる。オーバーサンプリングサブステップE502の終了時には、再構築されたピクチャの空間分解能は、サブサンプリングステップE102の前の入力サブシーケンスのピクチャの空間分解能に等しい。最後に、時間周波数低減のサブステップE101が前処理として実施される場合は、後処理は、入力サブシーケンスのオリジナルの周波数を回復するサブステップE503を含む。その目的のため、出力サブシーケンスの時間周波数が、入力サブシーケンスの時間周波数をNで除したものに相当する場合は、サブステップE502からの各ピクチャは、入力サブシーケンスの時間周波数を回復するように、N回繰り返される。従って、入力サブシーケンスのものに等しい最大空間分解能及び時間周波数を有する、復号及び後処理が行われたピクチャのサブシーケンスが、入力としてディスプレイに提供される(ステップE6)。
第1の実施形態によれば、時間及び空間フィルタは両方とも、前処理及び後処理のために、事前に定義され、格納される。次いで、ルックアップテーブルは、構成を時間及び/又は空間フィルタの選択に関連付ける。第2の実施形態によれば、前処理の時点における空間及び/又は時間フィルタの識別は、後処理を実施するデバイスに送信される専用メタデータの生成及び送信とカップリングされる。図9は、第2の実施形態を示す。サブステップE100は、それ自体がいくつかのサブステップに分解される。これらのサブステップの第1のサブステップE1000は、初期の構成及びこの初期の構成と関連付けられたパラメータ(例えば、頭部装着型ディスプレイの光学機器に関連する構成)を得ることを含む。T1001において、初期の構成と関連付けられ易いフィルタが事前に定義されていない(例えば、以前に格納されていない)場合(この事例では、矢印「N」)は、処理予定のピクチャグループが読み取られ(E1002)、次いで、分析される(E1003)。分析は、例えば、エッジ検出、運動推定(例えば、運動センサによって行われる測定による)、画素値のヒストグラムの決定を用いた、ピクチャ(又はピクチャグループの中の参照ピクチャ)のコンテンツの分析を含み得る。この分析は、予備学習(「機械学習」)に基づくアルゴリズムを使用して実施することができる。また、分析ステップE1003は、ユーザが着用する頭部装着型ディスプレイの動きなどの外部情報の分析又はピクチャの補足情報(例えば、深度情報)の分析も含み得る。分析の終了時には、例えば、コンテンツ分析の結果と時間及び/又は空間フィルタとの対応表を使用して、フィルタリングステップを行うための最適なフィルタの識別及び選択が行われる(E1004)。既定の視覚的に許容可能な最低品質に対して選択されたフィルタの設定の任意選択のチェック(E1005)を実施することができる。この最低品質基準が満たされない場合は、時間及び/又は空間フィルタの更新を実施することができる。
T1001において、この構成と関連付けられ易いフィルタが事前に定義されている場合(矢印「Y」)は、これらの後者が生成される(E1006)。次いで、処理予定のピクチャグループのピクチャが読み取られ(E1007)、それらのコンテンツが分析される(E1008)。分析結果に応じて、フィルタパラメータ更新が可能であるかどうかをチェックするためのテストT1009が実施される。これに該当しない場合(矢印「N」)は、生成されたフィルタを用いてフィルタリング動作E101、E102及びE103が実施される。更新が可能である場合(矢印「Y」)は、選択されたフィルタを用いたフィルタリングから生じることになるピクチャの品質が十分であるか否か(例えば、既定の視覚的に許容可能な最低品質に対して)をチェックするためのテストT1010が実施される。品質が十分でない場合(矢印「Y」)は、例えば、コンテンツ分析の結果と時間及び/又は空間フィルタとの対応表を使用して、視覚的に許容可能な最低品質に対する最適なフィルタの識別及び選択が行われる(E1004)。次いで、この場合もやはり、任意選択のチェック(E1005)を実施することができる。品質が十分でない場合(T1010、矢印「N」)は、生成されたフィルタを用いてフィルタリング動作E101、E102及びE103が実施される。
示されていない別の代替の実施形態によれば、サブサブステップE1004、E1005、E1007、E1008及びテストT1009、T1010は実施されない。フィルタリング動作E101、E102及びE103に対して、生成されたフィルタ(E1006)が直接使用される。
実施形態では、サブステップE104は、メタデータの送信が可能か否かをチェックするためのテストT1041を行うことを含み得る。これに該当しない場合(矢印「N」)は、符号化のために、符号化予定の出力サブシーケンスが直接送信される(ステップE1043)。メタデータの送信が可能である場合(矢印「Y」)は、イーサネット又は他の任意の手段を介して、ピクチャ補助データ(E1042)など、サブステップE100の間に得られたメタデータを、一方では、1つ又は複数のフィルタリングサブステップE101、E102、E103を行うために直接送信し、他方では、後処理を実施するデバイスに直接送信することができ、メタデータは、それらが関連するピクチャと同期させても、同期させなくともよい。この後者の事例では、メタデータは、例えば、MJPEG「モーションジョイントフォトグラフィックエキスパーツグループ」)などの映像に対して使用される送信プロトコルを補助するチャネルを介して送信される。メタデータは、選択されたフィルタ及びそれらのパラメータ(例えば、既定のリストからフィルタを指定する識別子を使用)、事前に定義されたフィルタの修正若しくは構成を可能にするパラメータ、又は、これらのフィルタの生成を可能にする特性のリストを使用してフィルタについて完全に説明するパラメータを表し得る。
送信機と受信機との間のメタデータの交換は任意選択である。それは、後処理E5の間に、例えば、出力サブシーケンスの映像フォーマットから、構成を直接得ることができる場合は特に、省略することができる。
最後に、テストT1044は、新しい入力サブシーケンスが利用可能かどうかをチェックする。これに該当する場合(矢印「Y」)は、新しい入力サブシーケンスが読み取られる(E1007)。該当しない場合(矢印「N」)は、符号化ステップE2が実施される。
図10は、後処理E5の実施形態を示す。サブステップE500は、以前に、例えば、メモリに格納された、初期の構成を読み取ること(E5001)を含む。この初期の構成は、例えば、頭部装着型ディスプレイに相当し得る。テストT5002は、この初期の構成によって各出力サブシーケンスに対して適切なフィルタを得ることが可能かどうか、又は、得られた構成に対応するフィルタが出力サブシーケンスのセットに有効かどうかをチェックする。各出力サブシーケンスに対してフィルタの更新が可能である場合(矢印「Y」)は、空間及び/又は時間フィルタの構成が得られる(E5003)(例えば、垂直方向に次ぐ水平方向における2つの逐次空間サブサンプリング動作)。次いで、対応するフィルタが生成される(E5004)。次いで、後処理を行う予定の出力サブシーケンスが読み取られる(E5005)。各出力サブシーケンスに対してフィルタの更新が可能でない場合(矢印「N」)は、後処理方法は、後処理を行う予定の出力サブシーケンスを読み取るステップ(E5005)に直接進む。
次いで、後処理は、考慮される出力サブシーケンスに対応するメタデータが受信されているか否かをチェックすること(T5006)を含む。メタデータが受信されている場合(矢印「Y」)は、ステップE5007の間に、得られたフィルタがパラメータ化される(サンプリングピッチ、時間フィルタリング周波数...)。次いで、異なるフィルタリング動作E501、E502及びE503が出力サブシーケンスに適用される。後処理に対して新しい出力サブシーケンスが利用可能である場合(テストT504の矢印「Y」)は、再び方法が繰り返される。そうでなければ(矢印「N」)、後処理が終了する。
図11は、本発明による符号化デバイスDCに組み込まれた前処理手段の実施形態を概略的に示す。デバイスは、ピクチャグループごとに、ソース映像SVDからピクチャを読み取るように適応させた読み取り手段MLC1を含む。読み取られたピクチャは、最適な前処理を識別するための手段MID1に送信される。信号伝達手段MSGAは、最適な前処理について記載するメタデータが後処理デバイスに送信されない場合は、最適な前処理について記載するか又はこの最適な前処理の識別子を含むメタデータMTDAの生成に適している。生成手段MGNF1は、手段MID1によって識別された前処理に従って及びメモリMEMに格納された初期の構成に応じてパラメータ化されたフィルタを生成するように適応される。この実施形態では、デバイスDPRTは、生成されたフィルタのフィルタリングパラメータについて記載するメタデータMTDBを生成するように適応させた手段を含む。
また、前処理手段は、手段MGNFによって生成されたフィルタに応じてソース映像SVDのピクチャをフィルタリングするように適応させた、時間フィルタリングのための手段MFT1、空間サブサンプリングのための手段MFS1及びピクチャ分解のための手段MD1も含む。前処理済みのピクチャIMPRは、デコーダ及び後処理デバイスに結合された表示デバイスにメタデータMTDA及びMTDBと共に送信される出力サブシーケンスを形成する。
図12は、本発明による復号デバイスDDECに属する後処理手段の実施形態を概略的に示す。読み取り手段MLC2は、連続出力サブシーケンスの前処理済みのピクチャIMPRを読み取るように構成される。これらの手段MLC2は、例えば、適用される前処理について記載するメタデータ(例えば、リストとして付属メモリ(簡単にするため、図示せず)に格納されたもの)と読み取るピクチャの各々を整合させるために前処理済みのピクチャと同時に送信された前処理識別子MTDAを使用して、ピクチャの読み取りを実施することができる。各前処理は、この識別子のおかげで識別可能である。例えば、リストは、ピクチャに存在する場面を分析するための手段(図示せず)によって提供される結果に応じて変化し得る。次いで、識別手段MID2は、上記で言及される識別子MTDAを使用して、出力サブシーケンスのピクチャに適用される後処理フィルタリング動作を決定するように適応される。識別手段MID2は、識別された後処理の実施のためのフィルタの選択及びパラメータ化を行うように適応される。生成手段MGNF2は、前処理済みのピクチャと同時に送信されたメタデータMTDBを使用して、後処理に適したフィルタを生成するように構成される。生成手段MGNF2は、上記で説明されるような構成を格納するように適応させたメモリMEM2に結合される。
後処理手段は、手段MID2によって識別された後処理に応じて読み取り手段MLC2によって読み取られたピクチャ及び手段MGNF2によって生成されたパラメータをフィルタリングするように適応させた、時間フィルタリングのための手段MFT2、空間オーバーサンプリングのための手段MFS2及びピクチャ再構築のための手段MD2をさらに含む。ソース映像MTDCのフォーマットに再構築されたピクチャが出力として提供される。
図13は、図3、9及び10を参照して説明されるように、前処理又は後処理方法を実施するように適応させた電子回路CIRを概略的に示す。回路は、具体的には、第1の空間フィルタリング手段MFIL1によって実施される時間フィルタリング動作と、第2の時間フィルタリング手段MFIL2によって実施される空間サブ又はオーバーサンプリング動作及びピクチャ分解又は再構築とを駆動するように構成されたマイクロプロセッサμPを含む。その上、マイクロプロセッサμPは、上記で言及される処理メタデータの生成又は処理を行うように適応される(後処理において)。また、マイクロプロセッサμPは、初期の構成及び場合により上記で言及されるルックアップテーブルを格納するように適応させたメモリMEMにも結合される。マイクロプロセッサμP並びに空間MFIL1及び時間MFIL2フィルタリング手段は、例えば、エンコーダ又はデコーダなどの別のデバイスとの処理済みのデータ又は処理予定のデータの交換が可能な入力MCOME及び出力CMOMS通信手段にそれぞれ結合される。例えば、入力通信手段MCOMSを通過するデータは、空間フィルタリング手段MFIL1に送信されるソース映像データのピクチャと、マイクロプロセッサμPに提供されるフィルタリング手段のための構成パラメータとを含み得る。入力通信手段MCOMEを介して送信されるデータは、例えば、マイクロプロセッサμPによって生成された処理メタデータと、空間及び時間サブサンプリング済みのピクチャとを含み得る。
Claims (14)
- 映像シーケンスのピクチャを符号化するための方法であって、各ピクチャが、行と列に整理された要素で形成される、方法であり、以下のステップ、すなわち、
c)表示デバイスの構造特性を表す初期の構成を得ること(E100)と、入力サブシーケンスと呼ばれる前記映像シーケンスの1つ又は複数のピクチャのサブシーケンスの少なくとも1つのピクチャに対して、
d1)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第1のセット(ENS1)を含む、前記ピクチャの前記要素の少なくとも一部の第1の空間サブサンプリングを行うこと(E102)であって、値の前記第1のセットが、前記初期の構成に応じて決定される、第1の空間サブサンプリングを行うこと(E102)と、次いで、前記結果として得られたピクチャを出力サブシーケンスに挿入することと、
e)前記出力サブシーケンスの前記ピクチャを符号化すること(E2)と
の実施を含む、方法。 - ステップd1)が、第2の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第2のセット(ENS2)を含む、前記サブサンプリング済みのピクチャの前記要素の少なくとも一部の第2の空間サブサンプリングを行うことであって、値の前記第2のセットが、前記初期の構成に応じて決定される、第2の空間サブサンプリングを行うことをさらに含む、請求項1に記載の方法。
- 空間サブサンプリングが、以下の方向、すなわち、
- 水平方向、
- 垂直方向
の一方に方向付けられたフィルタを使用して行われる、請求項1又は2に記載の方法。 - 値のセットの各サブサンプリングファクタ値が、前記フィルタが方向付けられた前記方向におけるp個の連続要素の少なくとも1つのグループにそれぞれ適用され、pが、正の整数である、請求項1~3のいずれか一項に記載の方法。
- ステップd1)の前記実施の前に、前記入力サブシーケンスの少なくとも1つのピクチャのコンテンツの分析を含む分析ステップ(E1003、E1008)と、前記コンテンツの前記分析の前記結果に応じて、前記サブサンプリングファクタ値を更新するステップとをさらに含む、請求項1~4のいずれか一項に記載の方法。
- ステップd1)の前記実施の前に、ユーザが行った動きを表す測定値の分析を含む分析ステップであって、前記表示デバイスが、前記ユーザが着用する頭部装着型ディスプレイである、分析ステップと、前記測定値の前記分析の前記結果に応じて、前記サブサンプリングファクタ値を更新するステップとをさらに含む、請求項1~5のいずれか一項に記載の方法。
- ステップd1)の前記実施の前に、前記出力サブシーケンスの前記ピクチャの視覚的品質の分析(E1005)を含む別の分析ステップと、前記視覚的品質が既定の閾値より低い場合は、前記サブサンプリングファクタ値を更新するステップとをさらに含む、請求項1~6のいずれか一項に記載の方法。
- 以下のサブステップ、すなわち、
a)前記映像シーケンスから、いわゆる初期のサブシーケンスを得ることと、少なくとも1つの初期のサブシーケンスに対して、
b1)前記初期のサブシーケンスの少なくとも1つのピクチャの前記コンテンツを表す情報を決定することと、前記情報に応じて、
b2)前記決定された情報に応じて、前記初期のサブシーケンスに対して、初期のピクチャ表示周波数以下の処理周波数を決定することと、
b3)前記決定された処理周波数に応じて、入力サブシーケンスを形成するピクチャのサブシーケンスに前記ピクチャグループの前記ピクチャのすべて又は一部を挿入することと
を含む予備ステップ(E101)を含む、請求項1~7のいずれか一項に記載の方法。 - 出力サブシーケンスのM個のピクチャに対する事後ステップ(E103)であって、Mが整数である、事後ステップ(E103)をさらに含み、前記事後ステップが、以下のサブステップ、すなわち、
d2)前記出力サブシーケンスの前記ピクチャと関連付けられた前記処理周波数を前記初期のピクチャ表示周波数と比較することと、
前記処理周波数が前記初期の周波数より低い場合は、前記出力サブシーケンスの前記M個のピクチャの各々をN個のサブピクチャに空間分割することであって、Nが、その値が前記処理周波数と前記初期の周波数との比率に依存する整数であり、前記符号化ステップe)が、前記出力サブシーケンスの前記M*N個のサブピクチャの前記符号化に相当する、空間分割することと
を含み、
前記処理周波数が前記初期の周波数より高い場合は、前記符号化ステップe)が、前記出力サブシーケンスの前記M個のピクチャの前記符号化に相当する、請求項1~8のいずれか一項に記載の方法。 - 各出力サブシーケンスに対して、以下のステップ、すなわち、
- 以下のリスト、すなわち、
・ サブサンプリングファクタ値、
・ ユーザが行った動きを表す測定値(前記表示デバイスが、前記ユーザが着用する頭部装着型ディスプレイである)、
・ 前記表示デバイスの構造特性、
・ 処理周波数
の要素の少なくとも1つを表す情報を得ることと、
- 前記情報を符号化することと
をさらに含む、請求項1~9のいずれか一項に記載の方法。 - 映像シーケンスのピクチャに対応するデータを復号するための方法であって、各ピクチャが、行と列に整理された要素で形成され、前記映像シーケンスの前記ピクチャが、出力サブシーケンスと呼ばれる1つ又は複数のピクチャのサブシーケンスに分類される、方法であり、以下のステップ、すなわち、
c1)表示デバイスの構造特性を表す初期の構成を得ること(E5001)と、出力サブシーケンスの少なくとも1つのピクチャに対して、
d11)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第1のセットを含む、前記ピクチャの前記要素の少なくとも一部の第1の空間オーバーサンプリングを行うこと(E502)であって、値の前記第1のセットが、前記初期の構成に応じて決定される、第1の空間オーバーサンプリングを行うこと(E502)と、次いで、前記結果として得られたピクチャを復号予定のサブシーケンスに挿入することと、
e1)復号予定の前記サブシーケンスの前記ピクチャを復号することと
の実施を含む、方法。 - ステップd11)が、第2の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第2のセットを含む、前記オーバーサンプリング済みのピクチャの前記要素の少なくとも一部の第2の空間オーバーサンプリングを行うことであって、値の前記第2のセットが、前記初期の構成に応じて決定される、第2の空間オーバーサンプリングを行うことをさらに含む、請求項11に記載の方法。
- 映像シーケンスのピクチャを符号化するためのデバイス(DC)であって、各ピクチャが、行と列に整理された要素で形成される、デバイス(DC)であり、以下のステップ、すなわち、
c)表示デバイスの構造特性を表す初期の構成を得ることと、入力サブシーケンスと呼ばれる前記映像シーケンスの1つ又は複数のピクチャのサブシーケンスの少なくとも1つのピクチャに対して、
d1)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるサブサンプリングファクタ値の第1のセットを含む、前記ピクチャの前記要素の少なくとも一部の第1の空間サブサンプリングを行うことであって、値の前記第1のセットが、前記初期の構成に応じて決定される、第1の空間サブサンプリングを行うことと、次いで、前記結果として得られたピクチャを出力サブシーケンスに挿入することと、
e)前記出力サブシーケンスの前記ピクチャを符号化することと
を実施するように構成される、デバイス(DC)。 - 映像シーケンスのピクチャに対応するデータを復号するためのデバイス(DDEC)であって、各ピクチャが、行と列に整理された要素で形成され、前記映像シーケンスの前記ピクチャが、出力サブシーケンスと呼ばれる1つ又は複数のピクチャのサブシーケンスに分類される、デバイス(DDEC)であり、以下のステップ、すなわち、
c1)表示デバイスの構造特性を表す初期の構成を得ることと、出力サブシーケンスの少なくとも1つのピクチャに対して、
d11)第1の方向に方向付けられたフィルタを使用して、少なくとも2つの異なるオーバーサンプリングファクタ値の第1のセットを含む、前記ピクチャの前記要素の少なくとも一部の第1の空間オーバーサンプリングを行うことであって、値の前記第1のセットが、前記初期の構成に応じて決定される、第1の空間オーバーサンプリングを行うことと、次いで、前記結果として得られたピクチャを復号予定のサブシーケンスに挿入することと、
e1)復号予定の前記サブシーケンスのピクチャを復号することと
を実施するように構成される、デバイス(DDEC)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2013944 | 2020-12-22 | ||
FR2013944A FR3118380B1 (fr) | 2020-12-22 | 2020-12-22 | Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants. |
PCT/EP2021/086398 WO2022136143A1 (fr) | 2020-12-22 | 2021-12-17 | Procede de codage d'images d'une sequence video a coder, procede de decodage, dispositifs et systeme correspondants avec sous-échantillonage spatial d'image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024500168A true JP2024500168A (ja) | 2024-01-04 |
Family
ID=75690351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023538080A Pending JP2024500168A (ja) | 2020-12-22 | 2021-12-17 | 空間画像サブサンプリングを用いた符号化予定の映像シーケンスの画像を符号化するための方法、復号方法、対応するデバイス及びシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20240056603A1 (ja) |
EP (1) | EP4268464A1 (ja) |
JP (1) | JP2024500168A (ja) |
KR (1) | KR20230124619A (ja) |
CN (1) | CN116746158A (ja) |
FR (1) | FR3118380B1 (ja) |
WO (1) | WO2022136143A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5911809B2 (ja) * | 2010-01-22 | 2016-04-27 | トムソン ライセンシングThomson Licensing | サンプリングベースの超解像度ビデオ符号化および復号化方法並びに装置 |
US9503645B2 (en) * | 2012-05-24 | 2016-11-22 | Mediatek Inc. | Preview system for concurrently displaying multiple preview images generated based on input image generated by image capture apparatus and related preview method thereof |
US10349064B2 (en) * | 2015-03-10 | 2019-07-09 | Apple Inc. | Adaptive chroma downsampling and color space conversion techniques |
FR3084552B1 (fr) | 2018-07-30 | 2020-12-11 | Bcom | Procede de formation d'une sequence d'images de sortie a partir d'une sequence d'images d'entree, procede de reconstruction d'une sequence d'images d'entree a partir d'une sequence d'images de sortie, dispositifs, equipement serveur, equipement client et programmes d'ordinateurs associes |
CN110972203B (zh) * | 2018-09-28 | 2023-09-01 | 苹果公司 | 基于无线通信信道带宽条件的电子设备内容提供调节 |
-
2020
- 2020-12-22 FR FR2013944A patent/FR3118380B1/fr active Active
-
2021
- 2021-12-17 EP EP21840565.2A patent/EP4268464A1/fr active Pending
- 2021-12-17 US US18/259,064 patent/US20240056603A1/en active Pending
- 2021-12-17 CN CN202180087163.6A patent/CN116746158A/zh active Pending
- 2021-12-17 JP JP2023538080A patent/JP2024500168A/ja active Pending
- 2021-12-17 WO PCT/EP2021/086398 patent/WO2022136143A1/fr active Application Filing
- 2021-12-17 KR KR1020237023548A patent/KR20230124619A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
FR3118380A1 (fr) | 2022-06-24 |
WO2022136143A1 (fr) | 2022-06-30 |
KR20230124619A (ko) | 2023-08-25 |
CN116746158A (zh) | 2023-09-12 |
EP4268464A1 (fr) | 2023-11-01 |
US20240056603A1 (en) | 2024-02-15 |
FR3118380B1 (fr) | 2024-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109803175B (zh) | 视频处理方法及装置、设备、存储介质 | |
US10003768B2 (en) | Apparatus and methods for frame interpolation based on spatial considerations | |
EP3804307B1 (en) | Fast region of interest coding using multi-segment resampling | |
JP4508878B2 (ja) | 立体画像のためのビデオフィルタ処理 | |
US11871127B2 (en) | High-speed video from camera arrays | |
EP2716041A2 (en) | Video compression implementing resolution tradeoffs and optimization | |
JP2014502818A (ja) | 画像処理のための一次像および二次像画像取込装置およびその方法 | |
EP3143765B1 (en) | Video processing system with high dynamic range sensor mechanism and method of operation thereof | |
JP7577740B2 (ja) | 非対称ダウンサンプリング及び機械学習を用いた没入型ビデオのためのコーディング体系 | |
US20150066923A1 (en) | Reference card for scene referred metadata capture | |
CN113747242B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
EP2904807A2 (en) | Video compression method | |
CN112750092A (zh) | 训练数据获取方法、像质增强模型与方法及电子设备 | |
CN112150400A (zh) | 图像增强方法、装置和电子设备 | |
Aides et al. | Multiscale ultrawide foveated video extrapolation | |
EP3329678A1 (en) | Compressor | |
JP2012522285A (ja) | データ及び三次元レンダリングを符号化するためのシステム及びフォーマット | |
US20120093227A1 (en) | Data compression method and data compression device | |
Simone et al. | Omnidirectional video communications: new challenges for the quality assessment community | |
JP2024500168A (ja) | 空間画像サブサンプリングを用いた符号化予定の映像シーケンスの画像を符号化するための方法、復号方法、対応するデバイス及びシステム | |
CN110636295B (zh) | 视频编解码方法和装置、存储介质及电子装置 | |
CN115665427A (zh) | 直播数据的处理方法、装置及电子设备 | |
CN113077385A (zh) | 基于对抗生成网络和边缘增强的视频超分辨率方法及系统 | |
JP2020195093A (ja) | 符号化装置、復号装置、及びプログラム | |
CN113676774A (zh) | 图像处理方法、图像处理装置、显示装置和存储介质 |