JP6437096B2 - ビデオ合成 - Google Patents
ビデオ合成 Download PDFInfo
- Publication number
- JP6437096B2 JP6437096B2 JP2017510316A JP2017510316A JP6437096B2 JP 6437096 B2 JP6437096 B2 JP 6437096B2 JP 2017510316 A JP2017510316 A JP 2017510316A JP 2017510316 A JP2017510316 A JP 2017510316A JP 6437096 B2 JP6437096 B2 JP 6437096B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- video data
- data stream
- video
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000203 mixture Substances 0.000 title claims description 38
- 230000033001 locomotion Effects 0.000 claims description 201
- 239000002131 composite material Substances 0.000 claims description 166
- 230000002123 temporal effect Effects 0.000 claims description 100
- 238000000034 method Methods 0.000 claims description 64
- 239000013598 vector Substances 0.000 claims description 50
- 230000008859 change Effects 0.000 claims description 32
- 230000002194 synthesizing effect Effects 0.000 claims description 27
- 230000015572 biosynthetic process Effects 0.000 claims description 23
- 238000003786 synthesis reaction Methods 0.000 claims description 23
- 230000003362 replicative effect Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013139 quantization Methods 0.000 claims description 8
- 230000010076 replication Effects 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims 2
- 238000001308 synthesis method Methods 0.000 claims 2
- 230000011664 signaling Effects 0.000 description 16
- 238000013459 approach Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 239000000523 sample Substances 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000001914 filtration Methods 0.000 description 10
- 238000003780 insertion Methods 0.000 description 10
- 230000037431 insertion Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000002156 mixing Methods 0.000 description 5
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 4
- 238000012952 Resampling Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 108091026890 Coding region Proteins 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- NUHSROFQTUXZQQ-UHFFFAOYSA-N isopentenyl diphosphate Chemical compound CC(=C)CCO[P@](O)(=O)OP(O)(O)=O NUHSROFQTUXZQQ-UHFFFAOYSA-N 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000007430 reference method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 108091000069 Cystinyl Aminopeptidase Proteins 0.000 description 1
- 101100520660 Drosophila melanogaster Poc1 gene Proteins 0.000 description 1
- 102100020872 Leucyl-cystinyl aminopeptidase Human genes 0.000 description 1
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 101100520662 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) PBA1 gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007727 signaling mechanism Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/40—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/48—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/177—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
Description
出力ビットストリーム108におけるSLCPの位置は、適用される参照/多重化手法に応じて選択することができる。図13に関連して上記で提示されているB2B参照手法について、たとえば、SLCPスライスデータは、入力画像118がそれへと多重化されている出力ビットストリーム108の画像116とは別のPOCを有する個々の画像の形態で、出力ビットストリーム108へと多重化され得る。特に、この事例において、部分114は、図13に示す参照画像内に散在している出力画像を含み、出力画像は、時間的に、参照されるPSRの後に配置されている。これは、図17において例示的に示されており、図17は、その限りにおいて、図13に示すようなB2B手法を、部分114によって拡張している。
の動き補償サイド情報および予測残差データを収集および複製することによって、合成ビデオデータストリームの画像
、0<n≦N(Nは、入力ビデオデータストリームの数であり、Kは、同じインデックスiのN個の画像
ごとに装置100によって挿入される画像、すなわち、中間部分の中間画像または照合ビデオ(または出力)部分に属する画像の数である)を充填し、動き補償時間予測を介して、合成ビデオデータストリームの画像
、0<k≦K(kは、挿入画像の系列をインデックス付けする)から、系列k>1(ある場合)の画像について、任意選択的に、画像
の「参照される総領域」を形成する画像
を付加的に含む合成ビデオデータストリームの画像
のうちの1つまたは複数を参照することによって、照合ビデオを合成する。パラメータKは、図17に示すようなものであってもよいが、より高いSLCPフレームレートを可能にするために、K個の系列は、出力部分114を形成する出力画像の2つ以上の系列を含んでもよく、または、以降に概説するような多段参照手法を達成するために、K個の系列は、中間画像の少なくとも1つの系列および出力画像の少なくとも1つの少なくとも1つの系列を含んでもよい。
の動き補償サイド情報を収集および複製することによって、合成ビデオデータストリームの画像
のN個のタイルTnを充填し、動き補償時間予測を介して、合成ビデオデータストリームの画像
から、系列k>1(ある場合)の画像について、任意選択的に、画像
の「参照される総領域」を形成する画像
を付加的に含む、画像
のタイルT1...TNのうちの1つまたは複数を参照することによって、照合ビデオを合成する。パラメータKは、図18aに示すようなものであってもよいが、より高いSLCPフレームレートを可能にするために、K個の系列はまた、出力部分114を形成する出力画像の2つ以上の系列を含んでもよく、または、以降に概説するような多段参照手法を達成するために、K個の系列は、中間画像の少なくとも1つの系列および出力画像の少なくとも1つの少なくとも1つの系列を含んでもよい。
の動き補償サイド情報および予測残差データを収集および複製することによって、合成ビデオデータストリームの画像
のタイルTNを充填し、動き補償時間予測を介して、合成ビデオデータストリームの画像
のタイルTN+1から、画像
のタイルTN+1の「参照される総領域」を形成する、合成ビデオデータストリームの画像
のタイルT1...TNを参照することによって、照合ビデオを合成する。上記でk>1によって示されている事例と同様に、下記により詳細に説明するような多段予測のために、すなわち、合成ビデオデータストリームの中間部分を形成するために、画像
あたり2つ以上のタイルが挿入され得る。
の系列、画像
および画像
のタイルTN+1について時間的に一定であり得、または、系列(iによってインデックス付けされている)に沿って変化し得る。出力領域は、それぞれ画像
の系列の画像領域、画像
の画像領域、または、画像
のタイルTN+1のタイル領域と一致し得、その一部分であり得、残りは切り取られる。ゼロ動きベクトルを有する1つの領域があり得る。説明されているように、領域Ajのうちの1つまたは複数は、現在の領域Ajを含む現在の画像の上流にある、合成ビデオデータストリームのΔPl番目の画像である画像
を参照する動きベクトルを示す、2つ以上の動きベクトルから成る集合m(Aj)、すなわち、m(Aj)={(m1,ΔP1),...,(mM,ΔPM)}、ml(0<l<M)、を有し得る。動きベクトルが2つである、すなわち、M=2である事例において、これは、双予測と呼ばれる場合がある。各動きベクトルについて、動き補償サイド情報はまた、「Ajを得るためにαlによって重み付けされている相対的に変位された位置mlにおける
の複製の合計」による動き補償予測をもたらす、予測/重み付け係数αlをも含むことができる。この方策によって、2つ以上の入力ビデオデータストリームの間の重なりが、領域Ajにおいて達成され得る。Ajの出力領域の系列において重みαlを経時的に漸進的に変化させることによって、2つの入力ビデオデータストリームの間の混合を達成することができる。
の系列の連続する画像の間、画像
の系列の連続する画像の間、画像
の系列のTN+1の連続する画像の間の時間予測を使用し得る。
が非出力画像であり、一方、画像
が出力画像または中間画像であることをシグナリングしてもよく、k=Kである画像は、出力画像であり得る。図18aの事例において、装置10は、画像
が非出力画像であり、一方、画像
が出力画像または中間画像であることをシグナリングすることができ、k=Kである画像が出力画像であり得、図18bの事例において、装置10は、合成ビデオデータストリームのすべての画像が出力画像であることをシグナリングすることができるが、タイルTN+1を除くすべてが、合成ビデオデータストリームの表示/再生において切り取られるべきであることをシグナリングする。後者の切り取りシグナリングはまた、図18aに関連する装置10にも適用され得る。画像
の間の出力画像からの一部分のみが、合成ビデオデータストリームの出力の生成に使用され得、すなわち、出力画像の他の部分は切り取られ得る。
のタイルTN+1と同様に、合成ビデオデータストリームの画像
のタイルT1...TNのうちの1つまたは複数を参照する合成ビデオデータストリームの画像
のTN+2を介して間接的に、合成ビデオデータストリームの画像
のタイルT1...TNのうちの1つまたは複数を参照して生成され得る。
Claims (45)
- 少なくとも1つの入力ビデオデータストリーム(14)を使用して合成ビデオデータストリーム(18)を合成するように構成されているビデオ合成装置(10)であって、前記合成ビデオデータストリーム(18)および前記少なくとも1つの入力ビデオデータストリーム(14)は、動き補償時間予測を使用して符号化され、前記ビデオ合成装置は、
前記少なくとも1つの入力ビデオデータストリーム(14)の動き補償サイド情報および予測残差データを収集および複製することによって継承画像(26)の空間部分を充填することによって、前記合成ビデオデータストリーム(18)の一連の前記継承画像(26)を形成するステップであって、前記空間部分の空間位置は、前記一連の継承画像の中で、1つの継承画像から次の継承画像へと時間的に変化するステップと、
前記一連の継承画像の前記継承画像の間で、少なくとも1つの非出力画像(30)を前記合成ビデオデータストリーム(18)へと挿入するステップであって、前記少なくとも1つの非出力画像は、動き補償時間予測を介して、前記継承画像のサブセットを参照するステップと、によって、前記合成ビデオデータストリーム(18)を合成するように構成されている、ビデオ合成装置(10)。 - 前記ビデオ合成装置(10)は、前記1つまたは複数の非出力画像の各々が動き補償時間予測を介して、その前記収集および複製によって前記瞬間に後続する前記継承画像のいずれかの前記空間部分が充填される動き補償サイド情報によって参照される、前記瞬間に先行する前記継承画像の間で参照画像を置換するように、前記空間部分が空間的に変化する瞬間において1つまたは複数の非出力画像(30)を挿入するように構成されている、請求項1に記載のビデオ合成装置。
- 前記ビデオ合成装置は、各非出力画像が、動き補償時間予測を介して、前記空間部分が前記瞬間においてそこへと変化する、前記空間部分に空間的に対応する空間部分において、それぞれの前記非出力画像によって置換される前記参照画像の前記空間部分を参照するように、前記1つまたは複数の非出力画像(30)を挿入するように構成されている、請求項2に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記空間部分が第1の前記継承画像から、前記一連の継承画像内で前記第1の前記継承画像に直に後続する第2の前記継承画像へと変化する前記瞬間において、動き補償時間予測を介して、その前記収集および複製によって前記第2の前記継承画像を含め前記第2の前記継承画像に後続する前記継承画像のいずれかの前記空間部分が充填される動き補償サイド情報によって参照される、前記第1の前記継承画像を含め前記第1の前記継承画像に先行する前記継承画像の間の参照画像の数だけの非出力画像を挿入するように構成されている、請求項2または3に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記一連の継承画像がタイルへと空間的に分割されるように、および、各タイルが、関連付けられる前記入力ビデオデータストリームの動き補償サイド情報および予測残差データを収集および複製することによって、それぞれの前記タイルと関連付けられる、前記複数の入力ビデオデータストリームのうちの1つから形成されるように、前記少なくとも1つの入力ビデオデータストリームを含む、複数の入力ビデオデータストリームを一連の第1の画像へと多重化するように構成されており、前記空間部分は、前記少なくとも1つの入力ビデオデータストリームが関連連付けられる前記タイルによって画定され、前記空間部分の前記空間位置は、一方における前記タイルと、他方における前記複数の入力ビデオデータストリームとの間の前記関連の時間的変化に応答して、前記一連の継承画像における1つの継承画像から次の継承画像へと時間的に変化する、請求項1〜4のいずれか一項に記載のビデオ合成装置。
- 前記ビデオ合成装置は、一方における前記タイルと、他方における前記複数の入力ビデオデータストリームとの間の関連が変化する瞬間において、非出力画像を挿入するように構成されており、前記非出力画像は、それぞれの変化の前の、前記複数の入力ビデオデータストリームのうちの所定の入力ビデオデータストリームと関連付けられるタイルの画像領域を、前記変化の後の、前記所定の入力ビデオデータストリームと関連付けられるタイルの画像領域へと移動させる、動き補償サイド情報を含む、請求項5に記載のビデオ合成装置。
- 前記ビデオ合成装置は、変化を求める外部要求に応答した前記空間部分の時間的変化の前記空間位置の時間的変化を制御するように構成されている、請求項1〜6のいずれか一項に記載のビデオ合成装置。
- 前記継承画像の各々の前記空間部分が、前記少なくとも1つの入力ビデオデータストリームの一連の入力画像のうちの正確に1つの動き補償サイド情報および予測残差データを収集および複製することによって充填されるように、前記継承画像の前記空間部分を充填することによって、前記合成ビデオデータストリームの前記一連の継承画像を形成するように構成されている、請求項1〜7のいずれか一項に記載のビデオ合成装置。
- 前記ビデオ合成装置は、参照画像の現在のセットのいずれもが、時間的動き補償サイド情報予測を介して、いずれの後続する入力画像によっても参照されない、前記一連の入力画像のうちの連続的な次の入力画像に遭遇すると、変化を求める外部要求を実行するように構成されている、請求項8に記載のビデオ合成装置。
- 前記ビデオ合成装置は、1つまたは複数の時間階層レベルIDについて、それぞれの前記1つまたは複数の時間階層レベルIDの入力画像が、時間的動き補償サイド情報予測を介して、いずれの他の前記入力によっても参照されないことを保証する、前記少なくとも1つの入力ビデオデータストリームの高レベル構文によって含まれる、前記入力画像の画像範囲時間階層IDおよび画像範囲時間階層ID超過弁別器に基づいて、参照画像のセットのいずれもが、時間的動き補償サイド情報予測を介して、いずれの後続する入力画像によっても参照されない、前記一連の入力画像のうちの連続的な次の入力画像との前記遭遇を検出するように構成されている、請求項9に記載のビデオ合成装置。
- 前記動き補償サイド情報および前記予測残差データはエントロピー符号化され、前記収集および複製することは、エントロピー復号することなく実施される、請求項1〜10のいずれか一項に記載のビデオ合成装置。
- 前記合成ビデオデータストリームの前記一連の継承画像を前記形成することは、前記少なくとも1つの入力ビデオデータストリームのスライスを、前記スライスのペイロードデータは変更されないままにして、スライスヘッダ内のデータは補正されるように、収集および複製することを含む、請求項1〜11のいずれか一項に記載のビデオ合成装置。
- 前記スライスヘッダ内の前記データは、スライスアドレス、および/または、画像順序カウントデータ、および/または、参照画像順序カウント差分値、および/または、参照画像順序カウント差分値のセットに対する参照、および/または、別様にコード化されている量子化パラメータを含む、請求項12に記載のビデオ合成装置。
- 前記少なくとも1つの非出力画像に、予測残差データがない、請求項1〜13のいずれか一項に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記少なくとも1つの非出力画像が、動き補償時間予測を介して、前記少なくとも1つの入力ビデオデータストリームの一連の入力画像のうちのある入力画像の空間部分が並進によって前記少なくとも1つの非出力画像の空間部分へと複製されるように、前記継承画像の前記サブセットを参照するように、前記少なくとも1つの非出力画像を挿入するように構成されている、請求項1〜14のいずれか一項に記載のビデオ合成装置。
- 前記合成ビデオデータストリームおよび前記少なくとも1つの入力ビデオデータストリームは、動き補償時間予測をブロック粒度が細かくなるように使用して符号化され、前記ビデオ合成装置は、前記少なくとも1つの非出力画像の空間部分が、その動きベクトルが互いに等しいいくつかのブロックから構成され、前記いくつかのブロックのうちの1つのみについては前記合成ビデオデータストリーム内で、前記いくつかのブロックの、前記1つのブロック以外のブロックについては空間予測を使用してコード化されるように構成されている、請求項15に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記1つのブロック以外の任意のブロックが、隣接するブロックからの予測残差データの欠如および動き補償サイド情報の利用をシグナリングするスキップモードを使用してコード化されるように構成されている、請求項16に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記少なくとも1つのビデオ入力データストリームのパラメータセットに基づいて、前記合成ビデオデータストリームの新たなパラメータセットを構築するように構成されている、請求項1〜17のいずれか一項に記載のビデオ合成装置。
- 複数の入力ビデオデータストリームから合成ビデオデータストリームを合成するように構成されているビデオ合成装置であって、前記合成ビデオデータストリームおよび前記複数の入力ビデオデータストリームは、動き補償時間予測を使用して符号化され、前記ビデオ合成装置は、
前記複数の入力ビデオデータストリームの動き補償サイド情報および予測残差データを収集および複製して前記合成ビデオデータストリームの第1の部分にすることによって、前記複数の入力ビデオデータストリームを、前記合成ビデオデータストリームの画像の前記第1の部分へと多重化するステップと、
動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の第2の部分を、照合ビデオで充填するステップと、によって、前記合成ビデオデータストリームを合成するように構成されており、
前記第1の部分は出力されないものとしてシグナリングされ、前記第2の部分は出力されるものとしてシグナリングされる、ビデオ合成装置。 - 前記第1の部分は、非出力画像および/または前記合成ビデオデータストリームの出力画像の切り取られる画像領域を含む、請求項19に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記複数の入力ビデオデータストリームの少なくともサブセットの時間的に交互配置になった画像を使用して、前記合成ビデオデータストリームの前記画像の少なくともサブセットの空間的に静止した画像部分を充填することによる時分割多重化を使用して、前記複数の入力ビデオデータストリームを、前記合成ビデオデータストリームの画像の前記第1の部分へと多重化するように構成されている、請求項19または20に記載のビデオ合成装置。
- 前記合成ビデオデータストリームの前記画像の前記サブセットは、前記合成ビデオデータストリームの前記第1の部分を形成し、前記合成ビデオデータストリームの前記画像の前記サブセットの前記画像は、前記合成ビデオデータストリームの前記第2の部分を形成する、前記合成ビデオデータストリームの出力画像と交互配置になっている非出力画像である、請求項21に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記複数の入力ビデオデータストリームの少なくともサブセットを使用して、前記合成ビデオデータストリームの画像がそれへと空間的に分割されているタイルを並列に充填することによる空間分割多重化を使用して、前記複数の入力ビデオデータストリームを、前記合成ビデオデータストリームの前記第1の部分へと多重化するように構成されている、請求項19または20に記載のビデオ合成装置。
- 前記合成ビデオデータストリームの前記画像は、前記合成ビデオデータストリームの前記第2の部分を形成する追加のタイルを有し、前記合成ビデオデータストリームの前記画像がそれへと空間的に分割されている前記タイルは、前記合成ビデオデータストリームの前記第1の部分を形成し、切り取られる、請求項23に記載のビデオ合成装置。
- 前記ビデオ合成装置は、前記複数の入力ビデオデータストリームの前記少なくともサブセットによって並列に充填されている前記タイルへと分割されている、前記合成ビデオデータストリームの前記画像の間にさらなる画像を挿入することによって、前記第2の部分を形成するように構成されている、請求項23に記載のビデオ合成装置。
- 前記第1の部分の画像の空間部分が前記第2の部分の画像の空間部分へと複製されるように、動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の前記第2の部分を、前記照合ビデオで充填するように構成されている、請求項19〜25のいずれか一項に記載のビデオ合成装置。
- 前記第1の部分の画像の前記空間部分が前記第2の部分の画像の空間部分へと並進的に複製されるように、動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の前記第2の部分を、前記照合ビデオで充填するように構成されている、請求項26に記載のビデオ合成装置。
- 前記合成ビデオデータストリームおよび前記複数の入力ビデオデータストリームは、動き補償時間予測をブロック粒度が細かくなるように使用して符号化され、前記ビデオ合成装置は、前記第1の部分の画像の前記空間部分が、ブロック内という意味においては並進的に、ただし、ブロック間という意味においては拡大および/または縮小するように、前記第2の部分の画像の空間部分へと複製されるように、動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の前記第2の部分を、前記照合ビデオで充填するように構成されている、請求項26に記載のビデオ合成装置。
- 前記合成ビデオデータストリームおよび前記少なくとも1つの入力ビデオデータストリームは、動き補償時間予測をブロック粒度が細かくなるように使用して符号化され、前記ビデオ合成装置は、前記第2の部分の画像の空間部分がそれぞれ、その動きベクトルが互いに等しいいくつかのブロックから構成され、前記いくつかのブロックのうちの1つのみについては前記合成ビデオデータストリーム内で、前記いくつかのブロックの、前記1つのブロック以外の各ブロックについては空間予測を使用してコード化されるように構成されている、請求項26に記載のビデオ合成装置。
- 前記ビデオ合成装置は、各空間部分について、前記1つのブロック以外の、それぞれの前記空間部分の前記いくつかのブロックのうちの任意のブロックが、隣接するブロックからの予測残差データの欠如および動き補償サイド情報の利用をシグナリングするスキップモードを使用してコード化されるように構成されている、請求項29に記載のビデオ合成装置。
- 部分的にイントラコード化のみを使用して、前記合成ビデオデータストリームの前記画像の前記第2の部分を前記照合ビデオで充填するように構成されている、請求項19〜30のいずれか一項に記載のビデオ合成装置。
- 前記ビデオ合成装置は、動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の中間部分を充填するように構成されており、前記合成ビデオデータストリームの前記画像の前記第2の部分は、動き補償時間予測を介して、前記中間部分を介して間接的に前記合成ビデオデータストリームの前記第1の部分を参照することによって、照合ビデオで充填される、請求項19〜31のいずれか一項に記載のビデオ合成装置。
- 前記動き補償サイド情報および前記予測残差データはエントロピー符号化され、前記収集および複製することは、エントロピー復号することなく実施される、請求項19〜32のいずれか一項に記載のビデオ合成装置。
- 前記収集および複製は、前記ビデオ入力データストリームのスライスのペイロードデータは変更されないままにして、スライスヘッダ内のデータは補正されるように実施される、請求項19〜33のいずれか一項に記載のビデオ合成装置。
- 前記スライスヘッダ内の前記データは、スライスアドレス、および/または、画像順序カウントデータ、および/または、参照画像順序カウント差分値、および/または、参照画像順序カウント差分値のセットに対する参照、および/または、別様にコード化されている量子化パラメータを含む、請求項34に記載のビデオ合成装置。
- 前記ビデオ合成装置は、動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分の2つの部分の間の重み付け双予測を使用して前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の前記第2の部分を、前記照合ビデオデータストリームで充填するように構成されている、請求項19〜35のいずれか一項に記載のビデオ合成装置。
- システム(74)であって、
少なくとも1つの入力ビデオデータストリームを提供するように構成されている少なくとも1つのビデオ符号化器(70)と、
請求項1〜19のいずれか一項に記載の、前記少なくとも1つの入力ビデオデータストリームを使用して合成ビデオデータストリームを合成するように構成されているビデオ合成装置(10)であって、前記合成ビデオデータストリームおよび前記少なくとも1つの入力ビデオデータストリームは、動き補償時間予測を使用して符号化される、ビデオ合成装置(10)と、を備えている、システム(74)。 - 前記少なくとも1つのビデオ符号化器(70)は、前記少なくとも1つの入力ビデオデータストリームの画像が、前記少なくとも1つの入力ビデオデータストリームの所定の静止空間領域の境界を越える部分において、前記少なくとも1つの入力ビデオデータストリームの先行する画像を、動き補償時間予測を介してしないように、前記少なくとも1つの入力ビデオデータストリームの動き補償サイド情報を制約して、前記少なくとも1つの入力ビデオデータストリームを提供するように構成されている、請求項37に記載のシステム。
- 前記システムは、前記少なくとも1つのビデオ符号化器を含む複数のビデオ符号化器を備え、前記少なくとも1つのビデオ符号化器は、前記複数のビデオ符号化器の間で同期されている時間予測GOP構造を使用して前記少なくとも1つの入力ビデオデータストリームを提供するように構成されている、請求項37または38に記載のシステム。
- 前記少なくとも1つのビデオ符号化器は、
時間階層的符号化および時間的動き補償サイド情報予測を使用して前記少なくとも1つの入力ビデオデータストリームを提供し、
画像範囲時間階層IDが前記少なくとも1つの入力ビデオデータストリームの画像の各々と関連付けられるように、前記少なくとも1つの入力ビデオデータストリームを提供し、
それぞれの1つまたは複数の時間階層レベルIDの画像が参照されない1つまたは複数の時間階層レベルIDについて、前記時間的動き補償サイド情報予測を、前記それぞれの1つまたは複数の時間階層レベルIDの画像が、時間的動き補償サイド情報予測を介して、いかなる他の入力画像によっても参照されない範囲まで制限し、
1つまたは複数の時間階層レベルIDについて、前記それぞれの1つまたは複数の時間階層レベルIDの入力画像が、時間的動き補償サイド情報予測を介して、いかなる他の入力画像によっても参照されないことを保証する、画像範囲時間階層ID超過弁別器を有する前記少なくとも1つの入力ビデオデータストリームの高レベル構文を提供するように構成されている、請求項37〜39のいずれか一項に記載のシステム。 - システムであって、
各々が複数の入力ビデオデータストリームのうちのそれぞれの1つの入力ビデオデータストリームを提供するように構成されている複数のビデオ符号化器と、
請求項20〜37のいずれか一項に記載の、前記複数の入力ビデオデータストリームから合成ビデオデータストリームを合成するように構成されているビデオ合成装置であって、前記合成ビデオデータストリームおよび前記複数の入力ビデオデータストリームは、動き補償時間予測を使用して符号化される、ビデオ合成装置と、を備えているシステム。 - 前記複数のビデオ符号化器は、前記複数のビデオ符号化器の間で同期されている時間予測GOP構造を使用して前記複数の入力ビデオデータストリームを提供するように構成されている、請求項41に記載のシステム。
- 少なくとも1つの入力ビデオデータストリーム(14)を使用して合成ビデオデータストリーム(18)を合成するためのビデオ合成方法(10)であって、前記合成ビデオデータストリーム(18)および前記少なくとも1つの入力ビデオデータストリーム(14)は、動き補償時間予測を使用して符号化され、前記ビデオ合成方法は、
前記少なくとも1つの入力ビデオデータストリーム(14)の動き補償サイド情報および予測残差データを収集および複製することにより継承画像(26)の空間部分を充填することによって、前記合成ビデオデータストリーム(18)の一連の前記継承画像(26)を形成するステップであって、前記空間部分の空間位置は、前記一連の継承画像の中で、1つの継承画像から次の継承画像へと時間的に変化するステップと、
前記一連の継承画像の前記継承画像の間で、非出力画像(30)を前記合成ビデオデータストリーム(18)へと挿入するステップであって、前記非出力画像は、動き補償時間予測を介して、前記継承画像のサブセットを参照するステップと、を含むビデオ合成方法(10)。 - 複数の入力ビデオデータストリームから合成ビデオデータストリームを合成するためのビデオ合成方法であって、前記合成ビデオデータストリームおよび前記複数の入力ビデオデータストリームは、動き補償時間予測を使用して符号化され、前記ビデオ合成方法は、
前記複数の入力ビデオデータストリーム動き補償サイド情報および予測残差データを収集および複製して前記合成ビデオデータストリームの第1の部分にすることによって、前記複数の入力ビデオデータストリームを、前記合成ビデオデータストリームの画像の前記第1の部分へと多重化するステップと、
動き補償時間予測を介して、前記合成ビデオデータストリームの前記第1の部分を参照することによって、前記合成ビデオデータストリームの前記画像の第2の部分を、照合ビデオで充填するステップと、を含み、
前記第1の部分は出力されないものとしてシグナリングされ、前記第2の部分は出力されるものとしてシグナリングされる、ビデオ合成方法。 - コンピュータ上で動作するとき、請求項43または44に記載の方法を実施するためのプログラムコードを有する、コンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2014/067757 WO2016026526A2 (en) | 2014-08-20 | 2014-08-20 | Video composition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017530613A JP2017530613A (ja) | 2017-10-12 |
JP6437096B2 true JP6437096B2 (ja) | 2018-12-12 |
Family
ID=51392247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017510316A Active JP6437096B2 (ja) | 2014-08-20 | 2014-08-20 | ビデオ合成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10425652B2 (ja) |
EP (1) | EP3183878B1 (ja) |
JP (1) | JP6437096B2 (ja) |
KR (1) | KR102037158B1 (ja) |
CN (2) | CN112511837B (ja) |
WO (1) | WO2016026526A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12028552B2 (en) | 2019-09-03 | 2024-07-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Configurable NAL and slice code point mechanism for stream merging |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016180486A1 (en) | 2015-05-12 | 2016-11-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Composite scalable video streaming |
JP6362116B2 (ja) * | 2016-11-30 | 2018-07-25 | キヤノン株式会社 | 表示装置及びその制御方法、プログラム、記憶媒体 |
JP6922215B2 (ja) * | 2016-12-27 | 2021-08-18 | 富士通株式会社 | 動画像符号化装置 |
US20200112710A1 (en) * | 2017-03-17 | 2020-04-09 | Lg Electronics Inc. | Method and device for transmitting and receiving 360-degree video on basis of quality |
KR102318816B1 (ko) * | 2017-03-20 | 2021-10-28 | 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. | 고급 비디오 데이터 스트림 추출 및 다중 해상도 비디오 송신 |
EP3673665A4 (en) * | 2017-08-24 | 2021-03-10 | Nokia Technologies Oy | APPARATUS, PROCESS AND COMPUTER PROGRAM FOR OMNIDIRECTIONAL VIDEO |
GB2570879B (en) * | 2018-02-06 | 2022-08-17 | Advanced Risc Mach Ltd | Encoding data arrays |
US11202088B2 (en) | 2018-03-15 | 2021-12-14 | Sony Corporation | Image processing apparatus and method |
EP3576413A1 (en) * | 2018-05-31 | 2019-12-04 | InterDigital CE Patent Holdings | Encoder and method for encoding a tile-based immersive video |
US11570400B2 (en) * | 2018-06-13 | 2023-01-31 | Analog Devices, Inc. | Systems and methods for asymmetric image splitter clock generation |
CN116405721A (zh) * | 2018-06-13 | 2023-07-07 | 马克西姆综合产品公司 | 用于不对称图像分离器时钟生成的系统和方法 |
CN112640455B (zh) | 2018-06-21 | 2024-06-14 | 瑞典爱立信有限公司 | 视频编码中具有子图块的图块分区 |
WO2019243541A2 (en) | 2018-06-21 | 2019-12-26 | Telefonaktiebolaget Lm Ericsson (Publ) | Flexible tile partitions |
EP3811624A1 (en) * | 2018-06-21 | 2021-04-28 | Telefonaktiebolaget LM Ericsson (publ) | Tile shuffling for 360 degree video decoding |
EP3591972A1 (en) * | 2018-07-02 | 2020-01-08 | Axis AB | Method and system for encoding video with overlay |
CN108810417A (zh) * | 2018-07-04 | 2018-11-13 | 深圳市歌美迪电子技术发展有限公司 | 一种图像处理方法、机构及后视镜 |
CN110832868A (zh) | 2018-08-31 | 2020-02-21 | 深圳市大疆创新科技有限公司 | 编码方法、解码方法、编码设备和解码设备 |
KR102154407B1 (ko) * | 2018-11-15 | 2020-09-09 | 한국전자기술연구원 | 타일 기반 스트리밍을 위한 모션 제한 av1 영상 부호화 방법 및 장치 |
EP3868095A4 (en) * | 2018-11-26 | 2021-12-15 | Huawei Technologies Co., Ltd. | APPARATUS AND METHOD FOR DERIVATING A CHROMINANCE QUANTIFICATION PARAMETER |
CN118714302A (zh) | 2019-02-01 | 2024-09-27 | 弗劳恩霍夫应用研究促进协会 | 允许按照子画面或区域随机接入的视频编解码器以及使用该视频编解码器的视频合成概念 |
CN116233436A (zh) * | 2019-06-20 | 2023-06-06 | 腾讯美国有限责任公司 | 视频解码方法、设备和计算机可读存储介质 |
CN114009032A (zh) * | 2019-06-21 | 2022-02-01 | 瑞典爱立信有限公司 | 视频编码层上切换指示 |
CN112533022A (zh) * | 2019-08-30 | 2021-03-19 | 中兴通讯股份有限公司 | 云化机顶盒透明度叠加方法、云化机顶盒及存储介质 |
KR20220161426A (ko) * | 2020-03-30 | 2022-12-06 | 엘지전자 주식회사 | Dpb 파라미터의 개수 정보를 시그널링하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독 가능한 기록 매체 |
US20230222754A1 (en) * | 2022-01-07 | 2023-07-13 | Sony Interactive Entertainment Inc. | Interactive video playback techniques to enable high fidelity magnification |
CN115589453A (zh) * | 2022-09-27 | 2023-01-10 | 维沃移动通信有限公司 | 视频处理方法、装置、电子设备及存储介质 |
EP4387228A1 (en) * | 2022-12-15 | 2024-06-19 | Axis AB | Method and device for combining image data from two or more encoded image frames |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3879252B2 (ja) * | 1998-05-22 | 2007-02-07 | ソニー株式会社 | 編集方法および編集装置 |
AU1910800A (en) * | 1998-11-09 | 2000-05-29 | Broadcom Corporation | Graphics display system |
US6901110B1 (en) * | 2000-03-10 | 2005-05-31 | Obvious Technology | Systems and methods for tracking objects in video sequences |
JP2003299103A (ja) * | 2002-03-29 | 2003-10-17 | Toshiba Corp | 動画像符号化方法と装置及び動画像復号化方法と装置 |
US20050008240A1 (en) * | 2003-05-02 | 2005-01-13 | Ashish Banerji | Stitching of video for continuous presence multipoint video conferencing |
US7599565B2 (en) * | 2004-03-10 | 2009-10-06 | Nokia Corporation | Method and device for transform-domain video editing |
DE102004059993B4 (de) * | 2004-10-15 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium |
US8004542B2 (en) * | 2005-01-17 | 2011-08-23 | Kabushiki Kaisha Toshiba | Video composition apparatus, video composition method and video composition program |
CN101427573B (zh) * | 2006-02-16 | 2013-07-03 | 维德约股份有限公司 | 用于可缩放视频编码比特流的稀疏化的系统和方法 |
US8773494B2 (en) * | 2006-08-29 | 2014-07-08 | Microsoft Corporation | Techniques for managing visual compositions for a multimedia conference call |
JP2008066851A (ja) * | 2006-09-05 | 2008-03-21 | Sony Corp | 情報処理装置および情報処理方法、記録媒体、並びに、プログラム |
US8948243B2 (en) * | 2010-03-31 | 2015-02-03 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, and image decoding method |
JP2013055587A (ja) * | 2011-09-06 | 2013-03-21 | Sony Corp | 画像処理装置、画像処理方法、および画像処理システム |
KR20240027889A (ko) * | 2011-11-11 | 2024-03-04 | 지이 비디오 컴프레션, 엘엘씨 | 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩 |
US9288506B2 (en) * | 2012-01-05 | 2016-03-15 | Qualcomm Incorporated | Signaling view synthesis prediction support in 3D video coding |
US9674534B2 (en) * | 2012-01-19 | 2017-06-06 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding multi-view video prediction capable of view switching, and method and apparatus for decoding multi-view video prediction capable of view switching |
EP2839660B1 (en) * | 2012-04-16 | 2020-10-07 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
US9838685B2 (en) * | 2012-06-15 | 2017-12-05 | Google Technology Holdings LLC | Method and apparatus for efficient slice header processing |
CN104429079B (zh) * | 2012-07-09 | 2016-08-24 | 三菱电机株式会社 | 利用运动矢量预测列表处理用于视图合成的多视图视频的方法和系统 |
US10375405B2 (en) * | 2012-10-05 | 2019-08-06 | Qualcomm Incorporated | Motion field upsampling for scalable coding based on high efficiency video coding |
US9948915B2 (en) * | 2013-07-24 | 2018-04-17 | Qualcomm Incorporated | Sub-PU motion prediction for texture and depth coding |
-
2014
- 2014-08-20 JP JP2017510316A patent/JP6437096B2/ja active Active
- 2014-08-20 CN CN202011420006.6A patent/CN112511837B/zh active Active
- 2014-08-20 CN CN201480081304.3A patent/CN106797495B/zh active Active
- 2014-08-20 EP EP14755059.4A patent/EP3183878B1/en active Active
- 2014-08-20 WO PCT/EP2014/067757 patent/WO2016026526A2/en active Application Filing
- 2014-08-20 KR KR1020177007616A patent/KR102037158B1/ko active IP Right Grant
-
2017
- 2017-02-16 US US15/435,147 patent/US10425652B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12028552B2 (en) | 2019-09-03 | 2024-07-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Configurable NAL and slice code point mechanism for stream merging |
Also Published As
Publication number | Publication date |
---|---|
CN112511837B (zh) | 2024-08-30 |
JP2017530613A (ja) | 2017-10-12 |
EP3183878B1 (en) | 2019-11-13 |
US10425652B2 (en) | 2019-09-24 |
CN106797495B (zh) | 2020-12-22 |
CN112511837A (zh) | 2021-03-16 |
WO2016026526A2 (en) | 2016-02-25 |
KR102037158B1 (ko) | 2019-11-26 |
WO2016026526A3 (en) | 2016-07-14 |
EP3183878A2 (en) | 2017-06-28 |
KR20170044169A (ko) | 2017-04-24 |
CN106797495A (zh) | 2017-05-31 |
US20170163994A1 (en) | 2017-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6437096B2 (ja) | ビデオ合成 | |
US20230308639A1 (en) | Apparatus, a Method and a Computer Program for Video Coding and Decoding | |
US12088847B2 (en) | Apparatus, a method and a computer program for video encoding and decoding | |
JP6556868B2 (ja) | ビデオストリーミング装置、ビデオストリーム、ビデオストリーミング方法、及び、コンピュータプログラム | |
US8755434B2 (en) | Method and apparatus for scalably encoding and decoding video signal | |
US12101511B2 (en) | Subpicture layout and partial output with layers | |
US8660180B2 (en) | Method and apparatus for scalably encoding and decoding video signal | |
CN113796080A (zh) | 用于以子图片发信号通知输出层集的方法 | |
WO2020141260A1 (en) | An apparatus, a method and a computer program for video coding and decoding | |
US11388437B2 (en) | View-position and angle dependent processing of point cloud data | |
JP2022514513A (ja) | タイル及びサブ画像の分割 | |
US20230013085A1 (en) | Region-wise scalability with adaptive resolution change | |
CN112153391A (zh) | 视频编码的方法、装置、电子设备及存储介质 | |
CN111953996A (zh) | 视频解码的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181001 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181016 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6437096 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |