JP2022549719A - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents
画像処理方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP2022549719A JP2022549719A JP2022519417A JP2022519417A JP2022549719A JP 2022549719 A JP2022549719 A JP 2022549719A JP 2022519417 A JP2022519417 A JP 2022519417A JP 2022519417 A JP2022519417 A JP 2022519417A JP 2022549719 A JP2022549719 A JP 2022549719A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- image
- optical flow
- interpolated
- flow map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 29
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 230000003287 optical effect Effects 0.000 claims abstract description 861
- 238000000034 method Methods 0.000 claims abstract description 57
- 238000013528 artificial neural network Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 42
- 238000001914 filtration Methods 0.000 claims description 39
- 238000005070 sampling Methods 0.000 claims description 33
- 230000015572 biosynthetic process Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 28
- 238000003786 synthesis reaction Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 22
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/0137—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Television Systems (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2019年10月30日に中国国家知識産権局に提出された、出願番号が201911041851.Xで、発明の名称が「画像処理方法及び装置、電子機器並びに記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は援用することによって本願に組み込まれる。
第t(tは整数)フレームの画像から第t-1フレームの画像への第1のオプティカルフローマップ、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップ、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップ及び前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを取得することと、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップに基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することと、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、
前記第1のフレーム補間画像と前記第2のフレーム補間画像を融合処理して、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、を含む画像処理方法が提供される。
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップ、及び予め設定されたフレーム補間時間に基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することであって、前記予め設定されたフレーム補間時間は、前記第tフレームの画像の収集時間と前記第t+1フレームの画像の収集時間との時間間隔内の任意時間であることを含む。
前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることと、
反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、を含む。
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第3のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第4のフレーム補間画像を決定することと、
前記第3のフレーム補間画像において任意の位置の第1の近傍領域を決定し、前記第1の近傍領域内の少なくとも1つの位置の、前記第1のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第3のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第4のフレーム補間画像において任意の位置の第2の近傍領域を決定し、前記第2の近傍領域内の少なくとも1つの位置の、前記第2のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第4のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第3のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第1のフレーム補間オプティカルフローマップを構成し、前記第4のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第2のフレーム補間オプティカルフローマップを構成することと、を含む。
前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
フィルタされた第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、フィルタされた第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、を含む。
反転された前記第1のフレーム補間オプティカルフローマップに基づいて第1のサンプリングオフセット及び第1の残差を決定し、反転された前記第2のフレーム補間オプティカルフローマップに基づいて第2のサンプリングオフセット及び第2の残差を決定することと、
前記第1のサンプリングオフセット及び前記第1の残差に基づいて前記反転された前記第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、前記第2のサンプリングオフセット及び前記第2の残差に基づいて前記反転された前記第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、を含む。
前記第1のフレーム補間画像及び前記第2のフレーム補間画像に基づいて前記フレーム補間画像内の少なくとも一部の位置の重畳重みを決定することと、
前記第1のフレーム補間画像、前記第2のフレーム補間画像、及び前記少なくとも一部の位置の重畳重みに基づいて、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、を含む。
前記第tフレームの画像及び第t-1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップを得ることと、
前記第tフレームの画像及び第t+1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第tフレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第t+2フレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを得ることと、を含む。
前記トレーニングセットは複数のサンプル画像群を含み、
各サンプル画像群は、フレーム補間対象の第iフレームのサンプル画像及び第i+1フレームのサンプル画像と、第i-1フレームのサンプル画像と、第i+2フレームのサンプル画像と、前記第iフレームのサンプル画像と第i+1フレームのサンプル画像との間に挿入されるサンプルフレーム補間画像と、前記サンプルフレーム補間画像のフレーム補間時間と、を少なくとも含む。
前記第1のオプティカルフロー予測ネットワークによって第i-1フレームのサンプル画像、第iフレームのサンプル画像、第i+1フレームのサンプル画像及び第i+2フレームのサンプル画像に対してオプティカルフロー予測をそれぞれ行って、前記第iフレームのサンプル画像から前記第i-1フレームのサンプル画像への第1のサンプルオプティカルフローマップ、前記第iフレームのサンプル画像から前記第i+1フレームのサンプル画像への第2のサンプルオプティカルフローマップ、前記第i+1フレームのサンプル画像から前記第iフレームのサンプル画像への第3のサンプルオプティカルフローマップ及び前記第i+1フレームのサンプル画像から前記第i+2フレームのサンプル画像への第4のサンプルオプティカルフローマップを取得し、1<i<I-1であり、Iは画像の総フレーム数であり、i、Iは整数であることと、
前記第2のオプティカルフロー予測ネットワークは前記第1のサンプルオプティカルフローマップ、前記第2のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第1のサンプルフレーム補間オプティカルフローマップを得ることと、
前記第2のオプティカルフロー予測ネットワークは前記第3のサンプルオプティカルフローマップ、前記第4のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
前記フレーム補間画像及び前記サンプルフレーム補間画像によってニューラルネットワークの画像損失を決定することと、
前記画像損失に基づいて、前記ニューラルネットワークをトレーニングすることと、を含む。
前記オプティカルフロー反転ネットワークによって第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップに対してオプティカルフロー反転を行って、反転された第1のサンプルフレーム補間オプティカルフローマップ、及び反転された第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、を含む。
前記フィルタネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び第2のサンプルフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のサンプルフレーム補間オプティカルフローマップ、及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記フィルタされた第1のサンプルフレーム補間オプティカルフローマップ及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、を含む。
第t(tは整数)フレームの画像から第t-1フレームの画像への第1のオプティカルフローマップ、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップ、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップ及び前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを取得するための取得モジュールと、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップに基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定するための第1の決定モジュールと、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定するための第2の決定モジュールと、
前記第1のフレーム補間画像と前記第2のフレーム補間画像を融合処理して、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得るための融合モジュールと、を含む画像処理装置が提供される。
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップ、及び予め設定されたフレーム補間時間に基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することであって、前記予め設定されたフレーム補間時間は、前記第tフレームの画像の収集時間と前記第t+1フレームの画像の収集時間との時間間隔内の任意時間であることに用いられる。
前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることと、
反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、に用いられる。
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第3のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第4のフレーム補間画像を決定することと、
前記第3のフレーム補間画像において任意の位置の第1の近傍領域を決定し、前記第1のフレーム補間オプティカルフローマップにおける前記第1の近傍領域内の各位置のオプティカルフローを反転させた後、反転された各位置のオプティカルフローの平均値を前記第3のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第4のフレーム補間画像において任意の位置の第2の近傍領域を決定し、前記第2の近傍領域内の少なくとも1つの位置の、前記第2のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第4のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第3のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第1のフレーム補間オプティカルフローマップを構成し、前記第4のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第2のフレーム補間オプティカルフローマップを構成することと、に用いられる。
前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
フィルタされた第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、フィルタされた第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、に用いられる。
反転された前記第1のフレーム補間オプティカルフローマップに基づいて第1のサンプリングオフセット及び第1の残差を決定し、反転された前記第2のフレーム補間オプティカルフローマップに基づいて第2のサンプリングオフセット及び第2の残差を決定することと、
前記第1のサンプリングオフセット及び前記第1の残差に基づいて前記反転された前記第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、前記第2のサンプリングオフセット及び前記第2の残差に基づいて前記反転された前記第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、に用いられる。
前記第1のフレーム補間画像及び前記第2のフレーム補間画像に基づいて前記フレーム補間画像内の少なくとも一部の位置の重畳重みを決定することと、
前記第1のフレーム補間画像、前記第2のフレーム補間画像、及び前記少なくとも一部の位置の重畳重みに基づいて、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、に用いられる。
前記第tフレームの画像及び第t-1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップを得ることと、
前記第tフレームの画像及び第t+1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第tフレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第t+2フレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを得ることと、に用いられる。
予め設定されたトレーニングセットによって前記ニューラルネットワークをトレーニングするためのトレーニングモジュールを含み、
前記トレーニングセットは複数のサンプル画像群を含み、
各サンプル画像群は、フレーム補間対象の第iフレームのサンプル画像及び第i+1フレームのサンプル画像と、第i-1フレームのサンプル画像と、第i+2フレームのサンプル画像と、前記第iフレームのサンプル画像と第i+1フレームのサンプル画像との間に挿入されるサンプルフレーム補間画像と、前記サンプルフレーム補間画像のフレーム補間時間と、を少なくとも含む。
前記第1のオプティカルフロー予測ネットワークによって第i-1フレームのサンプル画像、第iフレームのサンプル画像、第i+1フレームのサンプル画像及び第i+2フレームのサンプル画像に対してオプティカルフロー予測をそれぞれ行って、前記第iフレームのサンプル画像から前記第i-1フレームのサンプル画像への第1のサンプルオプティカルフローマップ、前記第iフレームのサンプル画像から前記第i+1フレームのサンプル画像への第2のサンプルオプティカルフローマップ、前記第i+1フレームのサンプル画像から前記第iフレームのサンプル画像への第3のサンプルオプティカルフローマップ及び前記第i+1フレームのサンプル画像から前記第i+2フレームのサンプル画像への第4のサンプルオプティカルフローマップを取得し、1<i<I-1であり、Iは画像の総フレーム数であり、i、Iは整数であることと、
前記第2のオプティカルフロー予測ネットワークは前記第1のサンプルオプティカルフローマップ、前記第2のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第1のサンプルフレーム補間オプティカルフローマップを得ることと、
前記第2のオプティカルフロー予測ネットワークは前記第3のサンプルオプティカルフローマップ、前記第4のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
前記フレーム補間画像及び前記サンプルフレーム補間画像によってニューラルネットワークの画像損失を決定することと、
前記画像損失に基づいて、前記ニューラルネットワークをトレーニングすることと、に用いられる。
前記オプティカルフロー反転ネットワークによって第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップに対してオプティカルフロー反転を行って、反転された第1のサンプルフレーム補間オプティカルフローマップ、及び反転された第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、に用いられる。
前記フィルタネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び第2のサンプルフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のサンプルフレーム補間オプティカルフローマップ、及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記フィルタされた第1のサンプルフレーム補間オプティカルフローマップ及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、に用いられる。
前記第tフレームの画像及び第t-1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップを得ることと、前記第tフレームの画像及び第t+1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップを得ることと、前記第t+1フレームの画像及び前記第tフレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップを得ることと、前記第t+1フレームの画像及び前記第t+2フレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを得ることと、を含んでもよい。
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップ、及び予め設定されたフレーム補間時間に基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することであって、前記予め設定されたフレーム補間時間は、前記第tフレームの画像の収集時間と前記第t+1フレームの画像の収集時間との時間間隔内の任意時間であることを含んでもよい。
は、画像内の要素の移動加速度を表す。
前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることと、
反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、を含んでもよい。
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第3のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第4のフレーム補間画像を決定することと、
前記第3のフレーム補間画像において任意の位置の第1の近傍領域を決定し、前記第1の近傍領域内の少なくとも1つの位置の、前記第1のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第3のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第4のフレーム補間画像において任意の位置の第2の近傍領域を決定し、前記第2の近傍領域内の少なくとも1つの位置の、前記第2のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第4のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第3のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第1のフレーム補間オプティカルフローマップを構成し、前記第4のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第2のフレーム補間オプティカルフローマップを構成することと、を含んでもよい。
前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
フィルタされた第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、フィルタされた第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、を含む。
反転された前記第1のフレーム補間オプティカルフローマップに基づいて第1のサンプリングオフセット及び第1の残差を決定し、反転された前記第2のフレーム補間オプティカルフローマップに基づいて第2のサンプリングオフセット及び第2の残差を決定することと、
前記第1のサンプリングオフセット及び前記第1の残差に基づいて前記反転された前記第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、前記第2のサンプリングオフセット及び前記第2の残差に基づいて前記反転された前記第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、を含んでもよい。
前記第1のフレーム補間画像及び前記第2のフレーム補間画像に基づいて前記フレーム補間画像内の少なくとも一部の位置の重畳重みを決定することと、
第tフレームの画像、前記第t+1フレームの画像、及び前記少なくとも一部の位置の重畳重みに基づいて、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、を含んでもよい。
前記第1のオプティカルフロー予測ネットワークによって第i-1フレームのサンプル画像、第iフレームのサンプル画像、第i+1フレームのサンプル画像及び第i+2フレームのサンプル画像に対してオプティカルフロー予測をそれぞれ行って、前記第iフレームのサンプル画像から前記第i-1フレームのサンプル画像への第1のサンプルオプティカルフローマップ、前記第iフレームのサンプル画像から前記第i+1フレームのサンプル画像への第2のサンプルオプティカルフローマップ、前記第i+1フレームのサンプル画像から前記第iフレームのサンプル画像への第3のサンプルオプティカルフローマップ及び前記第i+1フレームのサンプル画像から前記第i+2フレームのサンプル画像への第4のサンプルオプティカルフローマップを取得し、1<i<I-1であり、Iは画像の総フレーム数であり、i、Iは整数であることと、
前記第2のオプティカルフロー予測ネットワークは前記第1のサンプルオプティカルフローマップ、前記第2のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第1のサンプルフレーム補間オプティカルフローマップを得ることと、
前記第2のオプティカルフロー予測ネットワークは前記第3のサンプルオプティカルフローマップ、前記第4のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
前記フレーム補間画像及び前記サンプルフレーム補間画像によってニューラルネットワークの画像損失を決定することと、
前記画像損失に基づいて、前記ニューラルネットワークをトレーニングすることと、を含んでもよい。
前記オプティカルフロー反転ネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップに対してオプティカルフロー反転を行って、反転された第1のサンプルフレーム補間オプティカルフローマップ、及び反転された第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、を含んでもよい。
前記フィルタネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び第2のサンプルフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のサンプルフレーム補間オプティカルフローマップ、及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記フィルタされた第1のサンプルフレーム補間オプティカルフローマップ及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、を含む。
第t(tは整数)フレームの画像から第t-1フレームの画像への第1のオプティカルフローマップ、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップ、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップ及び前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを取得するための取得モジュール301と、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップに基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定するための第1の決定モジュール302と、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定するための第2の決定モジュール303と、
前記第1のフレーム補間画像と前記第2のフレーム補間画像を融合処理して、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得るための融合モジュール304と、を含む。
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップ、及び予め設定されたフレーム補間時間に基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することであって、前記予め設定されたフレーム補間時間は、前記第tフレームの画像の収集時間と前記第t+1フレームの画像の収集時間との時間間隔内の任意時間であることに用いられてもよい。
前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることと、
反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、に用いられてもよい。
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第3のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第4のフレーム補間画像を決定することと、
前記第3のフレーム補間画像において任意の位置の第1の近傍領域を決定し、前記第1の近傍領域内の少なくとも1つの位置の、前記第1のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第3のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第4のフレーム補間画像において任意の位置の第2の近傍領域を決定し、前記第2の近傍領域内の少なくとも1つの位置の、前記第2のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第4のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第3のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第1のフレーム補間オプティカルフローマップを構成し、前記第4のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第2のフレーム補間オプティカルフローマップを構成することと、に用いられてもよい。
前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
フィルタされた第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、フィルタされた第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、に用いられてもよい。
反転された前記第1のフレーム補間オプティカルフローマップに基づいて第1のサンプリングオフセット及び第1の残差を決定し、反転された前記第2のフレーム補間オプティカルフローマップに基づいて第2のサンプリングオフセット及び第2の残差を決定することと、
前記第1のサンプリングオフセット及び前記第1の残差に基づいて前記反転された前記第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、前記第2のサンプリングオフセット及び前記第2の残差に基づいて前記反転された前記第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、に用いられてもよい。
前記第1のフレーム補間画像及び前記第2のフレーム補間画像に基づいて前記フレーム補間画像内の少なくとも一部の位置の重畳重みを決定することと、
前記第1のフレーム補間画像、前記第2のフレーム補間画像、及び前記少なくとも一部の位置の重畳重みに基づいて、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、に用いられてもよい。
前記第tフレームの画像及び第t-1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップを得ることと、
前記第tフレームの画像及び第t+1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第tフレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第t+2フレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを得ることと、に用いられてもよい。
予め設定されたトレーニングセットによって前記ニューラルネットワークをトレーニングするためのトレーニングモジュールを含みもよく、前記トレーニングセットは複数のサンプル画像群を含み、各サンプル画像群は、フレーム補間対象の第iフレームのサンプル画像及び第i+1フレームのサンプル画像と、第i-1フレームのサンプル画像と、第i+2フレームのサンプル画像と、前記第iフレームのサンプル画像と第i+1フレームのサンプル画像との間に挿入されるサンプルフレーム補間画像と、前記サンプルフレーム補間画像のフレーム補間時間を少なくとも含む。
前記第1のオプティカルフロー予測ネットワークによって第i-1フレームのサンプル画像、第iフレームのサンプル画像、第i+1フレームのサンプル画像及び第i+2フレームのサンプル画像に対してオプティカルフロー予測をそれぞれ行って、前記第iフレームのサンプル画像から前記第i-1フレームのサンプル画像への第1のサンプルオプティカルフローマップ、前記第iフレームのサンプル画像から前記第i+1フレームのサンプル画像への第2のサンプルオプティカルフローマップ、前記第i+1フレームのサンプル画像から前記第iフレームのサンプル画像への第3のサンプルオプティカルフローマップ及び前記第i+1フレームのサンプル画像から前記第i+2フレームのサンプル画像への第4のサンプルオプティカルフローマップを取得し、1<i<I-1であり、Iは画像の総フレーム数であり、i、Iは整数であることと、
前記第2のオプティカルフロー予測ネットワークは前記第1のサンプルオプティカルフローマップ、前記第2のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第1のサンプルフレーム補間オプティカルフローマップを得ることと、
前記第2のオプティカルフロー予測ネットワークは前記第3のサンプルオプティカルフローマップ、前記第4のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
前記フレーム補間画像及び前記サンプルフレーム補間画像によってニューラルネットワークの画像損失を決定することと、
前記画像損失に基づいて、前記ニューラルネットワークをトレーニングすることと、に用いられてもよい。
前記オプティカルフロー反転ネットワークによって第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップに対してオプティカルフロー反転を行って、反転された第1のサンプルフレーム補間オプティカルフローマップ、及び反転された第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、に用いられてもよい。
前記フィルタネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び第2のサンプルフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のサンプルフレーム補間オプティカルフローマップ、及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記フィルタされた第1のサンプルフレーム補間オプティカルフローマップ及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、に用いられてもよい。
Claims (27)
- 第t(tは整数)フレームの画像から第t-1フレームの画像への第1のオプティカルフローマップ、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップ、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップ及び前記第t+1フレームの画像から第t+2フレームの画像への第4のオプティカルフローマップを取得することと、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップに基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することと、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、
前記第1のフレーム補間画像と前記第2のフレーム補間画像を融合処理して、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、
を含む画像処理方法。 - 前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップに基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することは、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップ、及び予め設定されたフレーム補間時間に基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することであって、前記予め設定されたフレーム補間時間は、前記第tフレームの画像の収集時間と前記第t+1フレームの画像の収集時間との時間間隔内の任意時間であることを含むことを特徴とする請求項1に記載の方法。 - 前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することは、
前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることと、
反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、
を含むことを特徴とする請求項1又は2に記載の方法。 - 前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることは、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第3のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第4のフレーム補間画像を決定することと、
前記第3のフレーム補間画像において任意の位置の第1の近傍領域を決定し、前記第1の近傍領域内の少なくとも1つの位置の、前記第1のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第3のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第4のフレーム補間画像において任意の位置の第2の近傍領域を決定し、前記第2の近傍領域内の少なくとも1つの位置の、前記第2のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第4のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第3のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第1のフレーム補間オプティカルフローマップを構成し、前記第4のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第2のフレーム補間オプティカルフローマップを構成することと、
を含むことを特徴とする請求項3に記載の方法。 - 前記反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することは、
前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
フィルタされた第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、フィルタされた第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、
を含むことを特徴とする請求項3又は4に記載の方法。 - 前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることは、
反転された前記第1のフレーム補間オプティカルフローマップに基づいて第1のサンプリングオフセット及び第1の残差を決定し、反転された前記第2のフレーム補間オプティカルフローマップに基づいて第2のサンプリングオフセット及び第2の残差を決定することと、
前記第1のサンプリングオフセット及び前記第1の残差に基づいて前記反転された前記第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、前記第2のサンプリングオフセット及び前記第2の残差に基づいて前記反転された前記第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
を含むことを特徴とする請求項5に記載の方法。 - 前記第1のフレーム補間画像と前記第2のフレーム補間画像を融合処理して、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることは、
前記第1のフレーム補間画像及び前記第2のフレーム補間画像に基づいて前記フレーム補間画像内の少なくとも一部の位置の重畳重みを決定することと、
前記第1のフレーム補間画像、前記第2のフレーム補間画像、及び前記少なくとも一部の位置の重畳重みに基づいて、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、
を含むことを特徴とする請求項1~6のいずれか1項に記載の方法。 - 第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップ、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップ、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップ及び前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを取得することは、
前記第tフレームの画像及び第t-1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップを得ることと、
前記第tフレームの画像及び第t+1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第tフレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第t+2フレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを得ることと、
を含むことを特徴とする請求項1~7のいずれか1項に記載の方法。 - 前記方法はニューラルネットワークによって実現可能であり、
前記方法はさらに、予め設定されたトレーニングセットによって前記ニューラルネットワークをトレーニングすることを含み、
前記トレーニングセットは複数のサンプル画像群を含み、
各サンプル画像群は、フレーム補間対象の第iフレームのサンプル画像及び第i+1フレームのサンプル画像と、第i-1フレームのサンプル画像と、第i+2フレームのサンプル画像と、前記第iフレームのサンプル画像と第i+1フレームのサンプル画像との間に挿入されるサンプルフレーム補間画像と、前記サンプルフレーム補間画像のフレーム補間時間と、を少なくとも含むことを特徴とする請求項1~8のいずれか1項に記載の方法。 - 当該ニューラルネットワークは、第1のオプティカルフロー予測ネットワークと、第2のオプティカルフロー予測ネットワークと、画像合成ネットワークとを含み、
予め設定されたトレーニングセットによって前記ニューラルネットワークをトレーニングすることは、
前記第1のオプティカルフロー予測ネットワークによって第i-1フレームのサンプル画像、第iフレームのサンプル画像、第i+1フレームのサンプル画像及び第i+2フレームのサンプル画像に対してオプティカルフロー予測をそれぞれ行って、前記第iフレームのサンプル画像から前記第i-1フレームのサンプル画像への第1のサンプルオプティカルフローマップ、前記第iフレームのサンプル画像から前記第i+1フレームのサンプル画像への第2のサンプルオプティカルフローマップ、前記第i+1フレームのサンプル画像から前記第iフレームのサンプル画像への第3のサンプルオプティカルフローマップ及び前記第i+1フレームのサンプル画像から前記第i+2フレームのサンプル画像への第4のサンプルオプティカルフローマップを取得し、1<i<I-1であり、Iは画像の総フレーム数であり、i、Iは整数であることと、
前記第2のオプティカルフロー予測ネットワークは前記第1のサンプルオプティカルフローマップ、前記第2のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第1のサンプルフレーム補間オプティカルフローマップを得ることと、
前記第2のオプティカルフロー予測ネットワークは前記第3のサンプルオプティカルフローマップ、前記第4のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
前記フレーム補間画像及び前記サンプルフレーム補間画像によってニューラルネットワークの画像損失を決定することと、
前記画像損失に基づいて、前記ニューラルネットワークをトレーニングすることと、
を含むことを特徴とする請求項9に記載の方法。 - 前記ニューラルネットワークはさらに、オプティカルフロー反転ネットワークを含み、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることは、
前記オプティカルフロー反転ネットワークによって第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップに対してオプティカルフロー反転を行って、反転された第1のサンプルフレーム補間オプティカルフローマップ、及び反転された第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
を含むことを特徴とする請求項10に記載の方法。 - 前記ニューラルネットワークはさらに、フィルタネットワークを含み、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることは、
前記フィルタネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び第2のサンプルフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のサンプルフレーム補間オプティカルフローマップ、及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記フィルタされた第1のサンプルフレーム補間オプティカルフローマップ及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
を含むことを特徴とする請求項11に記載の方法。 - 第t(tは整数)フレームの画像から第t-1フレームの画像への第1のオプティカルフローマップ、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップ、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップ及び前記第t+1フレームの画像から第t+2フレームの画像への第4のオプティカルフローマップを取得するための取得モジュールと、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップに基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定するための第1の決定モジュールと、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定するための第2の決定モジュールと、
前記第1のフレーム補間画像と前記第2のフレーム補間画像を融合処理して、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得るための融合モジュールと、
を含む画像処理装置。 - 前記第1の決定モジュールはさらに、
前記第1のオプティカルフローマップ、前記第2のオプティカルフローマップ、及び予め設定されたフレーム補間時間に基づいて第1のフレーム補間オプティカルフローマップを決定し、前記第3のオプティカルフローマップ、前記第4のオプティカルフローマップに基づいて第2のフレーム補間オプティカルフローマップを決定することであって、前記予め設定されたフレーム補間時間は、前記第tフレームの画像の収集時間と前記第t+1フレームの画像の収集時間との時間間隔内の任意時間であることに用いられることを特徴とする請求項13に記載の装置。 - 前記第2の決定モジュールはさらに、
前記第1のフレーム補間オプティカルフローマップ及び前記第2のフレーム補間オプティカルフローマップを反転処理し、反転された第1のフレーム補間オプティカルフローマップ及び反転された第2のフレーム補間オプティカルフローマップを得ることと、
反転された第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、反転された前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、
に用いられることを特徴とする請求項13又は14に記載の装置。 - 前記第2の決定モジュールはさらに、
前記第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第3のフレーム補間画像を決定し、前記第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第4のフレーム補間画像を決定することと、
前記第3のフレーム補間画像において任意の位置の第1の近傍領域を決定し、前記第1の近傍領域内の少なくとも1つの位置の、前記第1のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第3のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第4のフレーム補間画像において任意の位置の第2の近傍領域を決定し、前記第2の近傍領域内の少なくとも1つの位置の、前記第2のフレーム補間オプティカルフローマップにおけるオプティカルフローを反転させた後、反転された少なくとも1つの位置のオプティカルフローの平均値を前記第4のフレーム補間画像における当該位置の反転オプティカルフローとして決定することと、
前記第3のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第1のフレーム補間オプティカルフローマップを構成し、前記第4のフレーム補間画像内の少なくとも1つの位置の反転オプティカルフローは前記反転された第2のフレーム補間オプティカルフローマップを構成することと、
に用いられることを特徴とする請求項15に記載の装置。 - 前記第2の決定モジュールはさらに、
前記反転された第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、反転された第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
フィルタされた第1のフレーム補間オプティカルフローマップ及び前記第tフレームの画像に基づいて第1のフレーム補間画像を決定し、フィルタされた第2のフレーム補間オプティカルフローマップ及び前記第t+1フレームの画像に基づいて第2のフレーム補間画像を決定することと、
に用いられることを特徴とする請求項15又は16に記載の装置。 - 前記第2の決定モジュールはさらに、
反転された前記第1のフレーム補間オプティカルフローマップに基づいて第1のサンプリングオフセット及び第1の残差を決定し、反転された前記第2のフレーム補間オプティカルフローマップに基づいて第2のサンプリングオフセット及び第2の残差を決定することと、
前記第1のサンプリングオフセット及び前記第1の残差に基づいて前記反転された前記第1のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のフレーム補間オプティカルフローマップを得て、前記第2のサンプリングオフセット及び前記第2の残差に基づいて前記反転された前記第2のフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第2のフレーム補間オプティカルフローマップを得ることと、
に用いられることを特徴とする請求項17に記載の装置。 - 前記融合モジュールはさらに、
前記第1のフレーム補間画像及び前記第2のフレーム補間画像に基づいて前記フレーム補間画像内の少なくとも一部の位置の重畳重みを決定することと、
前記第1のフレーム補間画像、前記第2のフレーム補間画像、及び前記少なくとも一部の位置の重畳重みに基づいて、前記第tフレームの画像と前記第t+1フレームの画像との間に挿入されるフレーム補間画像を得ることと、
に用いられることを特徴とする請求項13~18のいずれか1項に記載の装置。 - 前記取得モジュールはさらに、
前記第tフレームの画像及び第t-1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t-1フレームの画像への第1のオプティカルフローマップを得ることと、
前記第tフレームの画像及び第t+1フレームの画像に対してオプティカルフロー予測を行って、前記第tフレームの画像から第t+1フレームの画像への第2のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第tフレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第tフレームの画像への第3のオプティカルフローマップを得ることと、
前記第t+1フレームの画像及び前記第t+2フレームの画像に対してオプティカルフロー予測を行って、前記第t+1フレームの画像から前記第t+2フレームの画像への第4のオプティカルフローマップを得ることと、
に用いられることを特徴とする請求項13~19のいずれか1項に記載の装置。 - 前記装置はニューラルネットワークによって実現可能であり、
前記装置はさらに、予め設定されたトレーニングセットによって前記ニューラルネットワークをトレーニングするためのトレーニングモジュールを含み、
前記トレーニングセットは複数のサンプル画像群を含み、
各サンプル画像群は、フレーム補間対象の第iフレームのサンプル画像及び第i+1フレームのサンプル画像と、第i-1フレームのサンプル画像と、第i+2フレームのサンプル画像と、前記第iフレームのサンプル画像と第i+1フレームのサンプル画像との間に挿入されるサンプルフレーム補間画像と、前記サンプルフレーム補間画像のフレーム補間時間と、を少なくとも含むことを特徴とする請求項13~20のいずれか1項に記載の装置。 - 前記ニューラルネットワークは、第1のオプティカルフロー予測ネットワークと、第2のオプティカルフロー予測ネットワークと、画像合成ネットワークとを含み、
前記トレーニングモジュールはさらに、
前記第1のオプティカルフロー予測ネットワークによって第i-1フレームのサンプル画像、第iフレームのサンプル画像、第i+1フレームのサンプル画像及び第i+2フレームのサンプル画像に対してオプティカルフロー予測をそれぞれ行って、前記第iフレームのサンプル画像から前記第i-1フレームのサンプル画像への第1のサンプルオプティカルフローマップ、前記第iフレームのサンプル画像から前記第i+1フレームのサンプル画像への第2のサンプルオプティカルフローマップ、前記第i+1フレームのサンプル画像から前記第iフレームのサンプル画像への第3のサンプルオプティカルフローマップ及び前記第i+1フレームのサンプル画像から前記第i+2フレームのサンプル画像への第4のサンプルオプティカルフローマップを取得し、1<i<I-1であり、Iは画像の総フレーム数であり、i、Iは整数であることと、
前記第2のオプティカルフロー予測ネットワークは前記第1のサンプルオプティカルフローマップ、前記第2のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第1のサンプルフレーム補間オプティカルフローマップを得ることと、
前記第2のオプティカルフロー予測ネットワークは前記第3のサンプルオプティカルフローマップ、前記第4のサンプルオプティカルフローマップ及び前記サンプルフレーム補間画像のフレーム補間時間に基づいてオプティカルフロー予測を行って、第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
前記フレーム補間画像及び前記サンプルフレーム補間画像によってニューラルネットワークの画像損失を決定することと、
前記画像損失に基づいて、前記ニューラルネットワークをトレーニングすることと、
に用いられることを特徴とする請求項21に記載の装置。 - 前記ニューラルネットワークはさらに、オプティカルフロー反転ネットワークを含み、
前記トレーニングモジュールはさらに、
前記オプティカルフロー反転ネットワークによって第1のサンプルフレーム補間オプティカルフローマップ及び前記第2のサンプルフレーム補間オプティカルフローマップに対してオプティカルフロー反転を行って、反転された第1のサンプルフレーム補間オプティカルフローマップ、及び反転された第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記反転された第1のサンプルフレーム補間オプティカルフローマップ及び前記反転された第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
に用いられることを特徴とする請求項22に記載の装置。 - 前記ニューラルネットワークはさらに、フィルタネットワークを含み、
前記トレーニングモジュールはさらに、
前記フィルタネットワークによって前記第1のサンプルフレーム補間オプティカルフローマップ及び第2のサンプルフレーム補間オプティカルフローマップをフィルタ処理し、フィルタされた第1のサンプルフレーム補間オプティカルフローマップ、及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを得ることと、
前記画像合成ネットワークによって第iフレームのサンプル画像及び第i+1フレームのサンプル画像、前記フィルタされた第1のサンプルフレーム補間オプティカルフローマップ及びフィルタされた第2のサンプルフレーム補間オプティカルフローマップを融合処理し、フレーム補間画像を得ることと、
に用いられることを特徴とする請求項23に記載の装置。 - プロセッサと、
プロセッサにより実行可能な命令を記憶するためのメモリと、
を含む電子機器であって、
前記プロセッサは、前記メモリに記憶されている命令を呼び出すことにより、請求項1~12のいずれか1項に記載の方法を実行するように構成されることを特徴とする電子機器。 - コンピュータプログラム命令が記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラム命令がプロセッサによって実行されると、請求項1~12のいずれか1項に記載の方法を実現させることを特徴とするコンピュータ読み取り可能な記憶媒体。 - コンピュータ読み取り可能なコードを含むコンピュータプログラムであって、
前記コンピュータ読み取り可能なコードが電子機器において稼働すると、前記電子機器のプロセッサは、請求項1~12のいずれか1項に記載の方法を実現するための命令を実行することを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911041851.X | 2019-10-30 | ||
CN201911041851.XA CN110798630B (zh) | 2019-10-30 | 2019-10-30 | 图像处理方法及装置、电子设备和存储介质 |
PCT/CN2019/127981 WO2021082241A1 (zh) | 2019-10-30 | 2019-12-24 | 图像处理方法及装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022549719A true JP2022549719A (ja) | 2022-11-28 |
Family
ID=69441936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022519417A Pending JP2022549719A (ja) | 2019-10-30 | 2019-12-24 | 画像処理方法及び装置、電子機器並びに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220262012A1 (ja) |
JP (1) | JP2022549719A (ja) |
KR (1) | KR20220053631A (ja) |
CN (1) | CN110798630B (ja) |
TW (1) | TWI736179B (ja) |
WO (1) | WO2021082241A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7596003B1 (ja) | 2024-09-11 | 2024-12-09 | 株式会社ゼノトゥーン | 情報処理方法、情報処理システム及びプログラム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113727141B (zh) * | 2020-05-20 | 2023-05-12 | 富士通株式会社 | 视频帧的插值装置以及方法 |
CN111372087B (zh) * | 2020-05-26 | 2020-08-28 | 深圳看到科技有限公司 | 全景视频插帧方法、装置及对应的存储介质 |
CN112040311B (zh) * | 2020-07-24 | 2021-10-26 | 北京航空航天大学 | 视频图像补帧方法、装置、设备及可存储介质 |
CN111800652A (zh) * | 2020-07-29 | 2020-10-20 | 深圳市慧鲤科技有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN112104830B (zh) * | 2020-08-13 | 2022-09-27 | 北京迈格威科技有限公司 | 视频插帧方法、模型训练方法及对应装置 |
CN112954395B (zh) * | 2021-02-03 | 2022-05-17 | 南开大学 | 一种可插入任意帧率的视频插帧方法及系统 |
CN112995715B (zh) * | 2021-04-20 | 2021-09-03 | 腾讯科技(深圳)有限公司 | 视频插帧处理方法、装置、电子设备及存储介质 |
CN113613011B (zh) * | 2021-07-26 | 2022-09-30 | 北京达佳互联信息技术有限公司 | 一种光场图像压缩方法、装置、电子设备及存储介质 |
CN114286007B (zh) * | 2021-12-28 | 2024-11-15 | 维沃移动通信有限公司 | 图像处理电路、图像处理方法、电子设备和可读存储介质 |
CN114998995B (zh) * | 2022-06-13 | 2024-11-26 | 西安电子科技大学 | 基于度量学习和时空双流网络的跨视角步态识别方法 |
CN118229519B (zh) * | 2024-05-27 | 2024-07-30 | 中国科学院空天信息创新研究院 | 基于多模态融合光流估计的卫星序列图像插值方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109922372A (zh) * | 2019-02-26 | 2019-06-21 | 深圳市商汤科技有限公司 | 视频数据处理方法及装置、电子设备和存储介质 |
CN110392282A (zh) * | 2018-04-18 | 2019-10-29 | 优酷网络技术(北京)有限公司 | 一种视频插帧的方法、计算机存储介质及服务器 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8340185B2 (en) * | 2006-06-27 | 2012-12-25 | Marvell World Trade Ltd. | Systems and methods for a motion compensated picture rate converter |
JP2008135980A (ja) * | 2006-11-28 | 2008-06-12 | Toshiba Corp | 補間フレーム作成方法および補間フレーム作成装置 |
TWI335184B (en) * | 2007-05-09 | 2010-12-21 | Himax Tech Ltd | Method of doubling frame rate of video signals |
CN102184552B (zh) * | 2011-05-11 | 2013-06-26 | 上海理工大学 | 一种基于差分融合与图像边缘信息的运动目标检测方法 |
CN103220488B (zh) * | 2013-04-18 | 2016-09-07 | 北京大学 | 一种视频帧率上转换装置及方法 |
CN105590327A (zh) * | 2014-10-24 | 2016-05-18 | 华为技术有限公司 | 运动估计方法及装置 |
US9877016B2 (en) * | 2015-05-27 | 2018-01-23 | Google Llc | Omnistereo capture and render of panoramic virtual reality content |
WO2018048265A1 (ko) * | 2016-09-11 | 2018-03-15 | 엘지전자 주식회사 | 향상된 옵티컬 플로우 움직임 백터를 이용하여 비디오 신호를 처리하는 방법 및 장치 |
CN110476424B (zh) * | 2017-03-16 | 2022-03-04 | 联发科技股份有限公司 | 一种视频编解码方法及装置 |
US10410358B2 (en) * | 2017-06-26 | 2019-09-10 | Samsung Electronics Co., Ltd. | Image processing with occlusion and error handling in motion fields |
CN109922231A (zh) * | 2019-02-01 | 2019-06-21 | 重庆爱奇艺智能科技有限公司 | 一种用于生成视频的插帧图像的方法和装置 |
CN110191299B (zh) * | 2019-04-15 | 2020-08-04 | 浙江大学 | 一种基于卷积神经网络的多重帧插值方法 |
CN110310242B (zh) * | 2019-06-27 | 2022-04-15 | 深圳市商汤科技有限公司 | 一种图像去模糊方法及装置、存储介质 |
CN110322525B (zh) * | 2019-06-28 | 2023-05-02 | 连尚(新昌)网络科技有限公司 | 一种动图处理方法及终端 |
CN110267098B (zh) * | 2019-06-28 | 2022-05-20 | 连尚(新昌)网络科技有限公司 | 一种视频处理方法及终端 |
-
2019
- 2019-10-30 CN CN201911041851.XA patent/CN110798630B/zh active Active
- 2019-12-24 KR KR1020227010034A patent/KR20220053631A/ko not_active Application Discontinuation
- 2019-12-24 JP JP2022519417A patent/JP2022549719A/ja active Pending
- 2019-12-24 WO PCT/CN2019/127981 patent/WO2021082241A1/zh active Application Filing
-
2020
- 2020-03-17 TW TW109108716A patent/TWI736179B/zh active
-
2022
- 2022-03-31 US US17/709,695 patent/US20220262012A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110392282A (zh) * | 2018-04-18 | 2019-10-29 | 优酷网络技术(北京)有限公司 | 一种视频插帧的方法、计算机存储介质及服务器 |
CN109922372A (zh) * | 2019-02-26 | 2019-06-21 | 深圳市商汤科技有限公司 | 视频数据处理方法及装置、电子设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7596003B1 (ja) | 2024-09-11 | 2024-12-09 | 株式会社ゼノトゥーン | 情報処理方法、情報処理システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021082241A1 (zh) | 2021-05-06 |
TW202117671A (zh) | 2021-05-01 |
KR20220053631A (ko) | 2022-04-29 |
CN110798630A (zh) | 2020-02-14 |
TWI736179B (zh) | 2021-08-11 |
CN110798630B (zh) | 2020-12-29 |
US20220262012A1 (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022549719A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
US12211315B2 (en) | Human face and hand association detecting method and a device, and storage medium | |
JP7125541B2 (ja) | ビデオ修復方法および装置、電子機器、ならびに記憶媒体 | |
JP7041284B2 (ja) | 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP7106679B2 (ja) | 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム | |
KR102394354B1 (ko) | 키 포인트 검출 방법 및 장치, 전자 기기 및 저장 매체 | |
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
CN109922372B (zh) | 视频数据处理方法及装置、电子设备和存储介质 | |
JP7026257B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP7150845B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
US20220020124A1 (en) | Image processing method, image processing device, and storage medium | |
JP2021531566A (ja) | 画像処理方法および装置、電子機器ならびに記憶媒体 | |
WO2020155609A1 (zh) | 一种目标对象处理方法、装置、电子设备及存储介质 | |
JP2022528012A (ja) | 被写界深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム | |
JP2021529398A (ja) | ビデオ処理方法及び装置、電子機器並びに記憶媒体 | |
US20200125833A1 (en) | Method and apparatus for positioning face feature points | |
CN113506229B (zh) | 神经网络训练和图像生成方法及装置 | |
CN108881952A (zh) | 视频生成方法及装置、电子设备和存储介质 | |
CN113506321B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112651880B (zh) | 视频数据处理方法及装置、电子设备和存储介质 | |
CN113506323B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
KR20200017434A (ko) | 이미지 처리 방법 및 장치, 전자 기기와 저장 매체 | |
CN110895793B (zh) | 图像处理方法、装置及存储介质 | |
CN109327662A (zh) | 视频拼接方法及装置 | |
CN110896476B (zh) | 图像处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240416 |