CN102223545A - 一种快速多视点视频颜色校正方法 - Google Patents
一种快速多视点视频颜色校正方法 Download PDFInfo
- Publication number
- CN102223545A CN102223545A CN201110163378XA CN201110163378A CN102223545A CN 102223545 A CN102223545 A CN 102223545A CN 201110163378X A CN201110163378X A CN 201110163378XA CN 201110163378 A CN201110163378 A CN 201110163378A CN 102223545 A CN102223545 A CN 102223545A
- Authority
- CN
- China
- Prior art keywords
- color
- mrow
- viewpoint
- msub
- msup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012937 correction Methods 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000008569 process Effects 0.000 claims abstract description 26
- 230000001360 synchronised effect Effects 0.000 claims abstract description 19
- 230000008859 change Effects 0.000 claims description 56
- 239000000654 additive Substances 0.000 claims description 18
- 230000000996 additive effect Effects 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 16
- 239000003086 colorant Substances 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 239000004575 stone Substances 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 19
- GWEVSGVZZGPLCZ-UHFFFAOYSA-N Titan oxide Chemical compound O=[Ti]=O GWEVSGVZZGPLCZ-UHFFFAOYSA-N 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种快速多视点视频颜色校正方法,本发明方法将所有的多视点视频图像分为关键帧图像和非关键帧图像两类,对于关键帧图像,通过提取主颜色信息来实现精确的颜色校正,而对于非关键帧图像,则通过时域跟踪来实现快速的颜色校正,在保证颜色校正精确性的同时大大降低了颜色校正的计算复杂度;本发明方法根据颜色校正方法对复杂性和实时性的要求,设计了同步跟踪和非同步跟踪两种方式,同步跟踪方式能对实现颜色校正的同步处理但计算复杂度较高,而非同步跟踪方式虽然不能实现颜色校正的同步处理但计算复杂度较低,这样能够实现自适应跟踪,大大提高了颜色校正方法的有效性。
Description
技术领域
本发明涉及一种视频的处理方法,尤其是涉及一种快速多视点视频颜色校正方法。
背景技术
进入本世纪以来,随着数字2D(二维)视频技术日趋成熟,以及计算机、通信及网络技术的快速发展,引发了人们对新一代数字电视系统的强烈需求,其具有视点交互、立体感等现有数字电视系统所不具备的特征,自由视点电视(FTV,Free Viewpoint Television)能够让用户从不同的视角欣赏场景,被认为是下一代数字电视系统的发展方向。在FTV系统中,如何提高多个视频信号的视频压缩效率以降低传输带宽资源占用,以及如何在三维视频系统用户端合成高质量的任意视点图像是需要解决的两个核心问题。由于FTV系统在采集图像的过程中各相机的基线不在同一水平轴上,场景光照、相机CCD(Charge-coupled Device,电荷耦合元件)噪声、快门速度和曝光等要素不一致,因此会导致不同相机采集的图像的颜色值差别很大,将给后续的视频编码、虚拟视点绘制和多视点视频三维显示带来极大的困难,可能会使三维视频系统用户端在任意视点图像合成时出现错误。因此,有效的多视点视频颜色校正方法是提高视频压缩效率,特别是改善任意视点图像质量的关键技术。
目前已提出了一些针对多视点图像的颜色校正方法,如动态规划、K-L变换、Retinex颜色恒常性理论、规正参数调节、噪声预处理与主成分分析、区域分割与跟踪等算法。然而,这些颜色校正方法更多地考虑如何提升校正精确性,而对多视点视频的颜色校正应当有别于现有的多视点图像的颜色校正,这是因为:一方面,由于多视点视频在视点间和时间上同时进行参考,如何对多视点视频进行合理的颜色校正,以保证在时间和空间上的颜色一致性是一个亟需解决的问题;另一方面,由于颜色校正方法的复杂度一般都比较高,如何通过利用多视点视频的时域相关性进行快速跟踪、如何根据多视点视频系统对跟踪的不同要求而自适应地选择跟踪的方式,以降低颜色校正计算复杂度、提高颜色校正精确性,都是对多视点视频进行颜色校正的过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种在保证多视点视频颜色校正精确性的同时,能够有效降低颜色校正计算复杂度的快速多视点视频颜色校正方法。
本发明解决上述技术问题所采用的技术方案为:一种快速多视点视频颜色校正方法,其特征在于包括以下步骤:
①将由多视点视频系统拍摄的未经处理的且颜色空间为YUV的多视点视频定义为原始多视点视频,将原始多视点视频中的一个视点定义为目标视点,记为T,将原始多视点视频中的其它视点定义为源视点,记为S;在空域上该原始多视点视频包括目标视点原始视频和源视点原始视频,目标视点原始视频主要由若干个帧组的目标视点图像组成,源视点原始视频主要由若干个帧组的源视点图像组成,其中,YUV颜色空间的三个颜色分量中的第1个颜色分量为亮度分量,记为Y,第2个颜色分量为第一色度分量,记为U,第3个颜色分量为第二色度分量,记为V;
②将目标视点原始视频中第i个帧组第j时刻的目标视点图像记为{(T)Ii,j,k(x,y)},将源视点原始视频中第i个帧组第j时刻的源视点图像记为{(S)Ii,j,k(x,y)},将目标视点原始视频中每个帧组第1时刻的目标视点图像定义为目标视点关键帧图像,将目标视点原始视频中除每个帧组第1时刻的目标视点图像外的目标视点图像定义为目标视点非关键帧图像,将源视点原始视频中每个帧组第1时刻的源视点图像定义为源视点关键帧图像,将源视点原始视频中除每个帧组第1时刻的源视点图像外的源视点图像定义为源视点非关键帧图像,其中,1≤i≤N,N为目标视点原始视频和源视点原始视频包含的帧组的个数,1≤j≤NGOP,NGOP表示帧组的长度,i·NGOP+j表示第i个帧组第j时刻的目标视点图像或第i个帧组第j时刻的源视点图像的帧号,k=1,2,3分别表示YUV颜色空间的三个颜色分量,(x,y)表示图像中的像素点的坐标位置,(T)Ii,j,k(x,y)表示{(T)Ii,j,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值,(S)Ii,j,k(x,y)表示{(S)Ii,j,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
定义目标视点原始视频和源视点原始视频中当前待处理的第i个帧组为当前帧组;
③通过主颜色提取算法分别估计出目标视点原始视频中当前帧组的目标视点关键帧图像{(T)Ii,1,k(x,y)}和源视点原始视频中当前帧组的源视点关键帧图像{(S)Ii,1,k(x,y)}的主颜色信息,分别记为(T)Θi,1和(S)Θi,1,(T)Θi,1={(T)μ′i,1,k,(T)σ′i,1,k},(S)Θi,1={(S)μ′i,1,k,(S)σ′i,1,k},其中,(T)μ′i,1,k表示{(T)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的均值,(T)σ′i,1,k表示{(T)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的标准差,(S)μ′i,1,k表示{(S)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的均值,(S)σ′i,1,k表示{(S)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的标准差;
④将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,1,k(x,y)与{(S)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,1,k(x,y)的乘性误差记为ai,1,k,ai,1,k=(T)σ′i,1,k/(S)σ′i,1,k,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,1,k(x,y)与{(S)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,1,k(x,y)的加性误差记为ei,1,k,ei,1,k=(T)μ′i,1,k-ai,1,k·(S)μ′i,1,k,然后根据{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}中各个对应的像素点的各个颜色分量的颜色值的乘性误差和加性误差,对{(S)Ii,1,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,1,k(x,y)=ai,1,k·(S)Ii,1,k(x,y)+ei,1,k,其中,(C)Ii,1,k(x,y)为{(S)Ii,1,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
⑤选择跟踪方式对源视点原始视频中当前帧组的各个源视点非关键帧图像的每个像素点的各个颜色分量进行颜色校正,对于源视点原始视频中当前帧组的第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)},1<j′≤NGOP,如果选择的跟踪方式为同步跟踪方式,则执行步骤⑥至⑦,如果选择的跟踪方式为非同步跟踪方式,则执行步骤⑧至⑩;
⑥通过区域检测算法分别估计出目标视点原始视频中当前帧组第j′时刻的目标视点非关键帧图像{(T)Ii,j′,k(x,y)}和第j′-1时刻的目标视点图像{(T)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(T)Θ′i,j′和(T)Θ′i,j′-1,(T)Θ′i,j′={(T)μ″i,j′,k,(T)σ″i,j′,k},(T)Θ′i,j′-1={(T)μ″i,j′-1,k,(T)σ″i,j′-1,k},其中,(T)μ″i,j′,k表示{(T)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(T)σ″i,j′,k表示{(T)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,(T)μ″i,j′-1,k表示{(T)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(T)σ″i,j′-1,k表示{(T)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,1<j′≤NGOP;
通过区域检查算法分别估计出源视点原始视频中当前帧组第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)}和第j′-1时刻的源视点图像{(S)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(S)Θ′i,j′和(S)Θ′i,j′-1,(S)Θ′i,j′={(S)μ″i,j′,k,(S)σ″i,j′,k},(S)Θ′i,j′-1={(S)μ″i,j′-1,k,(S)σ″i,j′-1,k},其中,(S)μ″i,j′,k表示{(S)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(S)σ″i,j′,k表示{(S)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,(S)μ″i,j′-1,k表示{(S)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(S)σ″i,j′-1,k表示{(S)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,1<j′≤NGOP;
⑦将{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,j′,k(x,y)与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,j′,k(x,y)的乘性误差记为ai,j′,k,将{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,j′,k(x,y)与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,j′,k(x,y)的加性误差记为ei,j′,k,然后根据已得到的ai,j′-1,k和ei,j′-1,k,快速估计得到ai,j′,k和ei,j′,k,再利用ai,j′,k和ei,j′,k对{(S)Ii,j′,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,j′,k(x,y)=ai,j′,k·(S)Ii,j′,k(x,y)+ei,j′,k,其中,(C)Ii,j′,k(x,y)为{(S)Ii,j′,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
⑧通过主颜色提取算法分别估计出目标视点原始视频中其余各个帧组的目标视点关键帧图像和源视点原始视频中其余各个帧组的源视点关键帧图像的主颜色信息,得到目标视点原始视频中所有帧组的目标视点关键帧图像和源视点原始视频中所有帧组的源视点关键帧图像的主颜色信息集合,分别记为{(T)Θi,1}和{(S)Θi,1},将所有目标视点关键帧图像的帧号作为控制顶点,将所有目标视点关键帧图像的主颜色信息集合{(T)Θi,1}作为节点矢量,通过B样条曲线拟合算法分别估计出所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(T)fu,k(x1)和y1=(T)fσ,k(x1),将所有源视点关键帧图像的帧号作为控制顶点,将所有源视点关键帧图像的主颜色信息集合{(S)Θi,1}作为节点矢量,通过B样条曲线拟合算法分别估计出所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(S)fu,k(x1)和y1=(S)fσ,k(x1),其中,(T)fu,k()表示所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,(T)fσ,k()表示所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数,(S)fu,k()表示所有源视点图像的各个颜色分量的颜色值的均值曲线变化函数,(S)fσ,k()表示所有源视点图像的各个颜色分量的颜色值的标准差曲线变化函数,x1表示均值和标准差曲线变化函数的输入变量,y1表示均值和标准差曲线变化函数的输出变量;
⑨根据所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,估计得到目标视点原始视频中当前帧组第j′时刻的目标视点非关键帧图像{(T)Ii,j′,k(x,y)}的主颜色信息,记为(T)Θi,j′,(T)Θi,j′={(T)μ′i,j′,k,(T)σ′i,j′,k},根据所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,估计得到源视点原始视频中当前帧组第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)}的主颜色信息,记为(S)Θi,j′,(S)Θi,j′={(S)μ′i,j′,k,(S)σ′i,j′,k},其中,1<j′≤NGOP,(T)μ′i,j′,k=(T)fu,k(i·NGOP+j′),(T)σ′i,j′,k=(T)fσ,k(i·NGOP+j′),(S)μ′i,j′,k=(S)fu,k(i·NGOP+j′),(S)σ′i,j′,k=(S)fσ,k(i·NGOP+j′);
⑩根据已得到的(T)Θi,j′和(S)Θi,j′,计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差和加性误差,分别记为ai,j′,k和ei,j′,k,ai,j′,k=(T)σ′i,j′,k/(S)σ′i,j′,k,ei,j′,k=(T)μ′i,j′,k-ai,j′,k·(S)μ′i,j′,k,再利用ai,j′,k和ei,j′,k对{(S)Ii,j′,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,j′,k(x,y)=ai,j′,k·(S)Ii,j′,k(x,y)+ei,j′,k,其中,(C)Ii,j′,k(x,y)为{(S)Ii,j′,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
所述的步骤③中通过主颜色提取算法估计{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}的主颜色信息的具体过程为:
③-1、在YUV颜色空间以白、黑、红、黄、绿、蓝、粉红、紫、橙、灰和棕11种基本颜色来表示基本颜色分类的集合Ω,Ω={l|1≤l≤11},其中,l表示基本颜色分类的标记;
③-2、分别计算{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值与11种基本颜色的颜色值之间的欧式距离,然后找出最小的欧式距离代价,记为COSTmin,再将COSTmin对应的基本颜色分类的标记作为最佳颜色分类的标记,记为m,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点属于第m个基本颜色分类的概率设为1,记为Pm(x,y)=1,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点属于其余所有基本颜色分类的概率设为0,记为Pn(x,y)=0,其中,m∈Ω,n∈Ω,n≠m,Pm()和Pn()表示概率函数;
③-3、分别对{(T)Ii,1,k(x,y)}中的每个像素点属于11个基本颜色分类的概率集合{Pl(x,y)|1≤l≤11}进行累加操作,得到{(T)Ii,1,k(x,y)}属于11个基本颜色分类的累计概率集合,记为{pl|1≤l≤11},其中, Ψ表示图像中所有像素点的集合;
③-4、找出{pl|1≤l≤11}中最大累计概率对应的基本颜色分类的标记作为主颜色的标记,记为h,计算{(T)Ii,1,k(x,y)}中所有满足Ph(x,y)=1的像素点的第k个颜色分量的颜色值的均值和标准差,分别记为(T)μ′i,1,k和(T)σ′i,1,k,将(T)μ′i,1,k和(T)σ′i,1,k作为{(T)Ii,1,k(x,y)}的主颜色信息,记为(T)Θi,1,(T)Θi,1={(T)μ′i,1,k,(T)σ′i,1,k},其中,h∈Ω;
③-5、对{(S)Ii,1,k(x,y)}采用与步骤③-2至③-4相同的操作,获得{(S)Ii,1,k(x,y)}的主颜色信息,记为(S)Θi,1,(S)Θi,1={(S)μ′i,1,k,(S)σ′i,1,k}。
所述的步骤⑥中通过区域检测算法估计{(T)Ii,j′,k(x,y)}和{(T)Ii,j′-1,k(x,y)}的背景颜色信息的具体过程为:
⑥-1、计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值的绝对差,记为Di,j′,1(x,y),Di,j′,1(x,y)=|(T)Ii,j′,1(x,y)-(T)Ii,j′-1,1(x,y)|,计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值的平均绝对方差,记为 其中,“||”为绝对值符号,M表示图像包含的像素点的总个数,Ψ表示图像中所有像素点的集合,(T)Ii,j′,1(x,y)表示{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值,(T)Ii,j′-1,1(x,y)表示{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值,1<j′≤NGOP;
⑥-2、将{(T)Ii,j′,k(x,y)}中所有满足条件的像素点作为{(T)Ii,j′,k(x,y)}和{(T)Ii,j′-1,k(x,y)}的背景像素点,分别计算{(T)Ii,j′,k(x,y)}的背景像素点的各个颜色分量的颜色值的均值(T)μ″i,j′,k和标准差(T)σ″i,j′,k,将(T)μ″i,j′,k和(T)σ″i,j′,k作为{(T)Ii,j′,k(x,y)}的背景颜色信息,记为(T)Θ′i,j′,(T)Θ′i,j′={(T)μ″i,j′,k,(T)σ″i,j′,k},分别计算{(T)Ii,j′-1,k(x,y)}的背景像素点的各个颜色分量的颜色值的均值(T)μ″i,j′-1,k和标准差(T)σ″i,j′-1,k,将(T)μ″i,j′-1,k和(T)σ″i,j′-1,k作为{(T)Ii,j′-1,k(x,y)}的背景颜色信息,记为(T)Θ′i,j′-1,(T)Θ′i,j′-1={(T)μ″i,j′-1,k,(T)σ″i,j′-1,k},其中,β为大于0的加权参数;
所述的步骤⑥中通过区域检测算法估计{(S)Ii,j′,k(x,y)}和{(S)Ii,j′-1,k(x,y)}的背景颜色信息的具体过程采用与步骤⑥-1至⑥-2相同的操作,获取{(S)Ii,j′,k(x,y)}和{(S)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(S)Θ′i,j′和(S)Θ′i,j′-1,(S)Θ′i,j′={(S)μ″i,j′,k,(S)σ″i,j′,k},(S)Θ′i,j′-1={(S)μ″i,j′-1,k,(S)σ″i,j′-1,k}。
所述的步骤⑦中获取ai,j′,k和ei,j′,k的具体过程为:
⑦-1、将{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差记为 将{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的加性误差记为
⑦-2、将{(S)Ii,j′,k(x,y)}与{(S)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差记为 将{(S)Ii,j′,k(x,y)}与{(S)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的加性误差记为
⑦-3、根据已得到的ai,j′-1,k和ei,j′-1,k,快速估计得到ai,j′,k和ei,j′,k,
所述的步骤⑧中通过主颜色提取算法分别估计出目标视点原始视频中其余各个帧组的目标视点关键帧图像和源视点原始视频中其余各个帧组的源视点关键帧图像的主颜色信息的过程,采用与所述的步骤③中通过主颜色提取算法估计{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}的主颜色信息的具体过程相同的操作方法。
所述的步骤⑧中通过B样条曲线拟合算法估计所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数的具体过程为:
⑧-1、将所有目标视点关键帧图像的帧号作为控制顶点,将目标视点原始视频中第i个帧组的目标视点关键帧图像的帧号记为ti,将目标视点原始视频中第i个帧组的目标视点关键帧图像的正规化的B样条基底函数记为Ni,l(x1),其中,x1表示函数的输入变量,1≤x1≤NGOP·N,NGOP表示帧组的长度,N为目标视点原始视频和源视点原始视频包含的帧组的个数,l表示迭代次数,l≥1;
⑧-2、采用Cox-deBoor递推公式,计算得到Ni,l(x1)经过l′次迭代的正规化的B样条基底函数,记为Ni,l′(x1), 其中,l′>1,Ni,l′-1(x1)表示Ni,l(x1)经过l′-1次迭代的正规化的B样条基底函数,ti+l′-1表示目标视点原始视频中第i+l′-1个帧组的目标视点关键帧图像的帧号,ti+l′表示目标视点原始视频中第i+l′个帧组的目标视点关键帧图像的帧号,Ni+1,l′-1(x1)表示目标视点原始视频中第i+1个帧组的目标视点关键帧图像的正规化的B样条基底函数Ni+1,l(x1)经过l′-1次迭代的正规化的B样条基底函数,ti+1表示目标视点原始视频中第i+1个帧组的目标视点关键帧图像的帧号,如果ti≤x1<ti+1,则Ni,1(x1)=1,否则,Ni,1(x1)=0,Ni,1(x1)表示Ni,l(x1)经过1次迭代的正规化的B样条基底函数;
⑧-3、将所有目标视点关键帧图像的主颜色信息集合{(T)Θi,1}作为节点矢量,估计得到所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,记为y1=(T)fu,k(x1),其中,(T)fu,k()表示所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,x1表示函数的输入变量,y1表示函数的输出变量;
⑧-4、采用与步骤⑧-1至⑧-3相同的操作,估计得到所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数,记为y1=(T)fσ,k(x1),其中,(T)fσ,k()表示所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数;
所述的步骤⑧中通过B样条曲线拟合算法估计所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数的具体过程,采用与步骤⑧-1至⑧-4相同的操作,估计得到所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(S)fu,k(x1)和y1=(S)fσ,k(x1)。
与现有技术相比,本发明的优点在于:
1)本发明方法将所有的多视点视频图像分为关键帧图像和非关键帧图像两类,对于关键帧图像,通过提取主颜色信息来实现精确的颜色校正,而对于非关键帧图像,则通过时域跟踪来实现快速的颜色校正,在保证颜色校正精确性的同时大大降低了颜色校正的计算复杂度。
2)本发明方法根据颜色校正方法对复杂性和实时性的要求,设计了同步跟踪和非同步跟踪两种方式,同步跟踪方式能对实现颜色校正的同步处理但计算复杂度较高,而非同步跟踪方式虽然不能实现颜色校正的同步处理但计算复杂度较低,这样能够实现自适应跟踪,大大提高了颜色校正方法的有效性。
附图说明
图1为本发明方法的流程框图;
图2为“flamenco1”多视点视频测试集的8个视点的原始图像;
图3为“objects2”多视点视频测试集的8个视点的原始图像;
图4a为“flamenco1”多视点视频测试集的目标视点关键帧图像的主颜色标记图像;
图4b为“flamenco1”多视点视频测试集的源视点关键帧图像的主颜色标记图像;
图5a为“objects2”多视点视频测试集的目标视点关键帧图像的主颜色标记图像;
图5b为“objects2”多视点视频测试集的源视点关键帧图像的主颜色标记图像;
图6a为“flamenco1”多视点视频测试集经本发明方法颜色校正后Y分量的均值变化曲线;
图6b为“flamenco1”多视点视频测试集经本发明方法颜色校正后Y分量的标准差变化曲线;
图7a为“objects2”多视点视频测试集经本发明方法颜色校正后Y分量的均值变化曲线;
图7b为“objects2”多视点视频测试集经本发明方法颜色校正后Y分量的标准差变化曲线;
图8为“flamenco1”源视点视频经本发明方法颜色校正后的视频图像;
图9为“objects2”源视点视频经本发明方法颜色校正后的视频图像;
图10为组合视频经本发明方法颜色校正后的视频图像。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种快速多视点视频颜色校正方法,其流程如图1所示,其主要包括以下步骤:
①将由多视点视频系统拍摄的未经处理的且颜色空间为YUV的多视点视频定义为原始多视点视频,将原始多视点视频中的一个视点定义为目标视点,记为T,将原始多视点视频中的其它视点定义为源视点,记为S;在空域上该原始多视点视频包括目标视点原始视频和源视点原始视频,目标视点原始视频主要由若干个帧组的目标视点图像组成,源视点原始视频主要由若干个帧组的源视点图像组成,其中,YUV颜色空间的三个颜色分量中的第1个颜色分量为亮度分量,记为Y,第2个颜色分量为第一色度分量,记为U,第3个颜色分量为第二色度分量,记为V。
在本实施中,采用KDDI公司提供的两组多视点视频测试集“flamenco1”和“objects2”作为原始多视点视频测试集,这两个多视点视频测试集均包含8个视点的视频图像,每幅视频图像的分辨率均为320×240。图2和图3分别给出了“flamenco1”和“objects2”多视点视频测试集的8个视点的原始图像,从图2和图3中可以看出,“flamenco1”和“objects2”的第1、第6和第7个视点图像的颜色外表与其他视点图像的颜色外表明显不一致,对第1、第6和第7个视点图像进行颜色校正十分必要。
②将目标视点原始视频中第i个帧组第j时刻的目标视点图像记为{(T)Ii,j,k(x,y)},将源视点原始视频中第i个帧组第j时刻的源视点图像记为{(S)Ii,j,k(x,y)},将目标视点原始视频中每个帧组第1时刻(j=1时)的目标视点图像定义为目标视点关键帧图像,将目标视点原始视频中除每个帧组第1时刻的目标视点图像外的目标视点图像(1<j≤NGOP时)定义为目标视点非关键帧图像,将源视点原始视频中每个帧组第1时刻(j=1时)的源视点图像定义为源视点关键帧图像,将源视点原始视频中除每个帧组第1时刻的源视点图像外的源视点图像(1<j≤NGOP时)定义为源视点非关键帧图像,其中,1≤i≤N,N为目标视点原始视频和源视点原始视频包含的帧组的个数,1≤j≤NGOP,NGOP表示帧组的长度,即每个帧组包含的图像的总个数,在本实施例中,NGOP=15,i·NGOP+j表示第i个帧组第j时刻的目标视点图像或第i个帧组第j时刻的源视点图像的帧号,k=1,2,3分别表示YUV颜色空间的三个颜色分量,(x,y)表示图像中的像素点的坐标位置,(T)Ii,j,k(x,y)表示{(T)Ii,j,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值,(S)Ii,j,k(x,y)表示{(S)Ii,j,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值。
目标视点原始视频和源视点原始视频在时域上以帧组为单元进行处理,定义目标视点原始视频和源视点原始视频中当前待处理的第i个帧组为当前帧组。
③通过主颜色提取算法分别估计出目标视点原始视频中当前帧组的目标视点关键帧图像{(T)Ii,1,k(x,y)}和源视点原始视频中当前帧组的源视点关键帧图像{(S)Ii,1,k(x,y)}的主颜色信息,分别记为(T)Θi,1和(S)Θi,1,(T)Θi,1={(T)μ′i,1,k,(T)σ′i,1,k},(S)Θi,1={(S)μ′i,1,k,(S)σ′i,1,k},其中,(T)μ′i,1,k表示{(T)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的均值,(T)σ′i,1,k表示{(T)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的标准差,(S)μ′i,1,k表示{(S)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的均值,(S)σ′i,1,k表示{(S)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的标准差。
在此具体实施例中,步骤③中通过主颜色提取算法估计{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}的主颜色信息的具体过程为:
③-1、在YUV颜色空间以白、黑、红、黄、绿、蓝、粉红、紫、橙、灰和棕11种基本颜色来表示基本颜色分类的集合Ω,Ω={l|1≤l≤11},其中,l表示基本颜色分类的标记;
③-2、分别计算{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值与11种基本颜色的颜色值之间的欧式距离,然后找出最小的欧式距离代价,记为COSTmin,再将COSTmin对应的基本颜色分类的标记作为最佳颜色分类的标记,记为m,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点属于第m个基本颜色分类的概率设为1,记为Pm(x,y)=1,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点属于其余所有基本颜色分类的概率设为0,记为Pn(x,y)=0,其中,m∈Ω,n∈Ω,n≠m,Pm()和Pn()表示概率函数;
③-3、分别对{(T)Ii,1,k(x,y)}中的每个像素点属于11个基本颜色分类的概率集合{Pl(x,y)|1≤l≤11}进行累加操作,得到{(T)Ii,1,k(x,y)}属于11个基本颜色分类的累计概率集合,记为{pl|1≤l≤11},其中, Ψ表示图像中所有像素点的集合;
③-4、找出{pl|1≤l≤11}中最大累计概率对应的基本颜色分类的标记作为主颜色的标记,记为h,计算{(T)Ii,1,k(x,y)}中所有满足Ph(x,y)=1的像素点的第k个颜色分量的颜色值的均值和标准差,分别记为(T)μ′i,1,k和(T)σ′i,1,k,将(T)μ′i,1,k和(T)σ′i,1,k作为{(T)Ii,1,k(x,y)}的主颜色信息,记为(T)Θi,1,(T)Θi,1={(T)μ′i,1,k,(T)σ′i,1,k},其中,h∈Ω;
③-5、对{(S)Ii,1,k(x,y)}采用与步骤③-2至③-4相同的操作,获得{(S)Ii,1,k(x,y)}的主颜色信息,记为(S)Θi,1,(S)Θi,1={(S)μ′i,1,k,(S)σ′i,1,k}。
在本实施例中,图4a和图4b分别给出了“flamenco1”多视点视频测试集的目标视点关键帧图像和源视点关键帧图像的主颜色标记图像,图5a和图5b分别给出了“objects2”多视点视频测试集的的目标视点关键帧图像和源视点关键帧图像的主颜色标记图像,从图4a至图5b可以看出,采用本发明的主颜色提取算法能够得到较为一致的区域信息,有利于实现精确的颜色校正。
④将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,1,k(x,y)与{(S)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,1,k(x,y)的乘性误差记为ai,1,k,ai,1,k=(T)σ′i,1,k/(S)σ′i,1,k,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,1,k(x,y)与{(S)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,1,k(x,y)的加性误差记为ei,1,k,ei,1,k=(T)μ′i,1,k-ai,1,k·(S)μ′i,1,k,然后根据{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}中各个对应的像素点的各个颜色分量的颜色值的乘性误差和加性误差,对{(S)Ii,1,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,1,k(x,y)=ai,1,k·(S)Ii,1,k(x,y)+ei,1,k,其中,(C)Ii,1,k(x,y)为{(S)Ii,1,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值。
⑤由于多视点视频系统的计算能力十分有限,如果对每帧源视点非关键帧图像都采用上述的方法进行颜色校正,则计算复杂度非常高,为了降低颜色校正的计算复杂度并同时保证校正的精确性,本发明选择跟踪方式对源视点原始视频中当前帧组的各个源视点非关键帧图像的每个像素点的各个颜色分量进行颜色校正,对于源视点原始视频中当前帧组的第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)},1<j′≤NGOP,如果选择的跟踪方式为同步跟踪方式,则执行步骤⑥至⑦,如果选择的跟踪方式为非同步跟踪方式,则执行步骤⑧至⑩。
在本实施中,根据多视点视频系统对时域跟踪的不同要求,可以自适应地选择跟踪方式,如果多视点视频系统对同步性要求较高而对复杂度要求较低,则可以选择同步跟踪方式,反之,可以选择非同步跟踪方式。
⑥由于相邻帧图像的场景内容通常会发生变化,为了消除由于场景内容变化而对时域跟踪产生的影响,需要提取出相邻帧图像的一致的区域信息,再根据此区域信息估计出目标视点图像或源视点图像的颜色信息,根据此颜色信息建立时间上的映射关系,这样才能保证跟踪结果的有效性。因此本发明通过区域检测算法分别估计出目标视点原始视频中当前帧组第j′时刻的目标视点非关键帧图像{(T)Ii,j′,k(x,y)}和第j′-1时刻的目标视点图像{(T)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(T)Θ′i,j′和(T)Θ′i,j′-1,(T)Θ′i,j′={(T)μ″i,j′,k,(T)σ″i,j′,k},(T)Θ′i,j′-1={(T)μ″i,j′-1,k,(T)σ″i,j′-1,k},其中,(T)μ″i,j′,k表示{(T)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(T)σ″i,j′,k表示{(T)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,(T)μ″i,j′-1,k表示{(T)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(T)σ″i,j′-1,k表示{(T)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,1<j′≤NGOP。
在此具体实施例中,步骤⑥中通过区域检测算法估计{(T)Ii,j′,k(x,y)}和{(T)Ii,j′-1,k(x,y)}的背景颜色信息的具体过程为:
⑥-1、计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值的绝对差,记为Di,j′,1(x,y),Di,j′,1(x,y)=|(T)Ii,j′,1(x,y)-(T)Ii,j′-1,1(x,y)|,计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值的平均绝对方差,记为 其中,“||”为绝对值符号,M表示图像包含的像素点的总个数,Ψ表示图像中所有像素点的集合,(T)Ii,j′,1(x,y)表示{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值,(T)Ii,j′-1,1(x,y)表示{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值,1<j′≤NGOP;
⑥-2、将{(T)Ii,j′,k(x,y)}中所有满足条件的像素点作为{(T)Ii,j′,k(x,y)}和{(T)Ii,j′-1,k(x,y)}的背景像素点,分别计算{(T)Ii,j′,k(x,y)}的背景像素点的各个颜色分量的颜色值的均值(T)μ″i,j′,k和标准差(T)σ″i,j′,k,将(T)μ″i,j′,k和(T)σ″i,j′,k作为{(T)Ii,j′,k(x,y)}的背景颜色信息,记为(T)Θ′i,j′,(T)Θ′i,j′={(T)μ″i,j′,k,(T)σ″i,j′,k},分别计算{(T)Ii,j′-1,k(x,y)}的背景像素点的各个颜色分量的颜色值的均值(T)μ″i,j′-1,k和标准差(T)σ″i,j′-1,k,将(T)μ″i,j′-1,k和(T)σ″i,j′-1,k作为{(T)Ii,j′-1,k(x,y)}的背景颜色信息,记为(T)Θ′i,j′-1,(T)Θ′i,j′-1={(T)μ″i,j′-1,k,(T)σ″i,j′-1,k},其中,β为大于0的加权参数,在本实施例中,取β=2。
同理,通过区域检查算法分别估计出源视点原始视频中当前帧组第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)}和第j′-1时刻的源视点图像{(S)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(S)Θ′i,j′和(S)Θ′i,j′-1,(S)Θ′i,j′={(S)μ″i,j′,k,(S)σ″i,j′,k},(S)Θ′i,j′-1={(S)μ″i,j′-1,k,(S)σ″i,j′-1,k},其中,(S)μ″i,j′,k表示{(S)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(S)σ″i,j′,k表示{(S)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,(S)μ″i,j′-1,k表示{(S)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(S)σ″i,j′-1,k表示{(S)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,1<j′≤NGOP。
在此具体实施例中,上述通过区域检测算法估计{(S)Ii,j′,k(x,y)}和{(S)Ii,j′-1,k(x,y)}的背景颜色信息的具体过程采用与步骤⑥-1至⑥-2相同的操作。
⑦根据{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}的背景颜色信息及{(S)Ii,j′,k(x,y)}与{(S)Ii,j′-1,k(x,y)}的背景颜色信息,可以快速估计得到{(S)Ii,j′,k(x,y)}的颜色校正关系。将{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,j′, k(x,y)与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,j′,k(x,y)的乘性误差记为ai,j′,k,将{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,j′,k(x,y)与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,j′,k(x,y)的加性误差记为ei,j′,k,然后根据已得到的ai,j′-1,k和ei,j′-1,k,快速估计得到ai,j′,k和ei,j′,k,再利用ai,j′,k和ei,j′k对{(S)Ii,j′,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,j′,k(x,y)=ai,j′,k·(S)Ii,j′,k(x,y)+ei,j′,k,其中,(C)Ii,j′,k(x,y)为{(S)Ii,j′,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值。
在此具体实施例中,步骤⑦中获取ai,j′,k和ei,j′,k的具体过程为:
⑦-1、将{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差记为 将{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的加性误差记为
⑦-2、将{(S)Ii,j′,k(x,y)}与{(S)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差记为 将{(S)Ii,j′,k(x,y)}与{(S)Ii,l′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的加性误差记为
⑦-3、根据已得到的ai,j′-1,k和ei,j′-1,k,快速估计得到ai,j′,k和ei,j′,k,
⑧通过主颜色提取算法分别估计出目标视点原始视频中其余各个帧组的目标视点关键帧图像和源视点原始视频中其余各个帧组的源视点关键帧图像的主颜色信息,得到目标视点原始视频中所有帧组的目标视点关键帧图像和源视点原始视频中所有帧组的源视点关键帧图像的主颜色信息集合,分别记为{(T)Θi,1}和{(S)Θi,1},将所有目标视点关键帧图像的帧号作为控制顶点,将所有目标视点关键帧图像的主颜色信息集合{(T)Θi,1}作为节点矢量,通过B样条曲线拟合算法分别估计出所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(T)fu,k(x1)和y1=(T)fσ,k(x1),将所有源视点关键帧图像的帧号作为控制顶点,将所有源视点关键帧图像的主颜色信息集合{(S)Θi,1}作为节点矢量,通过B样条曲线拟合算法分别估计出所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(S)fu,k(x1)和y1=(S)fσ,k(x1),其中,(T)fu,k()表示所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,(T)fσ,k()表示所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数,(S)fu,k()表示所有源视点图像的各个颜色分量的颜色值的均值曲线变化函数,(S)fσ,k()表示所有源视点图像的各个颜色分量的颜色值的标准差曲线变化函数,x1表示均值和标准差曲线变化函数的输入变量,y1表示均值和标准差曲线变化函数的输出变量。
在此具体实施例中,步骤⑧中通过主颜色提取算法分别估计出目标视点原始视频中其余各个帧组的目标视点关键帧图像和源视点原始视频中其余各个帧组的源视点关键帧图像的主颜色信息的过程,采用与步骤③中通过主颜色提取算法估计{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}的主颜色信息的具体过程相同的操作方法。
在此具体实施例中,步骤⑧中通过B样条曲线拟合算法估计所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数的具体过程为:
⑧-1、将所有目标视点关键帧图像的帧号作为控制顶点,将目标视点原始视频中第i个帧组的目标视点关键帧图像的帧号记为ti,将目标视点原始视频中第i个帧组的目标视点关键帧图像的正规化的B样条基底函数记为Ni,l(x1),其中,x1表示函数的输入变量,1≤x1≤NGOP·N,NGOP表示帧组的长度,N为目标视点原始视频和源视点原始视频包含的帧组的个数,l表示迭代次数,l≥1;
⑧-2、采用Cox-deBoor递推公式,计算得到Ni,l(x1)经过l′次迭代的正规化的B样条基底函数,记为Ni,l′(x1), 其中,l′>1,在本实施例中,l′=10,Ni,l′-1(x1)表示Ni,l(x1)经过l′-1次迭代的正规化的B样条基底函数,ti+l′-1表示目标视点原始视频中第i+l′-1个帧组的目标视点关键帧图像的帧号,ti+l′表示目标视点原始视频中第i+l′个帧组的目标视点关键帧图像的帧号,Ni+1,l′-1(x1)表示目标视点原始视频中第i+1个帧组的目标视点关键帧图像的正规化的B样条基底函数Ni+1,l(x1)经过l′-1次迭代的正规化的B样条基底函数,ti+1表示目标视点原始视频中第i+1个帧组的目标视点关键帧图像的帧号,如果ti≤x1<ti+1,则Ni,1(x1)=1,否则,Ni,1(x1)=0,Ni,1(x1)表示Ni,l(x1)经过1次迭代的正规化的B样条基底函数;
⑧-3、将所有目标视点关键帧图像的主颜色信息集合{(T)Θi,1}作为节点矢量,估计得到所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,记为y1=(T)fu,k(x1),其中,(T)fu,k()表示所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,x1表示函数的输入变量,y1表示函数的输出变量;
⑧-4、采用与步骤⑧-1至⑧-3相同的操作,估计得到所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数,记为y1=(T)fσ,k(x1),其中,(T)fσ,k()表示所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数。
同理,步骤⑧中通过B样条曲线拟合算法估计所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数的具体过程,采用与步骤⑧-1至⑧-4相同的操作,估计得到所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(S)fu,k(x1)和y1=(S)fσ,k(x1)。
⑨根据所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,估计得到目标视点原始视频中当前帧组第j′时刻的目标视点非关键帧图像{(T)Ii,j′,k(x,y)}的主颜色信息,记为(T)Θi,j′,(T)Θi,j′={(T)μ′i,j′,k,(T)σ′i,j′,k},根据所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,估计得到源视点原始视频中当前帧组第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)}的主颜色信息,记为(S)Θi,j′,(S)Θi,j′={(S)μ′i,j′,k,(S)σ′i,j′,k},其中,1<j′≤NGOP,(T)μ′i,j′,k=(T)fu,k(i·NGOP+j′),(T)σ′i,j′,k=(T)fσ,k(i·NGOP+j′),(S)μ′i,j′,k=(S)fu,k(i·NGOP+j′),(S)σ′i,j′,k=(S)fσ,k(i·NGOP+j′)。
⑩根据已得到的(T)Θi,j′和(S)Θi,j′,计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差和加性误差,分别记为ai,j′,k和ei,j′,k,ai,j′,k=(T)σ′i,j′,k/(S)σ′i,j′,k,ei,j′,k=(T)μ′i,j′,k-ai,j′,k·(S)μ′i,j′,k,再利用ai,j′,k和ei,j′,k对{(S)Ii,j′,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,j′,k(x,y)=ai,j′,k·(S)Ii,j′,k(x,y)+ei,j′,k,其中,(C)Ii,j′,k(x,y)为{(S)Ii,j′,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值。
以下就利用本发明颜色校正方法对“flamenco1”和“objects2”多视点视频测试集进行快速颜色校正的主观和客观性能进行比较。
将分别采用本发明同步跟踪方式与非同步跟踪方式对多视点视频进行颜色校正,与不采用本发明方法对多视点视频进行颜色校正的时间进行比较,比较结果如表1所示,从表1中可以看出,采用本发明同步跟踪方式和非同步跟踪方式都能够大大节省颜色校正的时间,并且本发明非同步跟踪方式的计算复杂度比同步跟踪方式的计算复杂度更低,而本发明非同步跟踪方式的同步性要比同步跟踪方式的同步性要差,这样,可以根据多视点视频系统的性能来自适应地选择跟踪方式,足以说明本发明方法是有效可行的。
将采用本发明方法的同步跟踪方式和非同步跟踪方式的颜色变化曲线进行比较,图6a和图6b分别给出了“flamenco1”多视点视频测试集经本发明方法颜色校正后Y分量的均值和标准差变化曲线,图7a和图7b分别给出了“objects2”多视点视频测试集经本发明方法颜色校正后Y分量的均值和标准差变化曲线,从图6a至图7b可以看出,采用本发明方法的同步跟踪方式与非同步跟踪方式得到的变化曲线基本上重合,但采用非同步跟踪方式得到的变化曲线更加平滑。
图8给出了“flamenco1”源视点视频经本发明方法颜色校正后的视频图像,图9给出了“objects2”源视点视频经本发明方法颜色校正后的视频图像,图10给出了组合视频经本发明方法颜色校正后的视频图像,从图像的主观效果可以看出,对于“flamenco1”和“objects2”,采用本发明颜色校正后的图像其颜色外表与关键帧图像非常接近,对于组合视频,能够得到更加平滑的颜色变化趋势,说明本发明方法的时域跟踪方式是有效的。
表1利用本发明方法与原始方法对多视点视频进行颜色校正的时间比较
Claims (6)
1.一种快速多视点视频颜色校正方法,其特征在于包括以下步骤:
①将由多视点视频系统拍摄的未经处理的且颜色空间为YUV的多视点视频定义为原始多视点视频,将原始多视点视频中的一个视点定义为目标视点,记为T,将原始多视点视频中的其它视点定义为源视点,记为S;在空域上该原始多视点视频包括目标视点原始视频和源视点原始视频,目标视点原始视频主要由若干个帧组的目标视点图像组成,源视点原始视频主要由若干个帧组的源视点图像组成,其中,YUV颜色空间的三个颜色分量中的第1个颜色分量为亮度分量,记为Y,第2个颜色分量为第一色度分量,记为U,第3个颜色分量为第二色度分量,记为V;
②将目标视点原始视频中第i个帧组第j时刻的目标视点图像记为{(T)Ii,j,k(x,y)},将源视点原始视频中第i个帧组第j时刻的源视点图像记为{(S)Ii,j,k(x,y)},将目标视点原始视频中每个帧组第1时刻的目标视点图像定义为目标视点关键帧图像,将目标视点原始视频中除每个帧组第1时刻的目标视点图像外的目标视点图像定义为目标视点非关键帧图像,将源视点原始视频中每个帧组第1时刻的源视点图像定义为源视点关键帧图像,将源视点原始视频中除每个帧组第1时刻的源视点图像外的源视点图像定义为源视点非关键帧图像,其中,1≤i≤N,N为目标视点原始视频和源视点原始视频包含的帧组的个数,1≤j≤NGOP,NGOP表示帧组的长度,i·NGOP+j表示第i个帧组第j时刻的目标视点图像或第i个帧组第j时刻的源视点图像的帧号,k=1,2,3分别表示YUV颜色空间的三个颜色分量,(x,y)表示图像中的像素点的坐标位置,(T)Ii,j,k(x,y)表示{(T)Ii,j,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值,(S)Ii,j,k(x,y)表示{(S)Ii,j,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
定义目标视点原始视频和源视点原始视频中当前待处理的第i个帧组为当前帧组;
③通过主颜色提取算法分别估计出目标视点原始视频中当前帧组的目标视点关键帧图像{(T)Ii,1,k(x,y)}和源视点原始视频中当前帧组的源视点关键帧图像{(S)Ii,1,k(x,y)}的主颜色信息,分别记为(T)Θi,1和(S)Θi,1,(T)Θi,1={(T)μ′i,1,k,(T)σ′i,1,k},(S)Θi,1={(S)μ′i,1,k,(S)σ′i,1,k},其中,(T)μ′i,1,k表示{(T)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的均值,(T)σ′i,1,k表示{(T)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的标准差,(S)μ′i,1,k表示{(S)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的均值,(S)σ′i,1,k表示{(S)Ii,1,k(x,y)}的主颜色的第k个颜色分量的颜色值的标准差;
④将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,1,k(x,y)与{(S)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,1,k(x,y)的乘性误差记为ai,1,k,ai,1,k=(T)σ′i,1,k/(S)σ′i,1,k,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,1,k(x,y)与{(S)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,1,k(x,y)的加性误差记为ei,1,k,ei,1,k=(T)μ′i,1,k-ai,1,k·(S)μ′i,1,k,然后根据{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}中各个对应的像素点的各个颜色分量的颜色值的乘性误差和加性误差,对{(S)Ii,1,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,1,k(x,y)=ai,1,k·(S)Ii,1,k(x,y)+ei,1,k,其中,(C)Ii,1,k(x,y)为{(S)Ii,1,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
⑤选择跟踪方式对源视点原始视频中当前帧组的各个源视点非关键帧图像的每个像素点的各个颜色分量进行颜色校正,对于源视点原始视频中当前帧组的第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)},1<j′≤NGOP,如果选择的跟踪方式为同步跟踪方式,则执行步骤⑥至⑦,如果选择的跟踪方式为非同步跟踪方式,则执行步骤⑧至⑩;
⑥通过区域检测算法分别估计出目标视点原始视频中当前帧组第j′时刻的目标视点非关键帧图像{(T)Ii,j′,k(x,y)}和第j′-1时刻的目标视点图像{(T)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(T)Θ′i,j′和(T)Θ′i,j′-1,(T)Θ′i,j′={(T)μ″i,j′,k,(T)σ″i,j′,k},(T)Θ′i,j′-1={(T)μ″i,j′-1,k,(T)σ″i,j′-1,k},其中,(T)μ″i,j′,k表示{(T)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(T)σ″i,j′,k表示{(T)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,(T)μ″i,j′-1,k表示{(T)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(T)σ″i,j′-1,k表示{(T)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,1<j′≤NGOP;
通过区域检查算法分别估计出源视点原始视频中当前帧组第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)}和第j′-1时刻的源视点图像{(S)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(S)Θ′i,j′和(S)Θ′i,j′-1,(S)Θ′i,j′={(S)μ″i,j′,k,(S)σ″i,j′,k},(S)Θ′i,j′-1={(S)μ″i,j′-1,k,(S)σ″i,j′-1,k},其中,(S)μ″i,j′,k表示{(S)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(S)σ″i,j′,k表示{(S)Ii,j′,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,(S)μ″i,j′-1,k表示{(S)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的均值,(S)σ″i,j′-1,k表示{(S)Ii,j′-1,k(x,y)}的背景颜色的第k个颜色分量的颜色值的标准差,1<j′≤NGOP;
⑦将{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,j′,k(x,y)与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,j′,k(x,y)的乘性误差记为ai,j′,k,将{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(T)Ii,j′,k(x,y)与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值(S)Ii,j′,k(x,y)的加性误差记为ei,j′,k,然后根据已得到的ai,j′-1,k和ei,j′-1,k,快速估计得到ai,j′,k和ei,j′,k,再利用ai,j′,k和ei,j′,k对{(S)Ii,j′,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,j′,k(x,y)=ai,j′,k·(S)Ii,j′,k(x,y)+ei,j′,k,其中,(C)Ii,j′,k(x,y)为{(S)Ii,j′,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
⑧通过主颜色提取算法分别估计出目标视点原始视频中其余各个帧组的目标视点关键帧图像和源视点原始视频中其余各个帧组的源视点关键帧图像的主颜色信息,得到目标视点原始视频中所有帧组的目标视点关键帧图像和源视点原始视频中所有帧组的源视点关键帧图像的主颜色信息集合,分别记为{(T)Θi,1}和{(S)Θi,1},将所有目标视点关键帧图像的帧号作为控制顶点,将所有目标视点关键帧图像的主颜色信息集合{(T)Θi,1}作为节点矢量,通过B样条曲线拟合算法分别估计出所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(T)fu,k(x1)和y1=(T)fσ,k(x1),将所有源视点关键帧图像的帧号作为控制顶点,将所有源视点关键帧图像的主颜色信息集合{(S)Θi,1}作为节点矢量,通过B样条曲线拟合算法分别估计出所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(S)fu,k(x1)和y1=(S)fσ,k(x1),其中,(T)fu,k()表示所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,(T)fσ,k()表示所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数,(S)fu,k()表示所有源视点图像的各个颜色分量的颜色值的均值曲线变化函数,(S)fσ,k()表示所有源视点图像的各个颜色分量的颜色值的标准差曲线变化函数,x1表示均值和标准差曲线变化函数的输入变量,y1表示均值和标准差曲线变化函数的输出变量;
⑨根据所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,估计得到目标视点原始视频中当前帧组第j′时刻的目标视点非关键帧图像{(T)Ii,j′,k(x,y)}的主颜色信息,记为(T)Θi,j′,(T)Θi,j′={(T)μ′i,j′,k,(T)σ′i,j′,k},根据所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,估计得到源视点原始视频中当前帧组第j′时刻的源视点非关键帧图像{(S)Ii,j′,k(x,y)}的主颜色信息,记为(S)Θi,j′,(S)Θi,j′={(S)μ′i,j′,k,(S)σ′i,j′,k},其中,1<j′≤NGOP,(T)μ′i,j′,k=(T)fu,k(i·NGOP+j′),(T)σ′i,j′,k=(T)fσ,k(i·NGOP+j′),(S)μ′i,j′,k=(S)fu,k(i·NGOP+j′),(S)σ′i,j′,k=(S)fσ,k(i·NGOP+j′);
⑩根据已得到的(T)Θi,j′和(S)Θi,j′,计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值与{(S)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差和加性误差,分别记为ai,j′,k和ei,j′,k,ai,j′,k=(T)σ′i,j′,k/(S)σ′i,j′,k,ei,j′,k=(T)μ′i,j′,k-ai,j′,k·(S)μ′i,j′,k,再利用ai,j′,k和ei,j′,k对{(S)Ii,j′,k(x,y)}的每个像素点的各个颜色分量进行颜色校正,(C)Ii,j′,k(x,y)=ai,j′,k·(S)Ii,j′,k(x,y)+ei,j′,k,其中,(C)Ii,j′,k(x,y)为{(S)Ii,j′,k(x,y)}经颜色校正后的校正图像中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值;
2.根据权利要求1所述的一种快速多视点视频颜色校正方法,其特征在于所述的步骤③中通过主颜色提取算法估计{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}的主颜色信息的具体过程为:
③-1、在YUV颜色空间以白、黑、红、黄、绿、蓝、粉红、紫、橙、灰和棕11种基本颜色来表示基本颜色分类的集合Ω,Ω={l|1≤l≤11},其中,l表示基本颜色分类的标记;
③-2、分别计算{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值与11种基本颜色的颜色值之间的欧式距离,然后找出最小的欧式距离代价,记为COSTmin,再将COSTmin对应的基本颜色分类的标记作为最佳颜色分类的标记,记为m,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点属于第m个基本颜色分类的概率设为1,记为Pm(x,y)=1,将{(T)Ii,1,k(x,y)}中坐标位置为(x,y)的像素点属于其余所有基本颜色分类的概率设为0,记为Pn(x,y)=0,其中,m∈Ω,n∈Ω,n≠m,Pm()和Pn()表示概率函数;
③-3、分别对{(T)Ii,1,k(x,y)}中的每个像素点属于11个基本颜色分类的概率集合{Pl(x,y)|1≤l≤11}进行累加操作,得到{(T)Ii,1,k(x,y)}属于11个基本颜色分类的累计概率集合,记为{pl|1≤l≤11},其中, Ψ表示图像中所有像素点的集合;
③-4、找出{pl|1≤l≤11}中最大累计概率对应的基本颜色分类的标记作为主颜色的标记,记为h,计算{(T)Ii,1,k(x,y)}中所有满足Ph(x,y)=1的像素点的第k个颜色分量的颜色值的均值和标准差,分别记为(T)μ′i,1,k和(T)σ′i,1,k,将(T)μ′i,1,k和(T)σ′i,1,k作为{(T)Ii,1,k(x,y)}的主颜色信息,记为(T)Θi,1,(T)Θi,1={(T)μ′i,1,k,(T)σ′i,1,k},其中,h∈Ω;
③-5、对{(S)Ii,1,k(x,y)}采用与步骤③-2至③-4相同的操作,获得{(S)Ii,1,k(x,y)}的主颜色信息,记为(S)Θi,1,(S)Θi,1={(S)μ′i,1,k,(S)σ′i,1,k}。
3.根据权利要求1或2所述的一种快速多视点视频颜色校正方法,其特征在于所述的步骤⑥中通过区域检测算法估计{(T)Ii,j′,k(x,y)}和{(T)Ii,j′-1,k(x,y)}的背景颜色信息的具体过程为:
⑥-1、计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值的绝对差,记为Di,j′,1(x,y),Di,j′,1(x,y)=|(T)Ii,j′,1(x,y)-(T)Ii,j′-1,1(x,y)|,计算{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值的平均绝对方差,记为 其中,“||”为绝对值符号,M表示图像包含的像素点的总个数,Ψ表示图像中所有像素点的集合,(T)Ii,j′,1(x,y)表示{(T)Ii,j′,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值,(T)Ii,j′-1,1(x,y)表示{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的亮度分量的颜色值,1<j′≤NGOP;
⑥-2、将{(T)Ii,j′,k(x,y)}中所有满足条件的像素点作为{(T)Ii,j′,k(x,y)}和{(T)Ii,j′-1,k(x,y)}的背景像素点,分别计算{(T)Ii,j′,k(x,y)}的背景像素点的各个颜色分量的颜色值的均值(T)μ″i,j′,k和标准差(T)σ″i,j′,k,将(T)μ″i,j′,k和(T)σ″i,j′,k作为{(T)Ii,j′,k(x,y)}的背景颜色信息,记为(T)Θ′i,j′,(T)Θ′i,j′={(T)μ″i,j′,k,(T)σ″i,j′,k},分别计算{(T)Ii,j′-1,k(x,y)}的背景像素点的各个颜色分量的颜色值的均值(T)μ″i,j′-1,k和标准差(T)σ″i,j′-1,k,将(T)μ″i,j′-1,k和(T)σ″i,j′-1,k作为{(T)Ii,j′-1,k(x,y)}的背景颜色信息,记为(T)Θ′i,j′-1,(T)Θ′i,j′-1={(T)μ″i,j′-1,k,(T)σ″i,j′-1,k},其中,β为大于0的加权参数;
所述的步骤⑥中通过区域检测算法估计{(S)Ii,j′,k(x,y)}和{(S)Ii,j′-1,k(x,y)}的背景颜色信息的具体过程采用与步骤⑥-1至⑥-2相同的操作,获取{(S)Ii,j′,k(x,y)}和{(S)Ii,j′-1,k(x,y)}的背景颜色信息,分别记为(S)Θ′i,j′和(S)Θ′i,j′-1,(S)Θ′i,j′={(S)μ″i,j′,k,(S)σ″i,j′,k},(S)Θ′i,j′-1={(S)μ″i,j′-1,k,(S)σ″i,j′-1,k}。
4.根据权利要求3所述的一种快速多视点视频颜色校正方法,其特征在于所述的步骤⑦中获取ai,j′,k和ei,j′,k的具体过程为:
⑦-1、将{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差记为 将{(T)Ii,j′,k(x,y)}与{(T)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的加性误差记为
⑦-2、将{(S)Ii,j′,k(x,y)}与{(S)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的乘性误差记为 将{(S)Ii,j′,k(x,y)}与{(S)Ii,j′-1,k(x,y)}中坐标位置为(x,y)的像素点的第k个颜色分量的颜色值的加性误差记为
⑦-3、根据已得到的ai,j′-1,k和ei,j′-1,k,快速估计得到ai,j′,k和ei,j′,k,
5.根据权利要求4所述的一种快速多视点视频颜色校正方法,其特征在于所述的步骤⑧中通过主颜色提取算法分别估计出目标视点原始视频中其余各个帧组的目标视点关键帧图像和源视点原始视频中其余各个帧组的源视点关键帧图像的主颜色信息的过程,采用与所述的步骤③中通过主颜色提取算法估计{(T)Ii,1,k(x,y)}和{(S)Ii,1,k(x,y)}的主颜色信息的具体过程相同的操作方法。
6.根据权利要求5所述的一种快速多视点视频颜色校正方法,其特征在于所述的步骤⑧中通过B样条曲线拟合算法估计所有目标视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数的具体过程为:
⑧-1、将所有目标视点关键帧图像的帧号作为控制顶点,将目标视点原始视频中第i个帧组的目标视点关键帧图像的帧号记为ti,将目标视点原始视频中第i个帧组的目标视点关键帧图像的正规化的B样条基底函数记为Ni,l(x1),其中,x1表示函数的输入变量,1≤x1≤NGOP·N,NGOP表示帧组的长度,N为目标视点原始视频和源视点原始视频包含的帧组的个数,l表示迭代次数,l≥1;
⑧-2、采用Cox-deBoor递推公式,计算得到Ni,l(x1)经过l′次迭代的正规化的B样条基底函数,记为Ni,l′(x1), 其中,l′>1,Ni,l′-1(x1)表示Ni,l(x1)经过l′-1次迭代的正规化的B样条基底函数,ti+l′-1表示目标视点原始视频中第i+l′-1个帧组的目标视点关键帧图像的帧号,ti+l′表示目标视点原始视频中第i+l′个帧组的目标视点关键帧图像的帧号,Ni+1,l′-1(x1)表示目标视点原始视频中第i+1个帧组的目标视点关键帧图像的正规化的B样条基底函数Ni+1,l(x1)经过l′-1次迭代的正规化的B样条基底函数,ti+1表示目标视点原始视频中第i+1个帧组的目标视点关键帧图像的帧号,如果ti≤x1<ti+1,则Ni,1(x1)=1,否则,Ni,1(x1)=0,Ni,1(x1)表示Ni,l(x1)经过1次迭代的正规化的B样条基底函数;
⑧-3、将所有目标视点关键帧图像的主颜色信息集合{(T)Θi,1}作为节点矢量,估计得到所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,记为y1=(T)fu,k(x1),其中,(T)fu,k()表示所有目标视点图像的各个颜色分量的颜色值的均值曲线变化函数,x1表示函数的输入变量,y1表示函数的输出变量;
⑧-4、采用与步骤⑧-1至⑧-3相同的操作,估计得到所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数,记为y1=(T)fσ,k(x1),其中,(T)fσ,k()表示所有目标视点图像的各个颜色分量的颜色值的标准差曲线变化函数;
所述的步骤⑧中通过B样条曲线拟合算法估计所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数的具体过程,采用与步骤⑧-1至⑧-4相同的操作,估计得到所有源视点图像的各个颜色分量的颜色值的均值和标准差曲线变化函数,分别记为y1=(S)fu,k(x1)和y1=(S)fσ,k(x1)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110163378 CN102223545B (zh) | 2011-06-17 | 2011-06-17 | 一种快速多视点视频颜色校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110163378 CN102223545B (zh) | 2011-06-17 | 2011-06-17 | 一种快速多视点视频颜色校正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102223545A true CN102223545A (zh) | 2011-10-19 |
CN102223545B CN102223545B (zh) | 2013-10-16 |
Family
ID=44779952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110163378 Expired - Fee Related CN102223545B (zh) | 2011-06-17 | 2011-06-17 | 一种快速多视点视频颜色校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102223545B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548114A (zh) * | 2015-09-17 | 2017-03-29 | 腾讯科技(北京)有限公司 | 图像处理方法及装置 |
CN109348125A (zh) * | 2018-10-31 | 2019-02-15 | Oppo广东移动通信有限公司 | 视频校正方法、装置、电子设备和计算机可读存储介质 |
CN110211065A (zh) * | 2019-05-23 | 2019-09-06 | 九阳股份有限公司 | 一种食材图像的颜色校正方法和装置 |
CN110663256A (zh) * | 2017-05-31 | 2020-01-07 | 维里逊专利及许可公司 | 基于虚拟场景的虚拟实体描述帧从不同有利点渲染虚拟场景的帧的方法和系统 |
CN112312106A (zh) * | 2020-11-03 | 2021-02-02 | 燕山大学 | 一种基于色彩空间转换的投影图像颜色校正方法 |
CN112950510A (zh) * | 2021-03-22 | 2021-06-11 | 南京莱斯电子设备有限公司 | 一种大场景拼接图像色差校正方法 |
-
2011
- 2011-06-17 CN CN 201110163378 patent/CN102223545B/zh not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
FENG SHAO ET AL: "Dominant color extraction based color correction for multi-view images", 《中国光学快报(英文版)》 * |
蒋刚毅等: "面向编码和绘制的多视点图像颜色校正", 《光子学报》 * |
邵枫: "自由视点视频信号处理中的关键技术研究", 《中国博士学位论文全文数据库》 * |
邵枫等: "一种基于区域分割与跟踪的多视点视频校正算法", 《光子学报》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548114A (zh) * | 2015-09-17 | 2017-03-29 | 腾讯科技(北京)有限公司 | 图像处理方法及装置 |
CN106548114B (zh) * | 2015-09-17 | 2019-11-12 | 腾讯科技(北京)有限公司 | 图像处理方法、装置及计算机可读介质 |
CN110663256A (zh) * | 2017-05-31 | 2020-01-07 | 维里逊专利及许可公司 | 基于虚拟场景的虚拟实体描述帧从不同有利点渲染虚拟场景的帧的方法和系统 |
CN110663256B (zh) * | 2017-05-31 | 2021-12-14 | 维里逊专利及许可公司 | 基于虚拟场景的虚拟实体描述帧从不同有利点渲染虚拟场景的帧的方法和系统 |
CN109348125A (zh) * | 2018-10-31 | 2019-02-15 | Oppo广东移动通信有限公司 | 视频校正方法、装置、电子设备和计算机可读存储介质 |
CN109348125B (zh) * | 2018-10-31 | 2020-02-04 | Oppo广东移动通信有限公司 | 视频校正方法、装置、电子设备和计算机可读存储介质 |
CN110211065A (zh) * | 2019-05-23 | 2019-09-06 | 九阳股份有限公司 | 一种食材图像的颜色校正方法和装置 |
CN110211065B (zh) * | 2019-05-23 | 2023-10-20 | 九阳股份有限公司 | 一种食材图像的颜色校正方法和装置 |
CN112312106A (zh) * | 2020-11-03 | 2021-02-02 | 燕山大学 | 一种基于色彩空间转换的投影图像颜色校正方法 |
CN112312106B (zh) * | 2020-11-03 | 2021-06-22 | 燕山大学 | 一种基于色彩空间转换的投影图像颜色校正方法 |
CN112950510A (zh) * | 2021-03-22 | 2021-06-11 | 南京莱斯电子设备有限公司 | 一种大场景拼接图像色差校正方法 |
CN112950510B (zh) * | 2021-03-22 | 2024-04-02 | 南京莱斯电子设备有限公司 | 一种大场景拼接图像色差校正方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102223545B (zh) | 2013-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107277491B (zh) | 生成图像的深度图的方法及相关存储介质 | |
Xu et al. | Performance evaluation of color correction approaches for automatic multi-view image and video stitching | |
US10542249B2 (en) | Stereoscopic video generation method based on 3D convolution neural network | |
Guttmann et al. | Semi-automatic stereo extraction from video footage | |
Faridul et al. | A Survey of Color Mapping and its Applications. | |
Faridul et al. | Colour mapping: A review of recent methods, extensions and applications | |
WO2018082185A1 (zh) | 图像处理方法和装置 | |
CN102223545B (zh) | 一种快速多视点视频颜色校正方法 | |
Phan et al. | Semi-automatic 2D to 3D image conversion using scale-space random walks and a graph cuts based depth prior | |
CN107920202B (zh) | 基于增强现实的视频处理方法、装置及电子设备 | |
Pearson et al. | Plenoptic layer-based modeling for image based rendering | |
CN104954780A (zh) | 一种适用于高清2d/3d转换的dibr虚拟图像修复方法 | |
Richter et al. | Robust super-resolution for mixed-resolution multiview image plus depth data | |
Niu et al. | Visually consistent color correction for stereoscopic images and videos | |
Lie et al. | Key-frame-based background sprite generation for hole filling in depth image-based rendering | |
CN115239857B (zh) | 图像生成方法以及电子设备 | |
GB2585197A (en) | Method and system for obtaining depth data | |
CN107330856B (zh) | 一种基于投影变换和薄板样条的全景成像方法 | |
CN104754320B (zh) | 一种3d‑jnd阈值计算方法 | |
Dong et al. | Shoot high-quality color images using dual-lens system with monochrome and color cameras | |
Williem et al. | Depth map estimation and colorization of anaglyph images using local color prior and reverse intensity distribution | |
CN107045713A (zh) | 基于census立体匹配的低照度图像增强方法 | |
KR101633634B1 (ko) | 디지털 시네마에서 스테레오 카메라로 획득한 좌우 영상의 색 일치 방법 및 그 장치 | |
Yang et al. | Depth map reconstruction and rectification through coding parameters for mobile 3D video system | |
CN107194931A (zh) | 一种基于双目图像匹配获取目标深度信息的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131016 Termination date: 20170617 |
|
CF01 | Termination of patent right due to non-payment of annual fee |