[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN1830217A - 多视图图像产生 - Google Patents

多视图图像产生 Download PDF

Info

Publication number
CN1830217A
CN1830217A CNA200480022155XA CN200480022155A CN1830217A CN 1830217 A CN1830217 A CN 1830217A CN A200480022155X A CNA200480022155X A CN A200480022155XA CN 200480022155 A CN200480022155 A CN 200480022155A CN 1830217 A CN1830217 A CN 1830217A
Authority
CN
China
Prior art keywords
input picture
view image
edge
value
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA200480022155XA
Other languages
English (en)
Other versions
CN1830217B (zh
Inventor
M·J·R·奥普德比克
F·E·厄恩斯特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN1830217A publication Critical patent/CN1830217A/zh
Application granted granted Critical
Publication of CN1830217B publication Critical patent/CN1830217B/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Analysis (AREA)

Abstract

本发明披露了一种用于根据输入图像来产生多视图图像的多视图图像产生单元(100)。所述产生单元(100)包括:边缘检测装置(102),用于检测输入图像中的边缘;深度映射产生装置(104),用于根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和渲染装置(106),用于根据所述输入图像和深度映射来渲染多视图图像。

Description

多视图图像产生
技术领域
本发明涉及一种用于根据输入图像来产生多视图图像的多视图图像产生单元。
本发明还涉及一种图像处理装置,包括:
-接收装置,用于接收与输入图像对应的信号;和
-这种用于根据输入图像来产生多视图图像的多视图图像产生单元。
本发明还涉及一种根据输入图像来产生多视图图像的方法。
本发明还涉及一种由计算机装置加载的计算机程序产品,其包括基于输入图像产生多视图图像的指令,所述计算机装置包括处理装置和存储器。
背景技术
为了在多视图显示装置上产生3D效果,必须渲染来自不同有效视点的图像。这需要呈现多个输入视图或一些3D或深度信息。该深度信息可从多视图照相机系统记录、产生,或从传统的2D视频素材产生。为了从2D视频产生深度信息,可应用若干种类型的深度提示:例如从运动恢复结构(structure from motion)、聚焦信息、几何形状和动态隐面。其目标是产生密集的深度映射,即每像素一个深度值。该深度映射随后被用于渲染多视图图像以给出观看者深度效果。由P.A.Redert、E.A.Hendriks和J.Biemond在Proceedingsof International Conference on Acoustics,Speech,and SignalProcessing上(卷IV,ISBN 0-8186-7919-0,2749-2752页,IEEEComputer Society,Los Alamitos,California,1997)发表的文章  “Synthesis of multi viewpoint images at non-intermediatepositions”中,披露了一种在输入图像和深度映射的基础上提取深度信息和渲染多视图图像的方法。
所述方法的缺点是所述深度映射产生过程通常并不会导致适当的结果,最后导致不满意的深度效果。
发明内容
本发明的目的是提供一种开头段落中所述种类的多视图图像产生单元,其被设置成根据相对有限的深度信息来渲染在感观上具有令人信服的深度效果的多视图图像。
本发明的这一目的是通过这样的产生单元实现的,其包括:
-边缘检测装置,用于检测输入图像中的边缘;
-深度映射产生装置,用于根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-渲染装置,用于根据所述输入图像和深度映射来渲染多视图图像。
因此,对多视图图像所执行的渲染是以这种方式进行的,即边缘被感知为比周围区域更靠近观看者,即产生了关于边缘的深度差。从人类感知视点,边缘呈现为属于前景对象。所以,局部的深度排序似乎是这样的,即前景对象确实在背景的前面。本发明者已经观察到人类感知就将该非常有限的和局部的深度信息结合为完整的深度效果。
应该注意,边缘不一定意味着1像素宽的过渡。它可以是通过多个像素延伸的软边缘。
在根据本发明的多视图图像产生单元的一个实施例中,所述边缘检测装置被设置来通过计算所述输入图像的第一像素值和第二输入图像的相应第二像素值之间的像素值差来检测所述边缘,所述输入图像和第二输入图像属于一个视频图像序列。在减去一个视频图像序列的随后图像的基础上检测边缘是相对容易的。该实施例的一个优点是,能够以相对简单的计算资源实现实时的实施方式。像素值表示可视信息,例如颜色或亮度。
在根据本发明的被设置成通过计算像素值差来检测边缘的多视图图像产生单元的一个实施例中,所述第一深度值是第一像素值差的函数。换句话说,所述计算的像素值差用于确定深度值。优选地,所述计算的像素值差与深度值成比例。可选择地,对像素值差的中间计算结果施加滤波。所述滤波可包括空间、时间或空间-时间低通滤波。可选择地,使用一个阈值来虑除相对低的像素值差。这些相对低的像素值差因此就被解释为噪音。
在根据本发明的多视图图像产生单元的一个实施例中,所述边缘检测装置被设置来在根据所述输入图像和第二输入图像计算的运动矢量场的基础上检测边缘,所述输入图像和第二输入图像属于一个视频图像序列。优选地,所述边缘检测装置被设置来借助计算运动矢量场的相邻运动矢量的运动矢量差来检测边缘。计算运动矢量场是已知用于例如视频压缩、去交错或时域向上变换的公知技术。典型的,运动矢量场中的不连续性,即运动矢量场的相邻运动矢量之间的相对较大差与正在拍摄的场景中的移动对象的边界对应,因此与有关边缘对应。根据本发明的这个实施例的优点是,它被设置成在不同类型的边缘之间进行区别:属于基本固定的对象的边缘和属于移动对象的边缘。尤其是,后一类型的边缘是相关的,因为这些边缘典型的与前景对象对应。
在根据本发明的被设置成根据运动矢量场来检测边缘的多视图图像产生单元的一个实施例中,所述第一深度值是第一运动矢量差的函数。换句话说,所述计算的运动矢量差用于确定深度值。优选地,所述计算的运动矢量差与深度值成比例。
本发明的另一个目的是提供一种图像处理装置,其包括:开头段落中所述类型的多视图图像产生单元,所述多视图图像产生单元被设置成根据相对有限的深度信息来渲染在感观上具有令人信服的深度效果的多视图图像。
本发明的这一目的是以这样的方式实现的,即所述产生单元包括:
-边缘检测装置,用于检测输入图像中的边缘;
-深度映射产生装置,用于根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-渲染装置,用于根据所述输入图像和深度映射来渲染多视图图像。
可选择地,所述图像处理装置还包括用于显示多视图图像的多视图显示装置。
本发明的再一个目的是提供一种开头段落中所述种类的方法,用于根据相对有限的深度信息来渲染在感观上具有令人信服的深度效果的多视图图像。
本发明的这一目的是以这样的方式实现的,即所述方法包括:
-检测输入图像中的边缘;
-根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-根据所述输入图像和深度映射来渲染多视图图像。
本发明的又一个目的是提供一种开头段落中所述种类的计算机程序产品,用于根据相对有限的深度信息来渲染在感观上具有令人信服的深度效果的多视图图像。
本发明的这一目的是以这样的方式实现的,即所述计算机程序产品在被装载之后给所述处理装置提供有执行下述步骤的能力:
-检测输入图像中的边缘;
-根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-根据所述输入图像和深度映射来渲染多视图图像。
对多视图图像产生单元的修改及其变形可与所述的图像处理装置、方法和计算机程序产品的修改及其变形一致。
附图说明
根据本发明的多视图图像产生单元、图像处理装置、方法和计算机程序产品的这些和其它方面通过之后参照附图所述的实现过程和实施方式将变得显而易见并将参照这样的实施例对其进行阐释,其中:
图1示意性示出根据本发明的多视图图像产生单元的一个实施例;
图2示意性示出根据本发明的多视图图像产生单元的另一个实施例;
图3示意性示出一个视频图像序列的输入图像;
图4A示意性示出基于随后的输入图像之间的色差的深度映射;
图4B示意性示出基于运动不连续性的深度映射;
图5A示意性示出对边缘进行深度分配的第一函数;
图5B示意性示出对边缘进行深度分配的第二函数;
图5C示意性示出对边缘进行深度分配的第三函数;
图6示意性示出根据本发明的图像处理装置的一个实施例。
相同的参考数字在附图中通篇指代相同的部分。
具体实施方式
图1示意性示出根据本发明的多视图图像产生单元100的一个实施例。所述多视图图像产生单元100被设置成根据视频图像序列来产生一个多视图图像序列。图3示意性示出该视频图像的输入图像。多视图图像产生单元100在输入连接器108处具有视频图像流,并分别在输出连接器110和112处提供两个相关的视频图像流。这两个相关的视频图像流将被提供给多视图显示装置,所述多视图显示装置被设置成根据第一个相关视频图像流来直观化第一图像序列,并根据第二相关视频图像流来直观化第二图像序列。如果用户通过他的左眼观察第一图像序列和通过右眼观察第二图像序列,则他会注意到3D效果。可能的情况是,第一相关视频图像流与接收的视频图像序列对应,并且根据所接收的视频图像序列来渲染第二相关视频图像流。优选地,两个视频图像流都是根据所述接收的视频图像序列来渲染的。所述渲染过程例如由P.A.Redert、E.A.Hendriks和J.Biemond在Proceedings of International Conference onAcoustics,Speech,and Signal Processing上(卷IV,ISBN 0-8186-7919-0,2749-2752页,IEEE Computer Society,Los Alamitos,California,1997)发表的文章“Synthesis of multi viewpointimages at non-intermediate positions”中所述。可选择地,所述渲染过程如在由R.P.Berretty和F.E.Ernst在ProceedingsEurographics(Granada,2003,Short Note 124)中所述。
多视图图像产生单元100包括:
-边缘检测单元102,用于检测输入图像中的边缘;
-深度映射产生单元104,用于根据检测的边缘来为相应的输入图像产生深度映射;和
-渲染单元106,用于根据输入图像和相应深度映射来渲染多视图图像。
检测边缘可基于各个输入图像的空间高通滤波进行。然而优选的是,在相互比较多个输入图像、尤其是计算视频图像序列的随后图像的像素值差的基础上来检测边缘。计算像素值差S(x,y,n)的第一个例子由等式1给出:
S(x,y,n)=|I(x,y,n)-I(x,y,n-1)|         (1)
其中,I(x,y,n)是在时间n具有图像坐标x和y的像素的亮度值。可选择地,所述像素值差S(x,y,n)是根据以下颜色值计算的:
S(x,y,n)=|C(x,y,n)-C(x,y,n-1)|         (2)
其中,C(x,y,n)是在时间n具有图像坐标x和y的像素的颜色值。在等式3中给出了基于三种不同的颜色分量R(红色)G(绿色)和B(蓝色)来计算像素值差S(x,y,n)的另一个可选择方案。
S(x,y,n)=max(|R(x,y,n)-R(x,y,n-1)|,|G(x,y,n)-G(x,y,n-1)|,|B(x,y,n)-B(x,y,n-1)|)                   (3)
可选择地,像素值差信号
Figure A20048002215500091
通过将低于预定阈值的所有像素值差削波至一个常量(例如零)而被滤波。可选择地,应用形态滤波操作来除去所有在空间上较小的边缘。形态滤波器通常是非线性图像处理单元。例如参见P.W.Verbeek,H.A.Vrooman和L.J.van Vliet在“Signal Processing”(卷15,第3期,249-258页,1988)发表的文章“Low-level image processing by max-min filters”。
在对滤波的像素值差信号 进行计算之后,确定深度映射。这在等式4中规定:
D(x,y,n)=F(SF(x,y,n))                      (4)
其中D(x,y,n)是在时间n具有图像坐标x和y的像素的深度值,而函数F(j)是像素值差SF(x,y,n)到深度值D(x,y,n)的线性或非线性变换。该函数F(j)可以是像素值差SF(x,y,n)与预定常数的简单乘法运算:
D(x,y,n)=α·SF(x,y,n)                     (5)
可选择地,函数F(j)相当于像素值差SF(x,y,n)与一个加权因数W(i)的乘积,所述加权因数W(i)涉及的是所考虑的像素和与所考虑的像素邻近的空间中的第二像素之间的空间距离i,其具有局部最大值。假定第二像素位于边缘的中心。
D(x′,y′,n)=W(x,y,x′,y′)*SF(x,y,n)   (6)
图5A示意性示出对边缘进行深度分配的适当函数,即作为空间距离i的函数的加权因数W(i)。
如上所述的操作结果是,与所述边缘对应的特定深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的特定输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值。或者换句话说,与边缘对应的深度映射元素具有的值表示到观看者的距离要比到深度映射的其它元素小。
图4A示意性示出基于随后的输入图像之间的色差的深度映射的一个示例。该深度映射如上所述是根据等式2和5在没有滤波的情况下确定的。
边缘检测单元102、深度映射产生单元104和渲染单元106可使用一个处理器来实现。通常,在软件程序产品的控制下执行这些函数。在执行期间,通常将软件程序产品装载到存储器(例如RAM)中,并据此来执行。可从后台存储器装载所述程序,例如ROM、硬盘、或磁存储器和/或光存储器,或者可通过类似互联网的网络装载程序。可选择地,特殊用途集成电路提供所披露的功能性。
图2示意性示出根据本发明的多视图图像产生单元200的另一个实施例。所述多视图图像产生单元200被设置成根据视频图像序列来产生一个多视图图像序列。多视图图像产生单元200在输入连接器108处具有视频图像流,并分别在输出连接器110和112处提供两个相关的视频图像流。多视图图像产生单元200包括:
-运动评估单元202,用于计算输入图像的运动矢量场;
-边缘检测单元102,用于根据相应运动矢量场来检测输入图像中的边缘;
-深度映射产生单元104,用于根据检测的边缘来为相应的输入图像产生深度映射;和
-渲染单元106,用于根据输入图像和相应深度映射来渲染多视图图像。
运动评估单元202例如在G.de Haan等人在“IEEE Transactionson circuits and systems for video technology(卷3,第5期,1993年10月,368-379页)上发表的文章“True-Motion Estimationwith 3-D Recursive Search Block Matching”中所指出的。
边缘检测单元102具有由运动评估单元202所计算的运动矢量场。边缘检测单元102被设置成确定运动矢量场的不连续性。这意味着它被设置成检测运动矢量场中具有相对较大运动矢量对比度的区域。这些区域与相应图像中的边缘对应。可选择地,边缘检测单元102还具有像素值,即输入图像的颜色和/或亮度值。通过适当组合各个输入,就可获得图像中的片断。该处理还由F.Emst在“Proceedings of the ICOB(Imersive Communication andBroadcast Systems)workshop(Heinrich-Hertz-Institut,Berlin,2003年1月)上发表的“2D-to-3D video conversion based ontime-consistents egmentation”中有所说明。除了图像中的片段的检测边缘的坐标之外,边缘检测单元102还可以提供所述片段的拓扑信息。因此,可以知道边缘的哪一侧属于前景目标,以及边远的哪一侧属于背景。
在边缘检测之后,执行深度值的分配。优选地,深度值的分配是根据如图5B和5C所示的加权因数W(i)来进行的。在所述的图5B和5C中,假定左侧部分与前景对应。图5B表示不对称分配;深度跳变朝前景偏斜,并且图5C示出了偏斜的分配;深度跳变在背景中更加快速地衰落。如图5A中所示的,虽然在边缘附近的深度的对称分配看上去能满足充分的感知,但优选的是,如果有来自任何其它深度提示的额外深度信息,那么这适于将深度值分配给一个边缘。深度值的分配优选地被略微偏斜,使得边缘的前景侧至前部的渲染要比边缘的背景侧被略微渲染得多。如上所述,边缘检测单元102被设置成提供关于片段拓扑的信息。因此,知道边缘的哪一侧属于前景,以及哪一侧属于背景。图4B示意性示出基于运动不连续性的深度映射,其是由根据本发明的这个实施例的深度映射产生单元104所提供的。
运动评估单元202、边缘检测单元102、深度映射产生单元104和渲染单元106可使用一个处理器来实现。
总之,多视图图像产生单元100和200被设置来借助检测输入图像中的边缘并以将所述边缘感知为比周围区域更靠近观看者这样一种方式渲染这些图像来渲染多视图图像,所述输入图像中的边缘是深度不连续的良好候选。
因为深度分配主要是根据边缘检测进行的,所以能够容易且稳定地来实现。尤其是因为边缘检测是相对容易的:基于颜色、亮度、结构或运动。优选地,通过时间,例如通过时间一致性分割来跟踪边缘,以使对每边缘的深度分配随时间更加稳定。
图6示意性示出根据本发明的图像处理装置600的一个实施例,其包括:
-接收单元602,用于接收表示输入图像的视频信号;
-多视图图像产生单元604,用于根据接收的输入图像来产生多视图图像,如结合图1和2中的任何一幅所述的;和
-多视图显示装置606,用于显示由多视图图像产生单元604提供的多视图图像。
视频信号可以是通过天线或电缆接收的广播信号,但也可以是来自存储装置例如VCR(盒式磁带录像机)或数字万用盘(DVD)的信号。该信号在输入连接器610处被提供。图像处理装置600可以例如是电视。可选择地,图像处理装置600不包括任选的显示装置,而是将输出图像提供给包括显示装置606的装置。那么图像处理装置600可以是例如机顶盒、卫星调谐器、VCR播放器、DVD播放器或记录器。可选择地,图像处理装置600包括存储装置,例如硬盘或用于在可拆除介质(例如光盘)上进行存储的装置。图像处理装置600还可以是被电影工作室或广播公司应用的系统。
应该注意上述的实施例仅仅是示意说明而非限制本发明,在不脱离后附权利要求范围的情况下,本领域技术人员将能够设计出可选择的实施例。在权利要求中,置于括号间的任何参考标记都不应构成为限制权利要求。单词“包括”并不排除出现权利要求中未列举的元件或步骤。在一个元件前面的单词“一”或“一个”并不排除出现多个这种元件。本发明可借助包括若干个不同元件的硬件和借助适当编程的计算机来实现。在列举了若干个装置的单元权利要求中,若干个这些装置可由一个和相同项的硬件来体现。

Claims (11)

1.一种用于根据输入图像来产生多视图图像的多视图图像产生单元(100,200),所述产生单元包括:
-边缘检测装置(102),用于检测输入图像中的边缘;
-深度映射产生装置(104),用于根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-渲染装置(106),用于根据所述输入图像和深度映射来渲染多视图图像。
2.如权利要求1所述的多视图图像产生单元(100),其中所述边缘检测装置(102)被设置来通过计算所述输入图像的第一像素值和第二输入图像的相应第二像素值之间的像素值差来检测所述边缘,所述输入图像和第二输入图像属于一个视频图像序列。
3.如权利要求2所述的多视图图像产生单元(100),其中所述第一像素值表示颜色和亮度中的一个。
4.如权利要求2所述的多视图图像产生单元(100),其中所述第一深度值是第一像素值差的函数。
5.如权利要求1所述的多视图图像产生单元(200),其中所述边缘检测装置(102)被设置来在根据所述输入图像和第二输入图像计算的运动矢量场的基础上检测边缘,所述输入图像和第二输入图像属于一个视频图像序列。
6.如权利要求5所述的多视图图像产生单元(200),其中所述边缘检测装置(102)被设置来借助计算运动矢量场的相邻运动矢量的运动矢量差来检测边缘。
7.如权利要求6所述的多视图图像产生单元(200),其中所述第一深度值是第一运动矢量差的函数。
8.一种图像处理装置(600),包括:
-接收装置(602),用于接收与输入图像对应的信号;和
-如权利要求1所述的用于根据输入图像来产生多视图图像的多视图图像产生单元(604)。
9.如权利要求8所述的图像处理装置(600),还包括用于显示多视图图像的多视图显示装置(606)。
10.一种根据输入图像来产生多视图图像的方法,该方法包括:
-检测输入图像中的边缘;
-根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-根据所述输入图像和深度映射来渲染多视图图像。
11.一种将由计算机装置加载的计算机程序产品,包括用于根据输入图像来产生多视图图像的指令,所述计算机装置包括处理装置和存储器,所述计算机程序产品在被装载之后给所述处理装置提供有执行下述步骤的能力:
-检测输入图像中的边缘;
-根据所述边缘为输入图像产生深度映射,与所述边缘对应的深度映射的第一组元素具有第一深度值,其与多视图图像的观看者有关,而与位于与所述边缘邻近的输入图像的一个区域对应的深度映射的第二组元素具有第二深度值,其与多视图图像的观看者有关,所述第一值小于第二值;和
-根据所述输入图像和深度映射来渲染多视图图像。
CN200480022155XA 2003-08-05 2004-07-28 多视图图像产生 Expired - Fee Related CN1830217B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03102431 2003-08-05
EP03102431.8 2003-08-05
PCT/IB2004/051315 WO2005013623A1 (en) 2003-08-05 2004-07-28 Multi-view image generation

Publications (2)

Publication Number Publication Date
CN1830217A true CN1830217A (zh) 2006-09-06
CN1830217B CN1830217B (zh) 2010-06-09

Family

ID=34112498

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200480022155XA Expired - Fee Related CN1830217B (zh) 2003-08-05 2004-07-28 多视图图像产生

Country Status (6)

Country Link
US (1) US7764827B2 (zh)
EP (1) EP1654884A1 (zh)
JP (1) JP4644669B2 (zh)
KR (1) KR101038452B1 (zh)
CN (1) CN1830217B (zh)
WO (1) WO2005013623A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102113017A (zh) * 2008-08-05 2011-06-29 高通股份有限公司 使用边缘检测产生深度数据的系统及方法
CN102124742A (zh) * 2008-08-20 2011-07-13 汤姆逊许可公司 精制深度图
CN102918355A (zh) * 2011-04-22 2013-02-06 松下电器产业株式会社 三维摄像装置、光透过部、图像处理装置及程序
CN103765895A (zh) * 2011-06-24 2014-04-30 Lg电子株式会社 使用跳跃模式的编码/解码方法和装置
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
CN105631848A (zh) * 2014-10-31 2016-06-01 联想(北京)有限公司 一种信息处理方法和电子设备

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7346109B2 (en) * 2003-12-23 2008-03-18 Genesis Microchip Inc. Motion vector computation for video sequences
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
FI117369B (fi) * 2004-11-26 2006-09-15 Imbera Electronics Oy Menetelmä elektroniikkamoduulin valmistamiseksi
CN101107644B (zh) * 2005-01-18 2010-11-24 皇家飞利浦电子股份有限公司 多视图显示设备
KR100913173B1 (ko) 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
KR100898287B1 (ko) 2005-07-05 2009-05-18 삼성모바일디스플레이주식회사 입체 영상 표시 장치
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US8279221B2 (en) 2005-08-05 2012-10-02 Samsung Display Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
US8325220B2 (en) 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
KR101345364B1 (ko) * 2006-02-27 2013-12-30 코닌클리케 필립스 엔.브이. 출력 영상 렌더링
JP4875162B2 (ja) 2006-10-04 2012-02-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像強調
GB2445982A (en) * 2007-01-24 2008-07-30 Sharp Kk Image data processing method and apparatus for a multiview display device
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
DE102007021518B4 (de) * 2007-05-04 2009-01-29 Technische Universität Berlin Verfahren zum Verarbeiten eines Videodatensatzes
US8953684B2 (en) * 2007-05-16 2015-02-10 Microsoft Corporation Multiview coding with geometry-based disparity prediction
US8854425B2 (en) * 2007-07-26 2014-10-07 Koninklijke Philips N.V. Method and apparatus for depth-related information propagation
US20090094173A1 (en) * 2007-10-05 2009-04-09 Adaptive Logic Control, Llc Intelligent Power Unit, and Applications Thereof
BR122012021796A2 (pt) * 2007-10-05 2015-08-04 Thomson Licensing Método para incorporar informação de usabilidade de vídeo (vui) em um sistema de codificação de vídeo de múltiplas visualizações (mvc)
EP2061004A1 (en) * 2007-11-14 2009-05-20 Sony Corporation Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
KR101560182B1 (ko) 2008-01-07 2015-10-15 삼성전자주식회사 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US10200749B2 (en) 2008-04-10 2019-02-05 Gvbb Holdings S.A.R.L. Method and apparatus for content replacement in live production
KR101617842B1 (ko) 2008-04-25 2016-05-18 톰슨 라이센싱 깊이 정보에 기초한 디스패리티 예측을 구비한 다중 시점 비디오 코딩
JP5083052B2 (ja) 2008-06-06 2012-11-28 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
US9225965B2 (en) * 2008-11-07 2015-12-29 Telecom Italia S.P.A. Method and system for producing multi-view 3D visual contents
KR101506926B1 (ko) 2008-12-04 2015-03-30 삼성전자주식회사 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
KR20110024524A (ko) * 2009-09-02 2011-03-09 삼성전자주식회사 백라이트 유닛, 디스플레이 장치 및 백라이트 유닛 제어 방법
CN102326394B (zh) * 2009-09-08 2014-06-11 株式会社东芝 图像处理方法以及装置
EP2499829B1 (en) 2009-10-14 2019-04-17 Dolby International AB Methods and devices for depth map processing
KR101281961B1 (ko) * 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
TWI387934B (zh) * 2009-12-31 2013-03-01 Ind Tech Res Inst 多視角影像之建構方法及系統
US8345958B2 (en) * 2009-12-31 2013-01-01 Industrial Technology Research Institute Method and system for developing new-view image
US20110216065A1 (en) * 2009-12-31 2011-09-08 Industrial Technology Research Institute Method and System for Rendering Multi-View Image
JP5784729B2 (ja) 2010-08-27 2015-09-24 サムスン エレクトロニクス カンパニー リミテッド マルチビュー生成のためのレンダリング装置およびその方法
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
JP5549566B2 (ja) * 2010-12-07 2014-07-16 コニカミノルタ株式会社 ステレオ撮影装置
KR101336956B1 (ko) * 2010-12-27 2013-12-04 주식회사 넥시아 디바이스 2차원 영상을 스테레오 영상으로 변환하는 방법
KR101966920B1 (ko) * 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
WO2014163465A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 깊이맵 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
GB2514557A (en) * 2013-05-28 2014-12-03 Snell Ltd Image processing
KR102135914B1 (ko) * 2013-11-29 2020-07-20 엘지디스플레이 주식회사 영상 데이터 처리 방법과 이를 이용한 멀티 뷰 무안경 입체 영상 표시장치
BR112017026903A2 (pt) 2015-06-16 2019-05-07 Koninklijke Philips N.V. aparelho para gerar um mapa de profundidade, método para gerar um mapa de profundidade e produto de programa de computador

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
JPH10276455A (ja) * 1997-03-28 1998-10-13 Sony Corp 映像表示方法および映像表示装置
US6031564A (en) * 1997-07-07 2000-02-29 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
MY124160A (en) * 1997-12-05 2006-06-30 Dynamic Digital Depth Res Pty Improved image conversion and encoding techniques
EP1395949A1 (en) * 2001-05-23 2004-03-10 Koninklijke Philips Electronics N.V. Depth map computation
CN1284373C (zh) * 2001-07-06 2006-11-08 皇家菲利浦电子有限公司 用于运动或深度估计的方法和装置和配备这种运动估计装置的图像处理设备
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102113017A (zh) * 2008-08-05 2011-06-29 高通股份有限公司 使用边缘检测产生深度数据的系统及方法
US8477232B2 (en) 2008-08-05 2013-07-02 Qualcomm Incorporated System and method to capture depth data of an image
CN102124742A (zh) * 2008-08-20 2011-07-13 汤姆逊许可公司 精制深度图
CN102124742B (zh) * 2008-08-20 2013-09-11 汤姆逊许可公司 精制深度图
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
CN102918355A (zh) * 2011-04-22 2013-02-06 松下电器产业株式会社 三维摄像装置、光透过部、图像处理装置及程序
US9544570B2 (en) 2011-04-22 2017-01-10 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image pickup apparatus, light-transparent unit, image processing apparatus, and program
CN103765895A (zh) * 2011-06-24 2014-04-30 Lg电子株式会社 使用跳跃模式的编码/解码方法和装置
US9509972B2 (en) 2011-06-24 2016-11-29 Lg Electronics Inc. Encoding/decoding method and apparatus using a skip mode
CN103765895B (zh) * 2011-06-24 2017-03-08 Lg电子株式会社 使用跳跃模式的编码/解码方法和装置
CN105631848A (zh) * 2014-10-31 2016-06-01 联想(北京)有限公司 一种信息处理方法和电子设备
CN105631848B (zh) * 2014-10-31 2018-11-09 联想(北京)有限公司 一种信息处理方法和电子设备

Also Published As

Publication number Publication date
US7764827B2 (en) 2010-07-27
KR101038452B1 (ko) 2011-06-01
WO2005013623A1 (en) 2005-02-10
EP1654884A1 (en) 2006-05-10
KR20060119864A (ko) 2006-11-24
US20060232666A1 (en) 2006-10-19
JP2007502454A (ja) 2007-02-08
CN1830217B (zh) 2010-06-09
JP4644669B2 (ja) 2011-03-02

Similar Documents

Publication Publication Date Title
CN1830217A (zh) 多视图图像产生
US8036451B2 (en) Creating a depth map
CN102741879B (zh) 由单眼图像产生深度图的方法及其系统
US8270768B2 (en) Depth perception
CN1745589A (zh) 用于立体图像的视频滤波
JP4762994B2 (ja) 視差マップ
US7787658B2 (en) Creating a depth map
CN1914643A (zh) 创建一种深度图
JP2009212605A (ja) 情報処理方法、情報処理装置及びプログラム
TW201802664A (zh) 圖像輸出裝置、圖像輸出方法以及電腦程式產品
JP5566196B2 (ja) 画像処理装置及びその制御方法
Lin et al. A stereoscopic video conversion scheme based on spatio-temporal analysis of MPEG videos
TW201208344A (en) System and method of enhancing depth of a 3D image
Sun et al. Towards Casually Captured 6DoF VR Videos

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100609

Termination date: 20140728

EXPY Termination of patent right or utility model