[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN116248642A - 媒体文件的封装方法、媒体文件的解封装方法及相关设备 - Google Patents

媒体文件的封装方法、媒体文件的解封装方法及相关设备 Download PDF

Info

Publication number
CN116248642A
CN116248642A CN202310323100.7A CN202310323100A CN116248642A CN 116248642 A CN116248642 A CN 116248642A CN 202310323100 A CN202310323100 A CN 202310323100A CN 116248642 A CN116248642 A CN 116248642A
Authority
CN
China
Prior art keywords
media
file
code stream
target
media code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310323100.7A
Other languages
English (en)
Inventor
胡颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202310323100.7A priority Critical patent/CN116248642A/zh
Publication of CN116248642A publication Critical patent/CN116248642A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2212/00Encapsulation of packets
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本公开提供了一种媒体文件的封装方法、媒体文件的解封装方法及相关设备。该媒体文件的封装方法包括:确定目标媒体内容;获取所述目标媒体内容在对应应用场景下的媒体码流;封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景;将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。本公开实施例中提供的方案能够在媒体文件的封装中对不同的应用场景进行区分。

Description

媒体文件的封装方法、媒体文件的解封装方法及相关设备
本申请是2020年10月14日提交的、申请号为202011098190.7、发明名称为“媒体文件的封装方法、媒体文件的解封装方法及相关设备”的分案申请。
技术领域
本公开涉及媒体文件的封装解封装技术领域,具体而言,涉及一种媒体文件的封装方法、媒体文件的解封装方法、媒体文件的封装装置、媒体文件的解封装装置、电子设备和计算机可读存储介质。
背景技术
沉浸式媒体(Immersive Media)指能为用户带来沉浸式体验的媒体内容,也可以称之为浸入式媒体。广义上来说,通过音视频技术让用户产生身临其境的感觉,就叫沉浸式媒体。例如,当用户戴上VR(Virtual Reality,虚拟现实)头盔之后会有强烈的沉浸在现场的感觉。
沉浸式媒体的应用形式多种多样,用户在对不同应用场景的沉浸式媒体进行解封装、解码和渲染时,需要的操作步骤和处理能力显然各有差别。
相关技术无法在文件封装中对不同的应用场景进行区分,这给用户侧的处理带来了不必要的麻烦。
因此,需要一种新的媒体文件的封装方法、媒体文件的解封装方法、媒体文件的封装装置、媒体文件的解封装装置、电子设备和计算机可读存储介质。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解。
发明内容
本公开实施例提供一种媒体文件的封装方法、媒体文件的解封装方法、媒体文件的封装装置、媒体文件的解封装装置、电子设备和计算机可读存储介质,能够在媒体文件的封装中对不同的应用场景进行区分。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本公开实施例提供一种媒体文件的封装方法,所述方法包括:确定目标媒体内容;获取所述目标媒体内容在对应应用场景下的媒体码流;封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景;将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
本公开实施例提供一种媒体文件的解封装方法,所述方法包括:接收目标媒体内容在对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景;解封装所述封装文件,获得所述第一应用场景类型字段;根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景;根据所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
本公开实施例提供一种媒体文件的封装装置,所述装置包括:媒体内容确定单元,用于确定目标媒体内容;媒体码流获取单元,用于获取所述目标媒体内容在对应应用场景下的媒体码流;媒体码流封装单元,用于封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景;封装文件发送单元,用于将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
本公开实施例提供一种媒体文件的解封装装置,所述装置包括:封装文件接收单元,用于接收目标媒体内容在对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景;文件解封装单元,用于解封装所述封装文件,获得所述第一应用场景类型字段;应用场景获得单元,用于根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景;解码渲染确定单元,用于根据所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中所述的媒体文件的封装方法或者视频编码方法。
本公开实施例提供了一种电子设备,包括:至少一个处理器;存储装置,配置为存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如上述实施例中所述的媒体文件的封装方法或者视频编码方法。
在本公开的一些实施例所提供的技术方案中,通过在生成对应应用场景下的媒体码流的封装文件时,在封装文件中扩展第一应用场景类型字段,通过该第一应用场景类型字段来指示该媒体码流对应的应用场景,由此使得在媒体文件的封装中即可对不同媒体码流的不同应用场景进行区分,一方面,将该封装文件发送至第一设备时,该第一设备可以根据该封装文件中的第一应用场景类型字段即可区分该媒体码流的应用场景,从而可以根据该媒体码流对应的应用场景确定对该媒体码流采取何种解码或者渲染方式,可以节约第一设备的运算能力和资源;另一方面,由于在封装阶段即可确定媒体码流的应用场景,因此即使第一设备不具备媒体码流的解码能力,也可以确定该媒体码流对应的应用场景,而不需要等到解码该媒体码流之后才能区分。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了三自由度的示意图。
图2示意性示出了三自由度+的示意图。
图3示意性示出了六自由度的示意图。
图4示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。
图5示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。
图6示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。
图7示意性示出了根据本公开的一实施例的六自由度媒体上下拼接方式的示意图。
图8示意性示出了根据本公开的一实施例的六自由度媒体左右拼接方式的示意图。
图9示意性示出了根据本公开的一实施例的六自由度媒体深度图1/4分辨率拼接方式的示意图。
图10示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。
图11示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。
图12示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。
图13示意性示出了根据本公开的一实施例的第一多视角视频上下拼接方式的示意图。
图14示意性示出了根据本公开的一实施例的第二多视角视频上下拼接方式的示意图。
图15示意性示出了根据本公开的一实施例的媒体文件的解封装方法的流程图。
图16示意性示出了根据本公开的一实施例的媒体文件的封装装置的框图。
图17示意性示出了根据本公开的一实施例的媒体文件的解封装装置的框图。
图18示出了适于用来实现本公开实施例的电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在至少一个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
首先对本公开实施例中涉及的部分术语进行说明。
点云(Point Cloud):点云是空间中一组无规则分布的、表达三维物体或场景的空间结构及表面属性的离散点集。点云是指海量三维点的几何,点云中的每个点至少具有三维位置信息,根据应用场景的不同,还可能具有色彩(颜色)、材质或其他信息例如反射率等附加属性。通常,点云中的每个点都具有相同数量的附加属性。例如,根据激光测量原理得到的点云,包括三维坐标(XYZ)和激光反射强度(reflectance);根据摄影测量原理得到的点云,包括三维坐标(XYZ)和颜色信息(RGB,红绿蓝);结合激光测量和摄影测量原理得到点云,包括三维坐标(XYZ)、激光反射强度(reflectance)和颜色信息(RGB)。
其中,按点云的用途可以分为两大类:机器感知点云,例如可以用于自主导航系统、实时巡检系统、地理信息系统、视觉分拣机器人、抢险救灾机器人等场景;人眼感知点云,例如可以用于数字文化遗产、自由视点广播、三维沉浸通信、三维沉浸交互等点云应用场景。
其中,点云可以按获取的途径进行分类:第一类静态点云:即物体是静止的,获取点云的设备也是静止的;第二类动态点云:物体是运动的,但获取点云的设备是静止的;第三类动态获取点云:获取点云的设备是运动的。
PCC:Point Cloud Compression,点云压缩。点云是海量点的集合,存储这些点云数据不仅会消耗大量的内存,而且不利于传输,相关技术中没有这么大的带宽可以支持将点云不经过压缩直接在网络层进行传输,因此对点云进行压缩是很有必要的。
G-PCC:Geometry-based Point Cloud Compression,基于几何特征的点云压缩。G-PCC针对第一类静态点云和第三类动态获取点云进行压缩,相应获得的点云媒体可以称之为基于几何特征进行压缩的点云媒体,简称为G-PCC点云媒体。
V-PCC:Video-based Point Cloud Compression,基于传统视频编码的点云压缩。V-PCC针对第二类动态点云进行压缩,相应获得的点云媒体可以称之为基于传统视频编码方式进行压缩的点云媒体,简称为V-PCC点云媒体。
sample:样本,媒体文件封装过程中的封装单位,一个媒体文件由很多个样本组成。以媒体文件为视频媒体为例,视频媒体的一个样本通常为一个视频帧。
DoF:Degree of Freedom,自由度。力学系统中是指独立坐标的个数,除了平移的自由度外,还有转动及振动自由度。本公开实施例中指用户在观看沉浸式媒体时,支持的运动并产生内容交互的自由度。
3DoF:即三自由度,指用户头部围绕XYZ轴旋转的三种自由度。图1示意性示出了三自由度的示意图。如图1所示,就是在某个地方、某一个点在三个轴上都可以旋转,可以转头,也可以上下低头,也可以摆头。通过三自由度的体验,用户能够360度地沉浸在一个现场中。如果是静态的,可以理解为是全景的图片。如果全景的图片是动态,就是全景视频,也就是VR视频。但是VR视频是有一定局限性的,用户是不能够移动的,不能选择任意的一个地方去看。
3DoF+:即在三自由度的基础上,用户还拥有沿XYZ轴做有限运动的自由度,也可以将其称之为受限六自由度,对应的媒体码流可以称之为受限六自由度媒体码流。图2示意性示出了三自由度+的示意图。
6DoF:即在三自由度的基础上,用户还拥有沿XYZ轴自由运动的自由度,对应的媒体码流可以称之为六自由度媒体码流。图3示意性示出了六自由度的示意图。其中,6DoF媒体是指的6自由度视频,是指视频可以提供用户在三维空间的XYZ轴方向自由移动视点,以及围绕XYX轴自由旋转视点的高自由度观看体验。6DoF媒体是以摄像机阵列采集得到的空间不同视角的视频组合。为了便于6DoF媒体的表达、存储、压缩和处理,将6DoF媒体数据表达为以下信息的组合:多摄像机采集的纹理图,多摄像机纹理图所对应的深度图,以及相应的6DoF媒体内容描述元数据,元数据中包含了多摄像机的参数,以及6DoF媒体的拼接布局和边缘保护等描述信息。在编码端,把多摄像机的纹理图信息和对应的深度图信息进行拼接处理,并且把拼接方式的描述数据根据所定义的语法和语义写入元数据。拼接后的多摄像机深度图和纹理图信息通过平面视频压缩方式进行编码,并且传输到终端解码后,进行用户所请求的6DoF虚拟视点的合成,从而提供用户6DoF媒体的观看体验。
容积媒体:是沉浸式媒体的一种,例如可以包括容积视频。容积视频是三维数据表示,由于目前主流的编码都是基于二维的视频数据,所以对原始的容积视频数据在系统层的封装、传输等处理之前,需要先将其从三维转化到二维后再进行编码。容积视频的内容呈现的过程中,又需要将二维表示的数据转化成三维数据来表示最终呈现的容积视频。容积视频如何在二维平面的表示将会直接作用系统层封装、传输、以及最后容积视频的内容呈现处理。
图集(atlas):指示2D(2-dimension,二维)的平面帧上的区域信息,3D(3-dimension,三维)呈现空间的区域信息,以及二者之间的映射关系和映射所需的必要参数信息。图集包括图块和图块对应到容积数据的三维空间中一个区域的关联信息的集合。图块(patch)是图集中的一个矩形区域,与三维空间的容积信息关联。对容积视频的二维表示的组件数据进行处理生成图块,根据几何组件数据中表示的容积视频的位置,将容积视频的二维表示所在的二维平面区域分割成多个不同大小的矩形区域,一个矩形区域为一个图块,图块包含将该矩形区域反投影到三维空间的必要信息;打包图块生成图集,将图块放入一个二维网格中,并保证各个图块中的有效部分是没有重叠的。一个容积视频生成的图块可以打包成一个或多个图集。基于图集数据生成对应的几何数据、属性数据和占位数据,将图集数据、几何数据、属性数据、占位数据组合形成容积视频在二维平面的最终表示。其中,几何组件为必选,占位组件为条件必选,属性组件为可选。
AVS:Audio Video Coding Standard,音视频编码标准。
ISOBMFF:ISO Based Media File Format,基于ISO(International StandardOrganization,国际标准化组织)标准的媒体文件格式。ISOBMFF是媒体文件的封装标准,最典型的ISOBMFF文件即MP4(Moving Picture Experts Group 4,动态图像专家组4)文件。
深度图(Depth map):作为一种三维场景信息表达方式,深度图的每个像素点的灰度值可用于表征场景中某一点距离摄像机的远近。
本公开实施例提供的媒体文件的封装方法可以由任意的电子设备来执行,在下面的举例说明中,以应用于沉浸式系统的服务器端为例进行举例说明,但本公开并不限定于此。
图4示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。如图4所示,本公开实施例提供的方法可以包括以下步骤。
在步骤S410中,确定目标媒体内容。
本公开实施例中,目标媒体内容可以是视频、音频、图像等中的任意一种或者多种的组合,在下面的举例说明中,以视频为例进行举例说明,但本公开并不限定于此。
在步骤S420中,获取所述目标媒体内容在对应应用场景下的媒体码流。
本公开实施例中,所述媒体码流可以包括六自由度媒体码流和受限六自由度(3DoF+)媒体码流等存在3D空间内的渲染的任意媒体码流,下面的举例说明中以6DoF媒体为例进行举例说明。本公开实施例提供的方法可以适用于6DoF媒体内容录播、点播、直播、通信,节目编辑、制作等应用。
沉浸式媒体按照用户在消费目标媒体内容时的自由度,可以分为3DoF媒体、3DoF+媒体以及6DoF媒体。其中6DoF媒体可以包括多视角视频以及点云媒体。
其中,点云媒体从编码方式上又可以分为基于传统视频编码方式进行压缩的点云媒体(即V-PCC)以及基于几何特征进行压缩的点云媒体(G-PCC)。
多视角视频通常由摄像机阵列从多个角度(也可以称之为视角)对同一场景进行拍摄,形成包括场景的纹理信息(色彩信息等)的纹理图和深度信息(空间距离信息等)的深度图,再加上2D平面帧到3D呈现空间的映射信息,即构成了可在用户侧进行消费的6DoF媒体。
由相关技术可知,6DoF媒体的应用形式多种多样,用户在对不同应用场景的6DoF媒体进行解封装、解码和渲染时,需要的操作步骤和处理能力显然各有差别。
例如,多视角视频和V-PCC的编码是一套规则,G-PCC的编码是一套规则,二者的编码标准都不一样,因此解码处理肯定是有区别的。
再例如,多视角视频和V-PCC的编码标准虽然一样,但是一个是把图片渲染到3D空间,一个是把一堆点渲染到3D空间,所以会有一些差别。另外多视角视频需要纹理图和深度图,V-PCC除了这些还可能需要占位图,这也是一个差别。
在步骤S430中,封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景。
例如,可以针对6DoF媒体的应用,本公开实施例可以区分不同6DoF媒体的应用场景。
由于当前业界对于6DoF媒体统一定义为容积媒体,若不能在文件封装中对不同的应用场景进行区分,将会给用户侧的处理带来不必要的麻烦。例如,如果不能够在媒体文件封装里区分这些不同的应用场景,就需要解码媒体码流之后再区分,一方面这会导致浪费运算资源,另一方面有些中间节点例如CDN(Content Delivery Network,内容分发网络)节点是不具备解码能力的。
如上所述,这些不同的应用本身处理方式就不一样,是需要进行区分的,在文件封装中区分的好处是在媒体文件的很高层即可获取这个信息,从而可以节约运算资源,同时让一些不具备解码能力的中间节点例如CDN节点也可以获取到这个信息。
在步骤S440中,将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
本公开实施例中,第一设备可以是任意的中间节点,也可以是消费该媒体码流的任意用户终端,本公开对此不做限定。
本公开实施方式提供的媒体文件的封装方法,通过在生成对应应用场景下的媒体码流的封装文件时,在封装文件中扩展第一应用场景类型字段,通过该第一应用场景类型字段来指示该媒体码流对应的应用场景,由此使得在媒体文件的封装中即可对不同媒体码流的不同应用场景进行区分,一方面,将该封装文件发送至第一设备时,该第一设备可以根据该封装文件中的第一应用场景类型字段即可区分该媒体码流的应用场景,从而可以根据该媒体码流对应的应用场景确定对该媒体码流采取何种解码或者渲染方式,可以节约第一设备的运算能力和资源;另一方面,由于在封装阶段即可确定媒体码流的应用场景,因此即使第一设备不具备媒体码流的解码能力,也可以确定该媒体码流对应的应用场景,而不需要等到解码该媒体码流之后才能区分。
图5示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。如图5所示,本公开实施例提供的方法可以包括以下步骤。
图5实施例中的步骤S410-S420可以参照上述实施例。
在图5实施例中,上述图4实施例中的步骤S430可以进一步包括以下步骤。
在步骤S431中,在目标媒体文件格式数据盒的容积可视媒体头数据盒(例如下文中例举的VolumetricVisualMediaHeaderBox)中添加所述第一应用场景类型字段。
本公开实施例中,为了能够实现根据例如6DoF媒体的应用场景对媒体文件进行对应标识,可以在系统层添加若干描述性字段,包括文件封装层面的字段扩展。例如,在下面的举例说明中,以扩展ISOBMFF数据盒(作为目标媒体文件格式数据盒)为例进行举例说明,但本公开并不限定于此。
在步骤S432中,根据所述媒体码流对应的应用场景确定所述第一应用场景类型字段的取值。
在示例性实施例中,所述第一应用场景类型字段的取值可以包括以下中的任意一项:表示所述媒体码流为非大尺度图集信息的多视角视频的第一值(例如“0”);表示所述媒体码流为大尺度图集信息的多视角视频的第二值(例如“1”);表示所述媒体码流为基于传统视频编码方式进行压缩的点云媒体的第三值(例如“2”);表示所述媒体码流为基于几何特征进行压缩的点云媒体的第四值(例如“3”)。
应当理解的是,第一应用场景类型字段的取值并不限于指示上述应用场景,其可以指示更多或者更少的应用场景,可以根据实际需求进行设置。
图5实施例中的步骤S440可以参照上述实施例。
本公开实施方式提供的媒体文件的封装方法,通过区分不同的6DoF媒体的应用场景,可以使消费6DoF媒体的第一设备有针对性地在6DoF媒体的解封装、解码、渲染环节等进行策略选择。
图6示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。如图6所示,本公开实施例提供的方法可以包括以下步骤。
图6实施例中的步骤S410-S420可以参照上述实施例。
在图6实施例中,上述实施例中的步骤S430可以进一步包括以下步骤S4321,即在封装时通过第一应用场景类型字段,确定了该媒体码流为大尺度图集信息的多视角视频。
在步骤S4321中,封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段(例如下文举例的application_type),所述第一应用场景类型字段的取值为表示所述媒体码流为大尺度图集信息的多视角视频的第二值。
对于多视角视频来说,其2D平面帧到3D呈现空间的映射信息决定了多视角视频的6DoF体验。对于这种映射关系的指示,存在两种方法,一种方法定义了图集来将2D平面的区域进行较为细致的划分,进而指示这些2D小区域集合到3D空间的映射关系,这种称之为非大尺度图集信息,对应的多视角视频为非大尺度图集信息的多视角视频。另一种方法则更加粗略,直接从采集设备(均以摄像机为例进行举例说明)的角度,标识每个摄像机生成的深度图和纹理图,并根据每个摄像机参数来还原对应的2D深度图和纹理图在3D空间的映射关系,这种称之为大尺度图集信息,对应的多视角视频为大尺度图集信息的多视角视频。可以理解的是,这里的大尺度图集信息和非大尺度图集信息是相对而言的,并不直接限定具体尺寸。
其中,摄像机参数通常分为摄像机的外参和内参,外参通常包括摄像机拍摄的位置、角度等信息,内参通常包括摄像机的光心位置、焦距长度等信息。
由此可知,6DoF媒体中的多视角视频可以进一步包括大尺度图集信息的多视角视频和非大尺度图集信息的多视角视频,即6DoF媒体的应用形式多种多样,用户在对不同应用场景的6DoF媒体进行解封装、解码和渲染时,需要的操作步骤和处理能力显然各有差别。
例如,大尺度图集信息和非大尺度图集信息的区别就在于2D区域到3D空间的映射和渲染的粒度不同,假设大尺度图集信息是6块2D拼图映射到3D空间,非大尺度图集信息可能就是60块拼图映射到3D空间。那么这个映射的算法带来的复杂度肯定是有区别的,大尺度图集信息的算法会比非大尺度图集信息的算法简单。
特别地,对于多视角视频来说,若其2D区域到3D空间的映射关系是由摄像机参数得到的,即其为大尺度图集信息的多视角视频,那么在封装文件中并不需要定义更小的2D区域到3D空间的映射关系。
当该媒体码流为大尺度图集信息的多视角视频时,则所述方法还可以包括以下步骤。
在步骤S601中,若所述媒体码流按照单轨道封装,则在所述目标媒体文件格式数据盒的位流样本入口(例如下文举例说明的V3CbitstreamSampleEntry,但本公开并不限定于此)中添加大尺度图集标识(例如下文举例的large_scale_atlas_flag)。
在步骤S602中,若所述大尺度图集标识指示所述媒体码流为大尺度图集信息的多视角视频,则在所述位流样本入口中添加采集所述媒体码流的摄像机数量标识(例如下文举例的camera_count)、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识(例如下文举例的camera_count_contained)。
在步骤S603中,在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的分辨率(例如下文举例的camera_resolution_x和camera_resolution_y)。
继续参考图6,进一步地所述方法还包括以下步骤S604-S607中的至少一项。
在步骤S604中,在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图的降采样倍数因子(例如下文中举例的depth_downsample_factor)。
在步骤S605中,在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量(例如下文中举例的texture_vetex_x和texture_vetex_y)。
在步骤S606中,在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量(例如下文中举例的depth_vetex_x和depth_vetex_y)。
在步骤S607中,在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的保护带宽度(例如下文中举例的padding_size_texture和padding_size_depth)。
本公开实施例中,padding_size_texture和padding_size_depth定义了每个纹理图以及深度图的边缘保护区域的大小,为了保护对于拼接图像进行压缩时的边缘突变区域。padding_size_texture和padding_size_depth的值表示了纹理图和深度图边缘保护区域的宽度,padding_size_texture和padding_size_depth等于0则表示没有任何的边缘保护。
继续参考图6,当该媒体码流为大尺度图集信息的多视角视频时,则所述方法还可以包括以下步骤。
在步骤S608中,若所述媒体码流按照多轨道封装,则在所述目标媒体文件格式数据盒的样本入口中添加大尺度图集标识。
在步骤S609中,若所述大尺度图集标识指示所述媒体码流为大尺度图集信息的多视角视频,则在所述样本入口中添加采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识。
在步骤S610中,在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的分辨率。
继续参考图6,进一步地所述方法还包括以下步骤S611-S614中的至少一项。
在步骤S611中,在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图的降采样倍数因子。
在步骤S612中,在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量。
在步骤S613中,在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量。
在步骤S614中,在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的保护带宽度。
图6实施例中的步骤S440可以参照上述实施例。
本公开实施例中,可以采用six_dof_stitching_layout字段来指示6DoF媒体中各个摄像机对应的视角采集的深度图和纹理图的拼接方法,用于标识6DoF媒体的纹理图和深度图拼接布局,具体取值可以参见下表1。
表1 6DoF媒体拼接布局
Figure BDA0004152515410000141
Figure BDA0004152515410000151
图7示意性示出了根据本公开的一实施例的六自由度媒体上下拼接方式的示意图。
当six_dof_stitching_layout值为0时,6DoF媒体拼接模式为上下拼接,如图7所示,在上下拼接模式中,多摄像机采集的纹理图(例如图7中的视角1纹理图,视角2纹理图,视角3纹理图,视角4纹理图)按顺序排布于图像的上方,而相对应的深度图(例如图7中的视角1深度图,视角2深度图,视角3深度图,视角4深度图)则按次序排布于图像的下方。
设定拼接后6DoF媒体的分辨率为nWidth×nHeight,重建模块则可利用camera_resolution_x以及camera_resolution_y的值计算出相应的各个摄像机的纹理图以及深度图的布局位置,从而进一步利用多摄像机的纹理图和深度图信息来进行6DoF媒体的重建。
图8示意性示出了根据本公开的一实施例的六自由度媒体左右拼接方式的示意图。
当six_dof_stitching_layout值为1时,6DoF媒体拼接模式为左右拼接,如图8所示,在左右拼接模式中,多摄像机采集的纹理图(例如图8中的视角1纹理图,视角2纹理图,视角3纹理图,视角4纹理图)按顺序排布于图像的左方,而相对应的深度图(例如图8中的视角1深度图,视角2深度图,视角3深度图,视角4深度图)则按次序排布于图像的右方。
图9示意性示出了根据本公开的一实施例的六自由度媒体深度图1/4分辨率拼接方式的示意图。
当six_dof_stitching_layout值为2时,6DoF媒体拼接模式为深度图1/4降采样的拼接,如图9所示,深度图1/4降采样的拼接方式中,深度图(例如图9中的视角1深度图,视角2深度图,视角3深度图,视角4深度图)在1/4分辨率降采样后,拼接于纹理图(例如图9中的视角1纹理图,视角2纹理图,视角3纹理图,视角4纹理图)的右下方。如果深度图的拼接无法填满最终拼接图的矩形区域,则剩余的部分以空白的图像进行填充。
本公开实施方式提供的媒体文件的封装方法,不仅能够区分不同6DoF媒体的应用场景,可以使消费6DoF媒体的第一设备有针对性地在6DoF媒体的解封装、解码、渲染环节进行策略选择。进一步地,对于6DoF媒体中的多视角视频应用,提出一种在文件封装中指示多视角视频深度图、纹理图相关信息的方法,使得多视角视频不同视角的深度图、纹理图的封装组合方式更加灵活。
在示例性实施例中,所述方法还可以包括:生成所述目标媒体内容的目标描述文件,所述目标描述文件中包括第二应用场景类型字段,所述第二应用场景类型字段指示所述媒体码流对应的应用场景;发送所述目标描述文件至所述第一设备,以便所述第一设备根据所述第二应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件。
其中,将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段确定所述媒体码流对应的应用场景,可以包括:将所述目标封装文件发送至所述第一设备,以便所述第一设备根据所述目标封装文件中的第一应用场景类型字段确定所述目标媒体码流的目标应用场景。
图10示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。如图10所示,本公开实施例提供的方法可以包括以下步骤。
图10实施例中的步骤S410-S430可以参照上述实施例,其可以进一步包括以下步骤。
在步骤S1010中,生成所述目标媒体内容的目标描述文件,所述目标描述文件中包括第二应用场景类型字段(例如下述举例的v3cAppType),所述第二应用场景类型字段指示所述媒体码流对应的应用场景。
本公开实施例中,在系统层添加若干描述性字段,除了包括上述文件封装层面的字段扩展以外,还可以进行信令传输层面的字段扩展,在下面的实施例中,以支持DASH(Dynamic adaptive streaming over HTTP(HyperText Transfer Protocol,超文本传送协议),基于超文本传送协议的动态自适应流媒体传输)MPD(Media PresentationDescription,媒体文件的描述文件)信令(作为目标描述文件)的形式举例说明,定义了6DoF媒体的应用场景类型指示以及大尺度图集指示。
在步骤S1020中,发送所述目标描述文件至所述第一设备,以便所述第一设备根据所述第二应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件。
在步骤S1030中,将所述目标封装文件发送至所述第一设备,以便所述第一设备根据所述目标封装文件中的第一应用场景类型字段确定所述目标媒体码流的目标应用场景。
本公开实施方式提供的媒体文件的封装方法,不仅可以在封装文件中通过第一应用场景类型字段确定媒体码流对应的应用场景,还可以在目标描述文件中通过第二应用场景类型字段确定媒体码流对应的应用场景,这样,第一设备可以首先根据目标描述文件中的第二应用场景类型字段确定其需要获取何种媒体码流,从而可以向服务器端请求相应的目标媒体码流,这样,可以减少数据的传输量,且同时所请求的目标媒体码流能够匹配第一设备的实际能力,当第一设备接收到所请求的目标媒体码流后,还可以进一步根据封装文件中的第一应用场景类型字段确定目标媒体码流的目标应用场景,以获知该采取何种解码和渲染方式,降低了运算资源。
图11示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。如图11所示,本公开实施例提供的方法可以包括以下步骤。
图11实施例中的步骤S410-S430可以参照上述实施例。
图11实施例中,上述图10实施例中的步骤S1010可以进一步包括以下步骤。
在步骤S1011中,在所述目标媒体内容的基于超文本传送协议的动态自适应流媒体传输的目标描述文件中添加所述第二应用场景类型字段。
在步骤S1012中,根据所述媒体码流对应的应用场景确定所述第二应用场景类型字段的取值。
图11实施例中的步骤S1020和步骤S1030可以参照上述实施例。
下面对本公开实施例提出的媒体文件的封装方法进行举例说明。以6DoF媒体为例,本公开实施例提出的方法可以用于6DoF媒体应用场景指示,可以包括以下步骤:
1.根据6DoF媒体的应用场景,对媒体文件进行对应标识。
2.特别地,对于多视角视频,判断其2D平面帧到3D空间的映射是否以采集摄像机的输出为单位进行映射,即2D平面帧到3D空间的映射是以每个摄像机采集的纹理图和深度图为单位进行映射的,就称之为大尺度图集信息;若需要将每个摄像机采集的纹理图和深度图进行进一步的较为细致的划分,指示划分后的2D小区域集合到3D空间的映射,称之为非大尺度图集信息。
3.若多视角视频从2D平面帧到3D空间的映射以采集摄像机的输出为单位进行映射,则在封装文件中指示不同采集摄像机输出的相关信息。
本实施例可以在系统层添加若干描述性字段,可以包括文件封装层面的字段扩展以及信令传输层面的字段扩展,以支持本公开实施例的上述步骤。下面以扩展ISOBMFF数据盒和DASH MPD信令的形式举例,定义了6DoF媒体的应用类型指示以及大尺度图集指示,具体如下(其中扩展部分以斜体字标识)。
一、ISOBMFF数据盒扩展
本部分中使用的数学运算符和优先级参照C语言。除特别说明外,约定编号和计数从0开始。
Figure BDA0004152515410000181
Figure BDA0004152515410000191
Figure BDA0004152515410000201
本公开实施例中,第一应用场景类型字段application_type指示6DoF媒体的应用场景类型,具体取值包含但不仅限于下表2所示内容:
表2
取值 语义
0 多视角视频(非大尺度图集信息)
1 多视角视频(大尺度图集信息)
2 基于传统视频编码方式进行压缩的点云媒体
3 基于几何特征进行压缩的点云媒体
其中,大尺度图集标识large_scale_atlas_flag指示图集信息是否为大尺度图集信息,即图集信息是否仅通过摄像机参数等相关信息即可获取,这里假设large_scale_atlas_flag等于1时指示为多视角视频(大尺度图集信息),等于0时指示为多视角视频(非大尺度图集信息)。
需要说明的是,从上述表2可以看出,第一应用场景类型字段application_type已经能够指示是否为大尺度图集信息的多视角视频,考虑到application_type的指示比较上层,增加large_scale_atlas_flag方便解析。使用上只需要一个就够了,但是因为不确定到时候哪个字段会被采用,所以这里的信息冗余了。
其中,camera_count用于指示采集6DoF媒体的所有摄像机的个数,称之为采集该媒体码流的摄像机数量标识。camera_number的取值为1~255。camera_count_contained用于表示6DoF媒体的当前文件中包含的摄像机对应的视角的数目,称之为当前文件中包含的摄像机对应的视角数目标识。
其中,padding_size_depth表示深度图的保护带宽度。padding_size_texture:纹理图的保护带宽度。在视频编码的过程中,通常会加一些保护带来提升视频解码的容错率,就是在图片帧的边缘填充一些额外的像素。
camera_id表示每个视角对应的摄像机标识符。camera_resolution_x,camera_resolution_y表示摄像机采集的纹理图、深度图的分辨率宽度与高度,分别表示对应摄像机采集的X和Y方向上的分辨率。depth_downsample_factor表示对应深度图的降采样倍数因子,深度图的实际分辨率宽度与高度为摄像机采集分辨率宽度与高度的1/2depth_downsample_factor。
depth_vetex_x,depth_vetex_y分别表示对应深度图左上顶点相对于平面帧的原点(平面帧的左上顶点)偏移量中的X,Y分量值。
texture_vetex_x,texture_vetex_y分别表示对应纹理图左上顶点相对于平面帧的原点(平面帧的左上顶点)偏移量中的X,Y分量值。
二、DASH MPD信令扩展
可以在DASH MPD信令如下表3所示的表格中扩展第二应用场景类型字段v3cAppType。
表3—表示元素的语义(Semantics of Representation element)
Figure BDA0004152515410000211
Figure BDA0004152515410000221
对应上述图7实施例,假设服务器端存在1个多视角视频A,且该多视角视频A的图集信息为大尺度图集信息。
此时:application_type=1;
large_scale_atlas_flag=1:camera_count=4;camera_count_contained=4;
padding_size_depth=0;padding_size_texture=0;
{camera_id=1;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(0,0);depth_vetex=(0,200)}//视角1纹理图和视角1深度图
{camera_id=2;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(100,0);depth_vetex=(100,200)}//视角2纹理图和视角2深度图
{camera_id=3;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(0,100);depth_vetex=(0,300)}//视角3纹理图和视角3深度图
{camera_id=4;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(100,100);depth_vetex=(100,300)}//视角4纹理图和视角4深度图
以上的系统描述,对应了图7的平面帧各个区域的数据构成。
对应上述图8实施例,假设服务器端存在1个多视角视频A,且该多视角视频A的图集信息为大尺度图集信息。
此时:application_type=1;
large_scale_atlas_flag=1:camera_count=4;camera_count_contained=4;
padding_size_depth=0;padding_size_texture=0;
{camera_id=1;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(0,0);depth_vetex=(200,0)}
{camera_id=2;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(100,0);depth_vetex=(300,0)}
{camera_id=3;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(0,100);depth_vetex=(200,100)}
{camera_id=4;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=0;texture_vetex=(100,100);depth_vetex=(300,100)}
以上的系统描述,对应了图8的平面帧各个区域的数据构成。
对应上述图9实施例,假设服务器端存在1个多视角视频A,且该多视角视频A的图集信息为大尺度图集信息。
此时:application_type=1;
large_scale_atlas_flag=1:camera_count=4;camera_count_contained=4;
padding_size_depth=0;padding_size_texture=0;
{camera_id=1;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(0,0);depth_vetex=(0,200)}
{camera_id=2;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(100,0);depth_vetex=(50,200)}
{camera_id=3;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(0,100);depth_vetex=(100,200)}
{camera_id=4;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(100,100);depth_vetex=(150,200)}
以上的系统描述,对应了图9的平面帧各个区域的数据构成。
需要说明的是,padding_size_depth和padding_size_texture没有绝对的取值范围,不同取值对本公开实施例提供的方法没有影响。本方案只是指示了padding_size_depth和padding_size_texture的大小,至于padding_size_depth和padding_size_texture的大小为什么是这样,是编码算法决定的,与本公开实施例提供的方法无关。
其中,camera_resolution_x和camera_resolution_y是用于计算深度图的实际分辨率宽度和高度的,就是每个摄像机的分辨率,多视角视频是由多个摄像机拍摄的,不同的摄像机分辨率可以不同,这里将所有视角的分辨率宽度和高度均举例为100像素只是为了举例方便而取值的,实际并不限定于此。
可以理解的是,并不限于上述组合方式,本公开实施例提供的方法可以对任意组合进行对应指示。
当第一设备上安装的客户端收到服务器端发送的多视角视频的封装文件后,通过解析封装文件中的对应字段,即可将多视角视频平面帧的各个区域与不同摄像机的纹理图、深度图对应。再通过解码多视角视频的媒体码流中的摄像机参数信息,即可将平面帧的各个区域还原到3D渲染呈现区域,从而消费多视角视频。
对应上述图10实施例进行举例说明。假设对于同一目标媒体内容,服务器端存在3个不同形式的6DoF媒体,分别为多视角视频A(大尺度图集信息)、V-PCC点云媒体B、G-PCC点云媒体C。则服务器端在对这三个媒体码流进行封装时,对VolumetricVisualMediaHeaderBox数据盒中的application_type字段对应赋值。具体而言,多视角视频A:application_type=1;V-PCC点云媒体B:application_type=2;G-PCC点云媒体C:application_type=3。
同时,在MPD文件中描述多视角视频A(大尺度图集信息)、V-PCC点云媒体B、G-PCC点云媒体C三个Representation的应用场景类型,即v3cAppType字段的取值分别为多视角视频A:v3cAppType=1;V-PCC点云媒体B:v3cAppType=2;G-PCC点云媒体C:v3cAppType=3。
然后,服务器将MPD信令对应的目标描述文件下发给第一设备上安装的客户端。
当客户端收到服务器端发送的MPD信令对应的目标描述文件后,根据客户端设备能力和呈现需求,请求对应的应用场景类型的目标媒体码流的目标封装文件。假设第一设备的客户端处理能力较低,因此客户端请求多视角视频A的目标封装文件。
则服务器端将多视角视频A的目标封装文件发送给第一设备的客户端。
第一设备的客户端在收到服务器端发送的多视角视频A的目标封装文件后,根据VolumetricVisualMediaHeaderBox数据盒中的application_type字段,确定当前6DoF媒体文件的应用场景类型,即可对应处理。不同的应用场景类型会有不同的解码和渲染处理算法。
以多视角视频为例,若application_type=1,则说明该多视角视频的图集信息是以摄像机采集的深度图、纹理图为单位,因此客户端可以通过相对简单的处理算法对该多视角视频进行处理。
需要说明的是,在其他实施例中,除了DASH MPD,还可以对类似的信令文件进行相似扩展,在信令文件中指示不同媒体文件的应用场景类型。
在示例性实施例中,获取所述目标媒体内容在对应应用场景下的媒体码流,可以包括:接收第二设备发送的第一多视角视频的第一封装文件和第三设备发送的第二多视角视频的第二封装文件;分别解封装所述第一封装文件和所述第二封装文件,获得所述第一多视角视频和所述第二多视角视频;分别解码所述第一多视角视频和所述第二多视角视频,获得所述第一多视角视频中的第一深度图和第一纹理图以及所述第二多视角视频中的第二深度图和第二纹理图;根据所述第一深度图、所述第二深度图、所述第一纹理图和所述第二纹理图,获得合并多视角视频。
其中,所述第二设备上可以安装有第一数量的摄像机,所述第三设备上可以安装有第二数量的摄像机,所述第二设备和所述第三设备分别利用各自的摄像机针对同一场景进行多视角视频采集拍摄获得所述第一多视角视频和所述第二多视角视频。
其中,所述第一封装文件和所述第二封装文件中分别可以包括所述第一应用场景类型字段,且所述第一封装文件和所述第二封装文件中的第一应用场景类型字段的取值分别用于表示所述第一多视角视频和所述第二多视角视频为大尺度图集信息的多视角视频的第二值。
图12示意性示出了根据本公开的一实施例的媒体文件的封装方法的流程图。如图12所示,本公开实施例提供的方法可以包括以下步骤。
在步骤S1210中,接收第二设备发送的第一多视角视频的第一封装文件和第三设备发送的第二多视角视频的第二封装文件。
在步骤S1220中,分别解封装所述第一封装文件和所述第二封装文件,获得所述第一多视角视频和所述第二多视角视频。
在步骤S1230中,分别解码所述第一多视角视频和所述第二多视角视频,获得所述第一多视角视频中的第一深度图和第一纹理图以及所述第二多视角视频中的第二深度图和第二纹理图。
在步骤S1240中,根据所述第一深度图、所述第二深度图、所述第一纹理图和所述第二纹理图,获得合并多视角视频。
在步骤S1250中,封装合并多视角视频,生成合并多视角视频的封装文件,封装文件中包括第一应用场景类型字段,第一应用场景类型字段指示合并多视角视频对应的应用场景为大尺度图集信息的多视角视频的第二值。
在步骤S1260中,将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段获得所述合并多视角视频对应的应用场景,确定所述合并多视角视频的解码或者渲染方式。
下面结合图13和14对图12实施例提供的方法进行举例说明。假设第二设备和第三设备分别为无人机A和无人机B(但本公开并不限定于此),且假设无人机A和无人机B上各自安装了2个摄像机(即第一数量和第二数量均等于2,但本公开并不限定于此,可以根据实际场景进行设置)。利用无人机A和无人机B对同一场景进行多视角视频采集拍摄,则无人机A在采集制作第一多视角视频的过程中,对应封装第一多视角视频的第一封装文件如下:
application_type=1;
large_scale_atlas_flag=1:camera_count=4;camera_count_contained=2;
padding_size_depth=0;padding_size_texture=0;
{camera_id=1;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(0,0);depth_vetex=(0,100)}//视角1纹理图和视角1深度图
{camera_id=2;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(100,0);depth_vetex=(100,100)}//视角2纹理图和视角2深度图
以上的系统描述,对应了图13的平面帧各个区域的数据构成,这里以上下拼接方式进行举例说明。
无人机B在采集制作第二多视角视频的过程中,对应封装第二多视角视频的第二封装文件如下:
application_type=1;
large_scale_atlas_flag=1:camera_count=4;camera_count_contained=2;
padding_size_depth=0;padding_size_texture=0;
{camera_id=3;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(0,0);depth_vetex=(0,100)}//视角3纹理图和视角3深度图
{camera_id=4;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(100,0);depth_vetex=(100,100)}//视角4纹理图和视角4深度图
以上的系统描述,对应了如图14所示的平面帧各个区域的数据构成。
在服务器端,服务器端收到不同无人机拍摄后的第一封装文件和第二封装文件后,对第一封装文件和第二封装文件解封装和解码后,将所有的深度图、纹理图合并,且假设对深度图降采样后,得到合并多视角视频。
深度图重要性不如纹理图,降采样后可以降低数据量,本公开实施例是指示这种情景,但限定这种情景。
对合并多视角视频进行封装后,可以获得如下所示的封装文件:
application_type=1;
large_scale_atlas_flag=1:camera_count=4;camera_count_contained=4;
padding_size_depth=0;padding_size_texture=0;
{camera_id=1;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(0,0);depth_vetex=(0,200)}
{camera_id=2;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(100,0);depth_vetex=(50,200)}
{camera_id=3;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(0,100);depth_vetex=(100,200)}
{camera_id=4;camera_resolution_x=100;camera_resolution_y=100;
depth_downsample_factor=1;texture_vetex=(100,100);depth_vetex=(150,200)}
以上的系统描述,对应了上述图9所示的平面帧各个区域的数据构成。
当第一设备的客户端收到服务器端发送的合并多视角视频的封装文件后,通过解析封装文件中的对应字段,即可将合并多视角视频平面帧的各个区域与不同摄像机的纹理图、深度图对应。再通过解码合并多视角视频的媒体码流中的摄像机参数信息,即可将平面帧的各个区域还原到3D渲染呈现区域,从而消费合并多视角视频。
本公开实施方式提供的媒体文件的封装方法,对于6DoF媒体中的多视角视频应用,提出一种在文件封装中指示多视角视频深度图、纹理图相关信息的方法,使得多视角视频不同视角的深度图、纹理图的封装组合方式更加灵活。可以支持不同的应用场景,如上述实施例所述,有些场景就是不同的设备在拍摄,会封装成两个文件,而本公开实施例提供的方法可以将这两个文件关联起来,结合消费。否则上述实施例中,只能把两个文件分别呈现,无法联合呈现。
本公开实施例提供的媒体文件的解封装方法可以由任意的电子设备来执行,在下面的举例说明中,以应用于沉浸式系统的中间节点或者第一设备(例如播放器端)为例进行举例说明,但本公开并不限定于此。
图15示意性示出了根据本公开的一实施例的媒体文件的解封装方法的流程图。如图15所示,本公开实施例提供的方法可以包括以下步骤。
在步骤S1510中,接收目标媒体内容在对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景。
在示例性实施例中,所述方法还可以包括:接收所述目标媒体内容的目标描述文件,所述目标描述文件中包括第二应用场景类型字段,所述第二应用场景类型字段指示所述媒体码流对应的应用场景;根据所述第二应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件。
其中,接收目标媒体内容在对应应用场景下的媒体码流的封装文件,可以包括:接收所述目标封装文件,以根据所述目标封装文件中的第一应用场景类型字段确定所述目标媒体码流的目标应用场景。
在步骤S1520中,解封装所述封装文件,获得所述第一应用场景类型字段。
在步骤S1530中,根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景。
在步骤S1540中,根据所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
在示例性实施例中,若所述第一应用场景类型字段的取值为表示所述媒体码流为大尺度图集信息的多视角视频的第二值,则所述方法还可以包括:解析所述封装文件,获得所述媒体码流中包含的摄像机对应视角采集的纹理图和深度图与所述大尺度图集信息中的平面帧之间的映射关系;解码所述媒体码流,获得所述媒体码流中的摄像机参数;根据所述映射关系和所述摄像机参数,在三维空间呈现所述多视角视频。
本公开实施例提供的媒体文件的解封装方法的其他内容可以参照上述其他实施例中的媒体文件的封装方法。
本公开实施例提供的媒体文件的封装装置可以设置于任意的电子设备,在下面的举例说明中,以设置于沉浸式系统的服务器端为例进行举例说明,但本公开并不限定于此。
图16示意性示出了根据本公开的一实施例的媒体文件的封装装置的框图。如图16所示,本公开实施例提供的媒体文件的封装装置1600可以包括媒体内容确定单元1610、媒体码流获取单元1620、媒体码流封装单元1630以及封装文件发送单元1640。
本公开实施例中,媒体内容确定单元1610可以用于确定目标媒体内容。媒体码流获取单元1620可以用于获取所述目标媒体内容在对应应用场景下的媒体码流。媒体码流封装单元1630可以用于封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景。封装文件发送单元1640可以用于将所述封装文件发送至第一设备,以便所述第一设备根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
本公开实施方式提供的媒体文件的封装装置,通过在生成对应应用场景下的媒体码流的封装文件时,在封装文件中扩展第一应用场景类型字段,通过该第一应用场景类型字段来指示该媒体码流对应的应用场景,由此使得在媒体文件的封装中即可对不同媒体码流的不同应用场景进行区分,一方面,将该封装文件发送至第一设备时,该第一设备可以根据该封装文件中的第一应用场景类型字段即可区分该媒体码流的应用场景,从而可以根据该媒体码流对应的应用场景确定对该媒体码流采取何种解码或者渲染方式,可以节约第一设备的运算能力和资源;另一方面,由于在封装阶段即可确定媒体码流的应用场景,因此即使第一设备不具备媒体码流的解码能力,也可以确定该媒体码流对应的应用场景,而不需要等到解码该媒体码流之后才能区分。
在示例性实施例中,媒体码流封装单元1630可以包括:第一应用场景类型字段添加单元,可以用于在目标媒体文件格式数据盒的容积可视媒体头数据盒中添加所述第一应用场景类型字段;第一应用场景类型字段取值确定单元,可以用于根据所述媒体码流对应的应用场景确定所述第一应用场景类型字段的取值。
在示例性实施例中,所述第一应用场景类型字段的取值可以包括以下中的任意一项:表示所述媒体码流为非大尺度图集信息的多视角视频的第一值;表示所述媒体码流为大尺度图集信息的多视角视频的第二值;表示所述媒体码流为基于传统视频编码方式进行压缩的点云媒体的第三值;表示所述媒体码流为基于几何特征进行压缩的点云媒体的第四值。
在示例性实施例中,若所述第一应用场景类型字段的取值等于所述第二值,则媒体文件的封装装置1600还可以包括:单轨道大尺度图集标识添加单元,可以用于若所述媒体码流按照单轨道封装,则在所述目标媒体文件格式数据盒的位流样本入口中添加大尺度图集标识;单轨道摄像机视角标识添加单元,可以用于若所述大尺度图集标识指示所述媒体码流为大尺度图集信息的多视角视频,则在所述位流样本入口中添加采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;单轨道纹理深度图分辨率添加单元,可以用于在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的分辨率。
在示例性实施例中,媒体文件的封装装置1600还可以包括以下中的至少一项:单轨道降采样倍数因子添加单元,可以用于在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图的降采样倍数因子;单轨道纹理图偏移量添加单元,可以用于在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量;单轨道深度图偏移量添加单元,可以用于在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量;单轨道保护带宽度添加单元,可以用于在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的保护带宽度。
在示例性实施例中,若所述第一应用场景类型字段的取值等于所述第二值,则媒体文件的封装装置1600还可以包括:多轨道大尺度图集标识添加单元,可以用于若所述媒体码流按照多轨道封装,则在所述目标媒体文件格式数据盒的样本入口中添加大尺度图集标识;多轨道摄像机视角标识添加单元,可以用于若所述大尺度图集标识指示所述媒体码流为大尺度图集信息的多视角视频,则在所述样本入口中添加采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;多轨道纹理深度图分辨率添加单元,可以用于在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的分辨率。
在示例性实施例中,媒体文件的封装装置1600还可以包括以下中的至少一项:多轨道降采样倍数因子添加单元,可以用于在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图的降采样倍数因子;多轨道纹理图偏移量添加单元,可以用于在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量;多轨道深度图偏移量添加单元,可以用于在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图左上顶点相对于所述大尺度图集信息中的平面帧的原点偏移量;多轨道保护带宽度添加单元,可以用于在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的保护带宽度。
在示例性实施例中,媒体文件的封装装置1600还可以包括:目标描述文件生成单元,可以用于生成所述目标媒体内容的目标描述文件,所述目标描述文件中包括第二应用场景类型字段,所述第二应用场景类型字段指示所述媒体码流对应的应用场景;目标描述文件发送单元,可以用于发送所述目标描述文件至所述第一设备,以便所述第一设备根据所述第二应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件。其中,封装文件发送单元1640可以包括:目标封装文件发送单元,可以用于将所述目标封装文件发送至所述第一设备,以便所述第一设备根据所述目标封装文件中的第一应用场景类型字段确定所述目标媒体码流的目标应用场景。
在示例性实施例中,目标描述文件生成单元可以包括:第二应用场景类型字段添加单元,可以用于在所述目标媒体内容的基于超文本传送协议的动态自适应流媒体传输的目标描述文件中添加所述第二应用场景类型字段;第二应用场景类型字段取值确定单元,可以用于根据所述媒体码流对应的应用场景确定所述第二应用场景类型字段的取值。
在示例性实施例中,媒体码流获取单元1620可以包括:封装文件接收单元,可以用于接收第二设备发送的第一多视角视频的第一封装文件和第三设备发送的第二多视角视频的第二封装文件;封装文件解封装单元,可以用于分别解封装所述第一封装文件和所述第二封装文件,获得所述第一多视角视频和所述第二多视角视频;多视角视频解码单元,可以用于分别解码所述第一多视角视频和所述第二多视角视频,获得所述第一多视角视频中的第一深度图和第一纹理图以及所述第二多视角视频中的第二深度图和第二纹理图;多视角视频合并单元,可以用于根据所述第一深度图、所述第二深度图、所述第一纹理图和所述第二纹理图,获得合并多视角视频。
在示例性实施例中,所述第二设备上可以安装有第一数量的摄像机,所述第三设备上安装有第二数量的摄像机,所述第二设备和所述第三设备分别利用各自的摄像机可以针对同一场景进行多视角视频采集拍摄获得所述第一多视角视频和所述第二多视角视频。其中,所述第一封装文件和所述第二封装文件中可以分别包括所述第一应用场景类型字段,且所述第一封装文件和所述第二封装文件中的第一应用场景类型字段的取值可以分别用于表示所述第一多视角视频和所述第二多视角视频为大尺度图集信息的多视角视频的第二值。
在示例性实施例中,所述媒体码流可以包括六自由度媒体码流和受限六自由度媒体码流。
本公开实施例提供的媒体文件的封装装置中的各个单元的具体实现可以参照上述媒体文件的封装方法中的内容,在此不再赘述。
本公开实施例提供的媒体文件的解封装装置可以设置于任意的电子设备,在下面的举例说明中,以设置于沉浸式系统的中间节点或者第一设备(例如播放器端)为例进行举例说明,但本公开并不限定于此。
图17示意性示出了根据本公开的一实施例的媒体文件的解封装装置的框图。如图17所示,本公开实施例提供的媒体文件的解封装装置1700可以包括封装文件接收单元1710、文件解封装单元1720、应用场景获得单元1730以及解码渲染确定单元1740。
本公开实施例中,封装文件接收单元1710可以用于接收目标媒体内容在对应应用场景下的媒体码流的封装文件,所述封装文件中包括第一应用场景类型字段,所述第一应用场景类型字段指示所述媒体码流对应的应用场景。文件解封装单元1720可以用于解封装所述封装文件,获得所述第一应用场景类型字段。应用场景获得单元1730可以用于根据所述第一应用场景类型字段获得所述媒体码流对应的应用场景。解码渲染确定单元1740可以用于根据所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式。
在示例性实施例中,若所述第一应用场景类型字段的取值为表示所述媒体码流为大尺度图集信息的多视角视频的第二值,则媒体文件的解封装装置1700还可以包括:封装文件解析单元,可以用于解析所述封装文件,获得所述媒体码流中包含的摄像机对应视角采集的纹理图和深度图与所述大尺度图集信息中的平面帧之间的映射关系;媒体码流解码单元,可以用于解码所述媒体码流,获得所述媒体码流中的摄像机参数;多视角视频呈现单元,可以用于根据所述映射关系和所述摄像机参数,在三维空间呈现所述多视角视频。
在示例性实施例中,媒体文件的解封装装置1700还可以包括:目标描述文件接收单元,可以用于接收所述目标媒体内容的目标描述文件,所述目标描述文件中包括第二应用场景类型字段,所述第二应用场景类型字段指示所述媒体码流对应的应用场景;目标封装文件确定单元,可以用于根据所述第二应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件。其中,封装文件接收单元1710可以包括:目标应用场景确定单元,可以用于接收所述目标封装文件,以根据所述目标封装文件中的第一应用场景类型字段确定所述目标媒体码流的目标应用场景。
本公开实施例提供的媒体文件的解封装装置中的各个单元的具体实现可以参照上述媒体文件的解封装方法中的内容,在此不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中所述的媒体文件的封装方法。
本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中所述的媒体文件的解封装方法。
本公开实施例提供了一种电子设备,包括:至少一个处理器;存储装置,配置为存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如上述实施例中所述的媒体文件的封装方法。
本公开实施例提供了一种电子设备,包括:至少一个处理器;存储装置,配置为存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如上述实施例中所述的媒体文件的解封装方法。
图18示出了适于用来实现本公开实施例的电子设备的结构示意图。
需要说明的是,图18示出的电子设备1800仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图18所示,电子设备1800包括中央处理单元(CPU,Central Processing Unit)1801,其可以根据存储在只读存储器(ROM,Read-Only Memory)1802中的程序或者从储存部分1808加载到随机访问存储器(RAM,Random Access Memory)1803中的程序而执行各种适当的动作和处理。在RAM 1803中,还存储有系统操作所需的各种程序和数据。CPU 1801、ROM1802以及RAM 1803通过总线1804彼此相连。输入/输出(input/output,I/O)接口1805也连接至总线1804。
以下部件连接至I/O接口1805:包括键盘、鼠标等的输入部分1806;包括诸如阴极射线管(CRT,Cathode Ray Tube)、液晶显示器(LCD,Liquid Crystal Display)等以及扬声器等的输出部分1807;包括硬盘等的储存部分1808;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调制解调器等的网络接口卡的通信部分1809。通信部分1809经由诸如因特网的网络执行通信处理。驱动器1810也根据需要连接至I/O接口1805。可拆卸介质1811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1810上,以便于从其上读出的计算机程序根据需要被安装入储存部分1808。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1809从网络上被下载和安装,和/或从可拆卸介质1811被安装。在该计算机程序被中央处理单元(CPU)1801执行时,执行本申请的方法和/或装置中限定的各种功能。
需要说明的是,本公开所示的计算机可读存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有至少一个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM(Erasable Programmable Read Only Memory,可擦除可编程只读存储器)或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF(Radio Frequency,射频)等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的方法、装置和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含至少一个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图4或图5或图6或图10或图11或图12或图15所示的各个步骤。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (14)

1.一种媒体文件的封装方法,其特征在于,包括:
确定目标媒体内容;
获取所述目标媒体内容在对应应用场景下的媒体码流;
封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件;
将所述封装文件发送至第一设备,以便所述第一设备根据所述封装文件获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式;
若所述媒体码流按照单轨道封装,则在目标媒体文件格式数据盒的位流样本入口中添加采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;
在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的位置信息。
2.根据权利要求1所述的媒体文件的封装方法,其特征在于,还包括以下中的至少一项:
在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图的降采样倍数因子;
在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图左上顶点相对于所述媒体码流中的平面帧的原点偏移量;
在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的深度图左上顶点相对于所述媒体码流中的平面帧的原点偏移量;
在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的保护带宽度。
3.根据权利要求1所述的媒体文件的封装方法,其特征在于,所述方法还包括:
若所述媒体码流按照多轨道封装,则在所述目标媒体文件格式数据盒的样本入口中添加采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;
在所述样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的位置信息。
4.根据权利要求1所述的媒体文件的封装方法,其特征在于,所述方法还包括:
生成所述目标媒体内容的目标描述文件,所述目标描述文件中包括应用场景类型字段,所述应用场景类型字段指示所述媒体码流对应的应用场景;
发送所述目标描述文件至所述第一设备,以便所述第一设备根据所述应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件;
将所述封装文件发送至第一设备,以便所述第一设备根据所述封装文件确定所述媒体码流对应的应用场景,包括:
将所述目标封装文件发送至所述第一设备,以便所述第一设备根据所述目标封装文件确定所述目标媒体码流的目标应用场景。
5.根据权利要求4所述的媒体文件的封装方法,其特征在于,生成所述目标媒体内容的目标描述文件,包括:
在所述目标媒体内容的基于超文本传送协议的动态自适应流媒体传输的目标描述文件中添加所述应用场景类型字段;
根据所述媒体码流对应的应用场景确定所述应用场景类型字段的取值。
6.根据权利要求1所述的媒体文件的封装方法,其特征在于,获取所述目标媒体内容在对应应用场景下的媒体码流,包括:
接收第二设备发送的第一多视角视频的第一封装文件和第三设备发送的第二多视角视频的第二封装文件;
分别解封装所述第一封装文件和所述第二封装文件,获得所述第一多视角视频和所述第二多视角视频;
分别解码所述第一多视角视频和所述第二多视角视频,获得所述第一多视角视频中的第一深度图和第一纹理图以及所述第二多视角视频中的第二深度图和第二纹理图;
根据所述第一深度图、所述第二深度图、所述第一纹理图和所述第二纹理图,获得合并多视角视频。
7.根据权利要求6所述的媒体文件的封装方法,其特征在于,所述第二设备上安装有第一数量的摄像机,所述第三设备上安装有第二数量的摄像机,所述第二设备和所述第三设备分别利用各自的摄像机针对同一场景进行多视角视频采集拍摄获得所述第一多视角视频和所述第二多视角视频。
8.一种媒体文件的解封装方法,其特征在于,包括:
接收目标媒体内容在对应应用场景下的媒体码流的封装文件;
解封装所述封装文件,获得所述媒体码流对应的应用场景;
根据所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式;
其中,若所述媒体码流按照单轨道封装,则在目标媒体文件格式数据盒的位流样本入口中包括采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;在所述位流样本入口中包括所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的位置信息。
9.根据权利要求8所述的媒体文件的解封装方法,其特征在于,所述方法还包括:
解析所述封装文件,获得所述媒体码流中包含的摄像机对应视角采集的纹理图和深度图与所述媒体码流中的平面帧之间的映射关系;
解码所述媒体码流,获得所述媒体码流中的摄像机参数;
根据所述映射关系和所述摄像机参数,在三维空间呈现所述媒体码流。
10.根据权利要求8或9所述的媒体文件的解封装方法,其特征在于,所述方法还包括:
接收所述目标媒体内容的目标描述文件,所述目标描述文件中包括应用场景类型字段,所述应用场景类型字段指示所述媒体码流对应的应用场景;
根据所述应用场景类型字段从所述媒体码流的封装文件中确定目标媒体码流的目标封装文件;
接收目标媒体内容在对应应用场景下的媒体码流的封装文件,包括:
接收所述目标封装文件,以根据所述目标封装文件确定所述目标媒体码流的目标应用场景。
11.一种媒体文件的封装装置,其特征在于,包括:
媒体内容确定单元,用于确定目标媒体内容;
媒体码流获取单元,用于获取所述目标媒体内容在对应应用场景下的媒体码流;
媒体码流封装单元,用于封装对应应用场景下的媒体码流,生成对应应用场景下的媒体码流的封装文件;
封装文件发送单元,用于将所述封装文件发送至第一设备,以便所述第一设备根据所述封装文件获得所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式;
单轨道摄像机视角标识添加单元,用于若所述媒体码流按照单轨道封装,则在目标媒体文件格式数据盒的位流样本入口中添加采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;
单轨道纹理深度图分辨率添加单元,用于在所述位流样本入口中添加所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的位置信息。
12.一种媒体文件的解封装装置,其特征在于,包括:
封装文件接收单元,用于接收目标媒体内容在对应应用场景下的媒体码流的封装文件;
文件解封装单元,用于解封装所述封装文件,获得所述媒体码流对应的应用场景;
解码渲染确定单元,用于根据所述媒体码流对应的应用场景,确定所述媒体码流的解码或者渲染方式;
其中,若所述媒体码流按照单轨道封装,则在目标媒体文件格式数据盒的位流样本入口中包括采集所述媒体码流的摄像机数量标识、所述媒体码流中的当前文件中包含的摄像机对应的视角数目标识;在所述位流样本入口中包括所述当前文件中包含的摄像机对应的视角采集的纹理图和深度图的位置信息。
13.一种电子设备,其特征在于,包括:
至少一个处理器;
存储装置,配置为存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如权利要求1至7中任一项所述的媒体文件的封装方法或者如权利要求8至10中任一项所述的媒体文件的解封装方法。
14.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的媒体文件的封装方法或者如权利要求8至10中任一项所述的媒体文件的解封装方法。
CN202310323100.7A 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备 Pending CN116248642A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310323100.7A CN116248642A (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202310323100.7A CN116248642A (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备
CN202011098190.7A CN114374675B (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN202011098190.7A Division CN114374675B (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备

Publications (1)

Publication Number Publication Date
CN116248642A true CN116248642A (zh) 2023-06-09

Family

ID=81138930

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202310323100.7A Pending CN116248642A (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备
CN202011098190.7A Active CN114374675B (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202011098190.7A Active CN114374675B (zh) 2020-10-14 2020-10-14 媒体文件的封装方法、媒体文件的解封装方法及相关设备

Country Status (6)

Country Link
US (1) US12107908B2 (zh)
EP (1) EP4231609A4 (zh)
JP (1) JP7471731B2 (zh)
KR (1) KR102661694B1 (zh)
CN (2) CN116248642A (zh)
WO (1) WO2022078148A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118200611A (zh) * 2022-12-13 2024-06-14 上海交通大学 视频文件发送和接收方法、装置、计算机可读存储介质
CN118471236A (zh) * 2023-02-07 2024-08-09 腾讯科技(深圳)有限公司 一种音频编解码方法、装置、设备及介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2491723A4 (en) * 2009-10-20 2014-08-06 Ericsson Telefon Ab L M METHOD AND ARRANGEMENT FOR MULTILOOK VIDEO COMPRESSION
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
GB2524478A (en) * 2014-03-20 2015-09-30 Nokia Technologies Oy Method, apparatus and computer program product for filtering of media content
CN108616751B (zh) * 2016-12-12 2023-05-12 上海交通大学 媒体信息的处理方法、装置及系统
CN109074678B (zh) 2016-12-30 2021-02-05 华为技术有限公司 一种信息的处理方法及装置
WO2018177373A1 (en) * 2017-03-30 2018-10-04 Mediatek Inc. Method and apparatus for signaling spherical region information in isobmff
US10559126B2 (en) * 2017-10-13 2020-02-11 Samsung Electronics Co., Ltd. 6DoF media consumption architecture using 2D video decoder
CN108833937B (zh) * 2018-05-30 2021-03-23 华为技术有限公司 视频处理方法和装置
US11140380B2 (en) * 2018-06-06 2021-10-05 Lg Electronics Inc. Method and apparatus for processing overlay media in 360 degree video system
GB2575074B (en) * 2018-06-27 2022-09-28 Canon Kk Encapsulating video content with an indication of whether a group of tracks collectively represents a full frame or a part of a frame
CN110704673B (zh) * 2018-07-09 2022-09-23 上海交通大学 基于视频内容消费的反馈信息标识方法、系统及存储介质
CN113178019B (zh) * 2018-07-09 2023-01-03 上海交通大学 基于视频内容的指示信息标识方法、系统及存储介质
CN112513938A (zh) * 2018-08-06 2021-03-16 松下电器(美国)知识产权公司 三维数据保存方法、三维数据获得方法、三维数据保存装置以及三维数据获得装置
CN110944222B (zh) * 2018-09-21 2021-02-12 上海交通大学 沉浸媒体内容随用户移动变化的方法及系统
US11532103B2 (en) * 2018-12-28 2022-12-20 Sony Group Corporation Information processing apparatus and information processing method
CN111435991B (zh) * 2019-01-11 2021-09-28 上海交通大学 基于分组的点云码流封装方法和系统
CN113396595A (zh) * 2019-02-12 2021-09-14 松下电器(美国)知识产权公司 三维数据复用方法、三维数据逆复用方法、三维数据复用装置及三维数据逆复用装置
KR102596003B1 (ko) * 2019-03-21 2023-10-31 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법
US11803986B2 (en) * 2019-08-08 2023-10-31 Lg Electronics Inc. Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
KR102373833B1 (ko) * 2020-01-09 2022-03-14 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법

Also Published As

Publication number Publication date
EP4231609A1 (en) 2023-08-23
US12107908B2 (en) 2024-10-01
KR102661694B1 (ko) 2024-04-26
JP2023520736A (ja) 2023-05-18
WO2022078148A1 (zh) 2022-04-21
US20230034937A1 (en) 2023-02-02
CN114374675B (zh) 2023-02-28
KR20220160646A (ko) 2022-12-06
CN114374675A (zh) 2022-04-19
EP4231609A4 (en) 2024-03-13
JP7471731B2 (ja) 2024-04-22

Similar Documents

Publication Publication Date Title
CN108702528B (zh) 发送360视频的方法、接收360视频的方法、发送360视频的设备和接收360视频的设备
CN112534825B (zh) 封装方法、生成图像的方法、计算装置和可读存储介质
CN110876051B (zh) 视频数据的处理,传输方法及装置,视频数据的处理系统
CN113891117B (zh) 沉浸媒体的数据处理方法、装置、设备及可读存储介质
CN115398890A (zh) 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法
CN114697631B (zh) 沉浸媒体的处理方法、装置、设备及存储介质
CN113852829A (zh) 点云媒体文件的封装与解封装方法、装置及存储介质
CN114189697B (zh) 一种视频数据处理方法、装置以及可读存储介质
US20230169719A1 (en) Method and Apparatus for Processing Immersive Media Data, Storage Medium and Electronic Apparatus
US12107908B2 (en) Media file encapsulating method, media file decapsulating method, and related devices
CN113766271B (zh) 一种沉浸媒体的数据处理方法、装置及设备
JP2023518337A (ja) ボリュメトリック視覚的メディアプロセス方法および装置
CN115883871B (zh) 媒体文件封装与解封装方法、装置、设备及存储介质
WO2022193875A1 (zh) 多视角视频的处理方法、装置、设备及存储介质
WO2023284487A1 (zh) 容积媒体的数据处理方法、装置、设备以及存储介质
CN115733576B (zh) 点云媒体文件的封装与解封装方法、装置及存储介质
EP3873095A1 (en) An apparatus, a method and a computer program for omnidirectional video
CN115002470A (zh) 一种媒体数据处理方法、装置、设备以及可读存储介质
CN114556962A (zh) 多视点视频处理方法和装置
US20230334716A1 (en) Apparatus and method for providing 3-dimensional spatial data based on spatial random access
CN116643643A (zh) 一种沉浸媒体的数据处理方法、装置、设备及存储介质
CN116643644A (zh) 一种沉浸媒体的数据处理方法、装置、设备及存储介质
CN115941995A (zh) 媒体文件封装与解封装方法、装置、设备及存储介质
CN116137664A (zh) 点云媒体文件封装方法、装置、设备及存储介质
CN117082262A (zh) 点云文件封装与解封装方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40088410

Country of ref document: HK