CN115396688B - 一种基于虚拟场景的多人互动网络直播方法及系统 - Google Patents
一种基于虚拟场景的多人互动网络直播方法及系统 Download PDFInfo
- Publication number
- CN115396688B CN115396688B CN202211341211.2A CN202211341211A CN115396688B CN 115396688 B CN115396688 B CN 115396688B CN 202211341211 A CN202211341211 A CN 202211341211A CN 115396688 B CN115396688 B CN 115396688B
- Authority
- CN
- China
- Prior art keywords
- rendering
- scene
- watching
- live broadcast
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000009877 rendering Methods 0.000 claims abstract description 185
- 230000003993 interaction Effects 0.000 claims abstract description 49
- 230000007704 transition Effects 0.000 claims description 43
- 239000013598 vector Substances 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000009193 crawling Effects 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 11
- 230000009286 beneficial effect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于虚拟场景的多人互动网络直播方法及系统,其方法包括:构建基于直播设备的虚拟场景;确定每个观看设备的默认观看位置,并从虚拟场景中获取与默认观看位置匹配的第一虚拟位置;记录每个观看设备的观看位置移动轨迹,并按照观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;基于需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,实现多人互动网络直播。满足用户交互体验,为实现多人互动网络直播提供有效基础。
Description
技术领域
本发明涉及网络交互技术领域,特别涉及一种基于虚拟场景的多人互动网络直播方法及系统。
背景技术
常见的网络交互平台上,比如,抖音、快手等平台上,一般是用户直播间通过聊天的方式、送礼物的方式又或者是语音接入的方式来实现用户与直播之间的交互,且常见的多人交互是语音或者视频交互,该方式并不能满足用户的互动体验;
而虚拟场景可以让交互的用户能够在不同的位置来采用不同的方式实现直播交互。
因此,本发明提出一种基于虚拟场景的多人互动网络直播方法及系统。
发明内容
本发明提供一种基于虚拟场景的多人互动网络直播方法及系统,用以通过记录不同观看设备的虚拟观看轨迹以及确定不同请求中的语音对象以及视频对象的轨道进行渲染,提高了直播互动效果,满足用户交互体验,为实现多人互动网络直播提供有效基础。
本发明提供一种基于虚拟场景的多人互动网络直播方法,包括:
步骤1:构建基于直播设备的虚拟场景;
步骤2:确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置;
步骤3:记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;
步骤4:当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;
步骤5:基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,实现多人互动网络直播。
优选的,构建基于直播设备的虚拟场景,包括:
确定直播设备中每个场景单元的单元位置分布;
按照单元位置分布,确定每个场景单元的渲染场景;
确定相邻渲染场景之间的场景缝隙,当所述场景缝隙贴合时,判定不需要对所述相邻渲染场景进行优化;
否则,确定所述相邻场景中第一场景的第一覆盖角度以及第二场景的第二覆盖角度,并确定所述第一场景的第一可调整角度以及第二场景的第二可调整角度;
当所述第一可调整角度以及第二可调整角度都为0时,获取与所述场景缝隙连接的第一场景中的第一边缘画面以及获取与所述场景缝隙连接的第二场景中的第二边缘画面;
构建基于所述第一边缘画面以及第二边缘画面的第一过渡画面,并将所述第一过渡画面存储在新增设的第一场景单元中;
当所述第一可调整角度为0以及第二可调整角度不为0时,对第二场景进行角度扩大调整,若角度调整后不存在场景缝隙,此时,保持调整后的第二场景不变;
若角度调整后仍存在新的场景缝隙,此时,按照所述新的场景缝隙与预设场景缝隙的第一比值,确定是否需要进行过渡场景的获取;
当所述第一比值小于预设比值时,从所述第一场景与角度扩大调整后的第二场景中获取边缘颜色,并将中间颜色作为对场景缝隙的填充;
当所述第一比值大于或等于预设比值时,获取第二过渡画面,将所述第二过渡画面存储在新增设的第二场景单元中;
基于对场景的调整结构,构建得到虚拟场景。
优选的,构建基于所述第一边缘画面以及第二边缘画面的第一过渡画面,包括:
构建所述第一边缘画面的第一画面矩阵,同时,构建所述第二边缘画面的第二画面矩阵;
提取所述第一画面矩阵的最后一列向量以及所述第二画面矩阵中的第一列向量;
将所述最后一列向量与第一列向量中的同个行位置元素进行匹配,分别获取每个匹配组合中两个元素的像素差;
当所述像素差为0时,则将对应匹配组合中的过渡线条按照对应两个元素的像素值进行渲染;
当所述像素差不为0时,判断所述像素差是否在取均值渲染范围内,若在,获取对应匹配组合中两个元素的像素均值对对应过渡线条进行渲染;
若所述像素差不在取均值渲染范围内,提取对应匹配对中第一元素的行向量以及第二元素的行向量,并基于向量分析模型对两个行向量进行过渡分析,获取得到渲染像素值,并按照所述渲染像素值对对应过渡线条进行渲染;
基于渲染结果,获取得到初始画面;
对所述初始画面进行像素平滑处理,构建得到过渡画面。
优选的,确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置,包括:
捕捉所述观看设备是否进入虚拟场景,若进入,将进入时刻对应的位置视为默认观看位置;
建立所述默认观看位置与所述虚拟场景中每个虚拟位置的位置联系,并获取得到与所述默认观看位置匹配的第一虚拟位置。
优选的,记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹,包括:
基于位移传感器记录对应观看设备的观看位置移动轨迹;
基于观看设备与虚拟场景的观看映射关系,获取与所述观看位置移动轨迹一致的虚拟观看轨迹。
优选的,当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象,包括:
确定当下时刻存在的直播互动请求的请求数量;
当所述请求数量超过直播连接数量上限时,对与直播互动请求匹配的观看设备的用户账号的信息浏览记录进行爬取;
按照爬取结果,确定对应用户账号的账号习惯;
根据所述账号习惯确定与对应直播内容的紧密程度;
将所述紧密程度从大到小排序,从所有直播互动请求中筛选与直播连接数量上限一致的观看设备进行连接;
对每个连接观看设备的直播互动请求进行请求解析,并从结果-模式数据库中,确定与请求解析结果匹配的需要渲染模式;
同时,对每个连接观看设备的直播互动请求进行请求拆分,并从拆分-对象数据库中,确定与每个拆分请求匹配的请求对象;
确定所述需要渲染模式的渲染条件,并将渲染条件与请求对象进行一一匹配,向每个请求对象匹配对应的渲染内容;
其中,所述请求对象包括:语音对象以及视频对象。
优选的,基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染,包括:
确定每个语音对象对应的语音渲染内容;
基于语音对象预测模型,预测每个语音对象基于虚拟场景的第一出现时刻以及语音轨道;
按照对应语音对象的语音渲染内容确定第一渲染线程,并在所述第一渲染线程上设置第一出现时刻的触发点;
捕捉按照对应渲染线程在匹配的语音轨道上进行实时渲染的实际渲染结果,且与预设渲染结果进行比较,确定第一渲染差异;
基于所述第一渲染差异优化所述语音轨道。
优选的,对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,包括:
确定每个视频对象对应的视频渲染内容;
基于视频对象预测模型,预测每个视频对象基于虚拟场景的第二出现时刻以及视频轨道;
按照对应视频对象的视频渲染内容确定第二渲染线程,并在所述第二渲染线程上设置第二出现时刻的触发点;
捕捉按照对应渲染线程在匹配的视频轨道上进行实时渲染的实际渲染结果,且与预设渲染结果进行比较,确定第二渲染差异;
基于所述第二渲染差异优化所述视频轨道。
优选的,根据所述账号习惯确定与对应直播内容的紧密程度,包括:
根据直播标签以及直播内容的内容信息,得到直播偏向;
根据所述账号习惯,确定对应观看设备的习惯偏向;
确定每个习惯偏向与所有直播偏向的第一紧密因子集合;
根据所有第一紧密因子集合,计算紧密程度Y;
本发明提供一种基于虚拟场景的多人互动网络直播系统,包括:
场景构建模块,用于构建基于直播设备的虚拟场景;
位置确定模块,用于确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置;
轨迹确定模块,用于记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;
对象确定模块,用于当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;
渲染模块,用于基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,实现多人互动网络直播。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于虚拟场景的多人互动网络直播方法的流程图;
图2为本发明实施例中一种基于虚拟场景的多人互动网络直播系统的结构图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明提供一种基于虚拟场景的多人互动网络直播方法,如图1所示,包括:
步骤1:构建基于直播设备的虚拟场景;
步骤2:确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置;
步骤3:记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;
步骤4:当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;
步骤5:基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,实现多人互动网络直播。
该实施例中,虚拟场景是基于计算机仿真系统实现的,且该方法中虚拟场景是基于对直播进行模拟创造的交互场景。
该实施例中,默认观看位置指的是观看用户进入该直播间时,观看设备进入直播间那个时刻的位置即为默认观看位置,且在默认观看位置对应的观看设备所看到的内容为指定的虚拟场景中a位置的内容,那么以a位置作为对应的第一虚拟位置,且在移动观看设备的过程中所观看到的虚拟内容也是不一样的,因此,可以匹配得到相关的虚拟观看轨迹。
该实施例中,在观看直播的过程中,如果基于观看设备向发送直播互动请求,此时,就需要通过对请求进行拆分以及解析,来确定对应的语音对象、视频对象和需要渲染模式。
该实施例中,需要渲染模式是基于与解析结果相关的数据库匹配得到的,且该数据库是包括解析结果以及与解析结果匹配的渲染模式在内的,因此,可以确定出对应的渲染模式,且该渲染模式是针对语音对象以及视频对象的渲染,主要是为了满足用户的体验效果。
该实施例中,语音对象指的是在交互过程中,不同时刻的语音段采用不同的音色输出等都可以视为对应的渲染,视频对象指的是交互过程中不同时刻的是频段采用不同的玄幻方式进行播出,此也可视为对应的渲染。
该实施例中,语音渲染主要集中音色、音调、配音等方面,比如,视频中出现某个固定动作,那么就可以针对该固定动作来匹配发出相关的配音提醒等。
该实施例中,视频渲染主要集中在特效等方面,比如,视频中某个固定动作的出现,会进行放大播放处理,或者重复播放处理等。
该实施例中,语音轨道指的是可以实现对应语音对象进行有效渲染的轨道,且视频轨道指的是可以实现对应视频对象进行有效渲染的轨道。
上述技术方案的有益效果是:通过记录不同观看设备的虚拟观看轨迹以及确定不同请求中的语音对象以及视频对象的轨道进行渲染,提高了直播互动效果,满足用户交互体验,为实现多人互动网络直播提供有效基础。
本发明提供一种基于虚拟场景的多人互动网络直播方法,构建基于直播设备的虚拟场景,包括:
确定直播设备中每个场景单元的单元位置分布;
按照单元位置分布,确定每个场景单元的渲染场景;
确定相邻渲染场景之间的场景缝隙,当所述场景缝隙贴合时,判定不需要对所述相邻渲染场景进行优化;
否则,确定所述相邻场景中第一场景的第一覆盖角度以及第二场景的第二覆盖角度,并确定所述第一场景的第一可调整角度以及第二场景的第二可调整角度;
当所述第一可调整角度以及第二可调整角度都为0时,获取与所述场景缝隙连接的第一场景中的第一边缘画面以及获取与所述场景缝隙连接的第二场景中的第二边缘画面;
构建基于所述第一边缘画面以及第二边缘画面的第一过渡画面,并将所述第一过渡画面存储在新增设的第一场景单元中;
当所述第一可调整角度为0以及第二可调整角度不为0时,对第二场景进行角度扩大调整,若角度调整后不存在场景缝隙,此时,保持调整后的第二场景不变;
若角度调整后仍存在新的场景缝隙,此时,按照所述新的场景缝隙与预设场景缝隙的第一比值,确定是否需要进行过渡场景的获取;
当所述第一比值小于预设比值时,从所述第一场景与角度扩大调整后的第二场景中获取边缘颜色,并将中间颜色作为对场景缝隙的填充;
当所述第一比值大于或等于预设比值时,获取第二过渡画面,将所述第二过渡画面存储在新增设的第二场景单元中;
基于对场景的调整结构,构建得到虚拟场景。
该实施例中,场景单元是设备中硬件的一部分,且在构建虚拟场景的过程中是基于不同单元的单元位置分布来构建得到的。
该实施例中,渲染场景是每个场景单元就预先设置好的,比如,场景单元1是针对区域1的内容进行拍摄,并拍摄所存储的内容进行场景渲染,进而来得到对应直播的一部分,所以,将所有场景单元的渲染场景结合起来可以得到对应的虚拟场景,且该虚拟场景在构建的过程中,由于每个场景单元覆盖的范围可能是不衔接的,因此,来对相邻渲染场景的场景缝隙进行分析。
该实施例中,在对场景缝隙进行分析的过程中,如果贴合也就是相邻渲染场景之间不存在缝隙,此时,就不需要对相邻渲染场景进行优化。
该实施例中,如果相邻渲染场景之间存在缝隙,那么就需要对两个场景的覆盖角度以及调整角度进行分析,来对中间的过渡画面进行确定,在确定可调整角度的过程中,需要判断对应覆盖角度是否为最大覆盖角度,如果是,则判定可调整角度为0。
该实施例中,比如,单元1与单元2为相邻设置,第一场景为单元1确定的,第二场景为单元2确定的,且第一边缘画面为场景中的最后5列像素对应的画面,第二边缘画面为场景中的前5列像素对应的画面,那么第一过渡画面就可以是基于画面确定模块确定得到的,且画面确定模块是基于不同的列像素的组合以及两者之间的过渡画面为样本训练得到的,因此,可以得到第一过渡画面,且新增设的第一场景单元是设置在单元1和单元2之间的,为了对缝隙进行填充。
该实施例中,对于一个可调整角度为0,一个可调整角度不为0的情况进行分析,来对仍需要调整的缝隙与预设缝隙的比值的确定,来确定是否需要获取过渡场景,也就是对缝隙进行填充的场景。
该实施例中,预设比值是预先设置好的,边缘颜色指的是第一场景中的最后一列像素点的颜色以及第二场景中第一列像素点的颜色,进而通过两者像素值来取均值,得到中间颜色,实现对缝隙的填充。
该实施例中,第二过渡画面指的是基于与获取第一过渡画面的方式类似,实现填充。
上述技术方案的有益效果是:通过确定相邻渲染场景之间的场景缝隙,来对缝隙进行分析,且通过对可调整角度的确定,来采用不同的方式对缝隙进行填充,实现对场景的合理渲染,为后续进行直播交互提供有效基础。
本发明提供一种基于虚拟场景的多人互动网络直播方法,构建基于所述第一边缘画面以及第二边缘画面的第一过渡画面,包括:
构建所述第一边缘画面的第一画面矩阵,同时,构建所述第二边缘画面的第二画面矩阵;
提取所述第一画面矩阵的最后一列向量以及所述第二画面矩阵中的第一列向量;
将所述最后一列向量与第一列向量中的同个行位置元素进行匹配,分别获取每个匹配组合中两个元素的像素差;
当所述像素差为0时,则将对应匹配组合中的过渡线条按照对应两个元素的像素值进行渲染;
当所述像素差不为0时,判断所述像素差是否在取均值渲染范围内,若在,获取对应匹配组合中两个元素的像素均值对对应过渡线条进行渲染;
若所述像素差不在取均值渲染范围内,提取对应匹配对中第一元素的行向量以及第二元素的行向量,并基于向量分析模型对两个行向量进行过渡分析,获取得到渲染像素值,并按照所述渲染像素值对对应过渡线条进行渲染;
基于渲染结果,获取得到初始画面;
对所述初始画面进行像素平滑处理,构建得到过渡画面。
该实施例中,第一画面矩阵比如是最后5列元素对应的得到的,第二画面矩阵比如是前5列元素对应得到的。
该实施例中,最后一列向量指的是第一画面矩阵中的最后一列,第一列向量指的是第二画面矩阵中的首列,其中,位置匹配值的是最后一列向量与第一列向量之间的同个位置的元素构成的,最后一列向量与第一列向量包含的行元素个数是一样的,所以,同个行位置对应的元素即可构成匹配组合。
该实施例中,像素差指的是两个元素之间的像素差,且过渡线条指的是匹配组合中元素1的位置到元素2的位置连线,对该连线进行渲染。
该实施例中,取均值渲染范围是预先设定好的,比如是在[0,25],主要是为了确定差值是否过大,以此,来确定采用何种方式渲染合适。
该实施例中,行向量指的是对应画面矩阵中的行向量。
该实施例中,向量分析模型是预先训练好的,且是基于不同的向量组合以及向量对应的像素值、且针对不同的向量组合匹配得渲染向量为样本训练得到的,因此,可以得到渲染像素值,进而得到初始画面。
该实施例中,像素平滑处理主要指的是对每个连接线的像素值进行处理,让其像素值较为接近。
上述技术方案的有益效果是:通过构建矩阵,并分别对不同的列向量进行提取及匹配,来采用不同像素差对应的方式实现对过渡线条的合理渲染,保证过渡画面的合理性,为后续进行场景渲染以及直播交互提供有效基础。
本发明提供一种基于虚拟场景的多人互动网络直播方法,确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置,包括:
捕捉所述观看设备是否进入虚拟场景,若进入,将进入时刻对应的位置视为默认观看位置;
建立所述默认观看位置与所述虚拟场景中每个虚拟位置的位置联系,并获取得到与所述默认观看位置匹配的第一虚拟位置。
上述技术方案的有益效果是:通过确定默认观看位置与第一虚拟位置,便于为观看设备匹配渲染轨道提供有效基础,间接提高虚拟体验效果。
本发明提供一种基于虚拟场景的多人互动网络直播方法,记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹,包括:
基于位移传感器记录对应观看设备的观看位置移动轨迹;
基于观看设备与虚拟场景的观看映射关系,获取与所述观看位置移动轨迹一致的虚拟观看轨迹。
上述技术方案的有益效果是:通过获取虚拟观看轨迹,便于对轨道进行合理渲染,提高虚拟体验效果。
本发明提供一种基于虚拟场景的多人互动网络直播方法,当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象,包括:
确定当下时刻存在的直播互动请求的请求数量;
当所述请求数量超过直播连接数量上限时,对与直播互动请求匹配的观看设备的用户账号的信息浏览记录进行爬取;
按照爬取结果,确定对应用户账号的账号习惯;
根据所述账号习惯确定与对应直播内容的紧密程度;
将所述紧密程度从大到小排序,从所有直播互动请求中筛选与直播连接数量上限一致的观看设备进行连接;
对每个连接观看设备的直播互动请求进行请求解析,并从结果-模式数据库中,确定与请求解析结果匹配的需要渲染模式;
同时,对每个连接观看设备的直播互动请求进行请求拆分,并从拆分-对象数据库中,确定与每个拆分请求匹配的请求对象;
确定所述需要渲染模式的渲染条件,并将渲染条件与请求对象进行一一匹配,向每个请求对象匹配对应的渲染内容;
其中,所述请求对象包括:语音对象以及视频对象。
该实施例中,同个时刻下存在的接入数量是可以统计在内的,因此,在统计到请求数量之后,可以与直播连接数量上限进行比较,以此,来筛选哪些请求可以连接成功。
该实施例中,通过对浏览记录爬取来确定账号习惯,进而确定是否与直播内容匹配,进而实现对账号的筛选。
该实施例中,结果-模式数据库是包括不同的解析结果以及与解析结果匹配的渲染模式在内的。
该实施例中,拆分-对象数据库是包括不同的拆分结果以及与拆分结果匹配的对象在内的。
该实施例中,渲染条件与请求对象的匹配,主要是为了可以对请求对象进行渲染,来保证虚拟渲染的可靠性。
该实施例中,语音对象可以是不同的语音段、针对不同动作行为所匹配的语音信号等,视频对象可以是不同的直播内容图像等。
上述技术方案的有益效果是:通过确定请求数量并与上限进行比较,可以有效的根据账号习惯以及紧密程度来对请求进行筛选,且通过获取渲染模式以及请求对象,可以有效的实现对对象的渲染,提高虚拟体验。
本发明提供一种基于虚拟场景的多人互动网络直播方法,基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染,包括:
确定每个语音对象对应的语音渲染内容;
基于语音对象预测模型,预测每个语音对象基于虚拟场景的第一出现时刻以及语音轨道;
按照对应语音对象的语音渲染内容确定第一渲染线程,并在所述第一渲染线程上设置第一出现时刻的触发点;
捕捉按照对应渲染线程在匹配的语音轨道上进行实时渲染的实际渲染结果,且与预设渲染结果进行比较,确定第一渲染差异;
基于所述第一渲染差异优化所述语音轨道。
该实施例中,语音对象预测模型是预先训练好的,是基于不同的语音对象以及在不同语音轨道的出现时刻为样本训练得到的。
该实施例中,语音渲染内容就是为了对某些特定行为的语音渲染、对某些语音段的渲染等。
该实施例中,第一渲染线程指的是对语音渲染的方式,按照该方式一步一步实现渲染。
该实施例中,第一渲染差异是实际与标准的差异,便于实现对轨道的优化。
上述技术方案的有益效果是:通过确定语音渲染内容,并根据模型进行预测,可以有效确定处渲染差异,实现对轨道的优化,保证虚拟的真实性。
本发明提供一种基于虚拟场景的多人互动网络直播方法,对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,包括:
确定每个视频对象对应的视频渲染内容;
基于视频对象预测模型,预测每个视频对象基于虚拟场景的第二出现时刻以及视频轨道;
按照对应视频对象的视频渲染内容确定第二渲染线程,并在所述第二渲染线程上设置第二出现时刻的触发点;
捕捉按照对应渲染线程在匹配的视频轨道上进行实时渲染的实际渲染结果,且与预设渲染结果进行比较,确定第二渲染差异;
基于所述第二渲染差异优化所述视频轨道。
该实施例中,视频对象预测模型是预先训练好的,是基于不同的视频对象以及在不同视频轨道的出现时刻为样本训练得到的。
该实施例中,视频渲染内容就是为了对某些特定行为的视频渲染、对某些视频段的渲染等。
该实施例中,第二渲染线程指的是对视频渲染的方式,按照该方式一步一步实现渲染。
该实施例中,第二渲染差异是实际与标准的差异,便于实现对轨道的优化。
上述技术方案的有益效果是:通过确定视频渲染内容,并根据模型进行预测,可以有效确定处渲染差异,实现对轨道的优化,保证虚拟的真实性。
本发明提供一种基于虚拟场景的多人互动网络直播方法,根据所述账号习惯确定与对应直播内容的紧密程度,包括:
根据直播标签以及直播内容的内容信息,得到直播偏向;
根据所述账号习惯,确定对应观看设备的习惯偏向;
确定每个习惯偏向与所有直播偏向的第一紧密因子集合;
根据所有第一紧密因子集合,计算紧密程度Y;
该实施例中,直播偏向指的是直播类型,比如,娱乐、卖货、卖货类型等。
上述技术方案的有益效果是:基于习惯偏向确定紧密因子集合,并计算得到紧密程度,为后续确定请求提供有效筛选基础。
本发明提供一种基于虚拟场景的多人互动网络直播系统,如图2所示,包括:
场景构建模块,用于构建基于直播设备的虚拟场景;
位置确定模块,用于确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置;
轨迹确定模块,用于记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;
对象确定模块,用于当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;
渲染模块,用于基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观轨迹中的视频轨道进行第二渲染,实现多人互动网络直播。
上述技术方案的有益效果是:通过记录不同观看设备的虚拟观看轨迹以及确定不同请求中的语音对象以及视频对象的轨道进行渲染,提高了直播互动效果,满足用户交互体验,为实现多人互动网络直播提供有效基础。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种基于虚拟场景的多人互动网络直播方法,其特征在于,包括:
步骤1:构建基于直播设备的虚拟场景;
步骤2:确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置;
步骤3:记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;
步骤4:当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;
步骤5:基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观看轨迹中的视频轨道进行第二渲染,实现多人互动网络直播;
其中,步骤4,包括:
确定当下时刻存在的直播互动请求的请求数量;
当所述请求数量超过直播连接数量上限时,对与直播互动请求匹配的观看设备的用户账号的信息浏览记录进行爬取;
按照爬取结果,确定对应用户账号的账号习惯;
根据所述账号习惯确定与对应直播内容的紧密程度;
将所述紧密程度从大到小排序,从所有直播互动请求中筛选与直播连接数量上限一致的观看设备进行连接;
对每个连接观看设备的直播互动请求进行请求解析,并从结果-模式数据库中,确定与请求解析结果匹配的需要渲染模式;
同时,对每个连接观看设备的直播互动请求进行请求拆分,并从拆分-对象数据库中,确定与每个拆分请求匹配的请求对象;
确定所述需要渲染模式的渲染条件,并将渲染条件与请求对象进行一一匹配,向每个请求对象匹配对应的渲染内容;
其中,所述请求对象包括:语音对象以及视频对象。
2.如权利要求1所述的基于虚拟场景的多人互动网络直播方法,其特征在于,构建基于直播设备的虚拟场景,包括:
确定直播设备中每个场景单元的单元位置分布;
按照单元位置分布,确定每个场景单元的渲染场景;
确定相邻渲染场景之间的场景缝隙,当所述场景缝隙贴合时,判定不需要对所述相邻渲染场景进行优化;
否则,确定所述相邻场景中第一场景的第一覆盖角度以及第二场景的第二覆盖角度,并确定所述第一场景的第一可调整角度以及第二场景的第二可调整角度;
当所述第一可调整角度以及第二可调整角度都为0时,获取与所述场景缝隙连接的第一场景中的第一边缘画面以及获取与所述场景缝隙连接的第二场景中的第二边缘画面;
构建基于所述第一边缘画面以及第二边缘画面的第一过渡画面,并将所述第一过渡画面存储在新增设的第一场景单元中;
当所述第一可调整角度为0以及第二可调整角度不为0时,对第二场景进行角度扩大调整,若角度调整后不存在场景缝隙,此时,保持调整后的第二场景不变;
若角度调整后仍存在新的场景缝隙,此时,按照所述新的场景缝隙与预设场景缝隙的第一 比值,确定是否需要进行过渡场景的获取;
当所述第一比值小于预设比值时,从所述第一场景与角度扩大调整后的第二场景中获取边缘颜色,并将中间颜色作为对场景缝隙的填充;
当所述第一比值大于或等于预设比值时,获取第二过渡画面,将所述第二过渡画面存储在新增设的第二场景单元中;
基于对场景的调整结构,构建得到虚拟场景。
3.如权利要求2所述的基于虚拟场景的多人互动网络直播方法,其特征在于,构建基于所述第一边缘画面以及第二边缘画面的第一过渡画面,包括:
构建所述第一边缘画面的第一画面矩阵,同时,构建所述第二边缘画面的第二画面矩阵;
提取所述第一画面矩阵的最后一列向量以及所述第二画面矩阵中的第一列向量;
将所述最后一列向量与第一列向量中的同个行位置元素进行匹配,分别获取每个匹配组合中两个元素的像素差;
当所述像素差为0时,则将对应匹配组合中的过渡线条按照对应两个元素的像素值进行渲染;
当所述像素差不为0时,判断所述像素差是否在取均值渲染范围内,若在,获取对应匹配组合中两个元素的像素均值对对应过渡线条进行渲染;
若所述像素差不在取均值渲染范围内,提取对应匹配对中第一元素的行向量以及第二元素的行向量,并基于向量分析模型对两个行向量进行过渡分析,获取得到渲染像素值,并按照所述渲染像素值对对应过渡线条进行渲染;
基于渲染结果,获取得到初始画面;
对所述初始画面进行像素平滑处理,构建得到过渡画面。
4.如权利要求1所述的基于虚拟场景的多人互动网络直播方法,其特征在于,确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置,包括:
捕捉所述观看设备是否进入虚拟场景,若进入,将进入时刻对应的位置视为默认观看位置;
建立所述默认观看位置与所述虚拟场景中每个虚拟位置的位置联系,并获取得到与所述默认观看位置匹配的第一虚拟位置。
5.如权利要求1所述的基于虚拟场景的多人互动网络直播方法,其特征在于,记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹,包括:
基于位移传感器记录对应观看设备的观看位置移动轨迹;
基于观看设备与虚拟场景的观看映射关系,获取与所述观看位置移动轨迹一致的虚拟观看轨迹。
6.如权利要求1所述的基于虚拟场景的多人互动网络直播方法,其特征在于,基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染,包括:
确定每个语音对象对应的语音渲染内容;
基于语音对象预测模型,预测每个语音对象基于虚拟场景的第一出现时刻以及语音轨道;
按照对应语音对象的语音渲染内容确定第一渲染线程,并在所述第一渲染线程上设置第一出现时刻的触发点;
捕捉按照对应渲染线程在匹配的语音轨道上进行实时渲染的实际渲染结果,且与预设渲染结果进行比较,确定第一渲染差异;
基于所述第一渲染差异优化所述语音轨道。
7.如权利要求1所述的基于虚拟场景的多人互动网络直播方法,其特征在于,对视频对象在虚拟观看轨迹中的视频轨道进行第二渲染,包括:
确定每个视频对象对应的视频渲染内容;
基于视频对象预测模型,预测每个视频对象基于虚拟场景的第二出现时刻以及视频轨道;
按照对应视频对象的视频渲染内容确定第二渲染线程,并在所述第二渲染线程上设置第二出现时刻的触发点;
捕捉按照对应渲染线程在匹配的视频轨道上进行实时渲染的实际渲染结果,且与预设渲染结果进行比较,确定第二渲染差异;
基于所述第二渲染差异优化所述视频轨道。
9.一种基于虚拟场景的多人互动网络直播系统,其特征在于,包括:
场景构建模块,用于构建基于直播设备的虚拟场景;
位置确定模块,用于确定每个观看设备的默认观看位置,并从所述虚拟场景中获取与所述默认观看位置匹配的第一虚拟位置;
轨迹确定模块,用于记录每个观看设备的观看位置移动轨迹,并按照所述观看位置移动轨迹向对应观看设备匹配相应的虚拟观看轨迹;
对象确定模块,用于当捕捉到当下时刻存在对应观看用户的直播互动请求时,按照所述直播互动请求确定需要渲染模式以及相应的语音对象、视频对象;
渲染模块,用于基于所述需要渲染模式对语音对象在虚拟观看轨迹中的语音轨道进行第一渲染以及对视频对象在虚拟观看轨迹中的视频轨道进行第二渲染,实现多人互动网络直播;
所述对象确定模块,用于:
确定当下时刻存在的直播互动请求的请求数量;
当所述请求数量超过直播连接数量上限时,对与直播互动请求匹配的观看设备的用户账号的信息浏览记录进行爬取;
按照爬取结果,确定对应用户账号的账号习惯;
根据所述账号习惯确定与对应直播内容的紧密程度;
将所述紧密程度从大到小排序,从所有直播互动请求中筛选与直播连接数量上限一致的观看设备进行连接;
对每个连接观看设备的直播互动请求进行请求解析,并从结果-模式数据库中,确定与请求解析结果匹配的需要渲染模式;
同时,对每个连接观看设备的直播互动请求进行请求拆分,并从拆分-对象数据库中,确定与每个拆分请求匹配的请求对象;
确定所述需要渲染模式的渲染条件,并将渲染条件与请求对象进行一一匹配,向每个请求对象匹配对应的渲染内容;
其中,所述请求对象包括:语音对象以及视频对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211341211.2A CN115396688B (zh) | 2022-10-31 | 2022-10-31 | 一种基于虚拟场景的多人互动网络直播方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211341211.2A CN115396688B (zh) | 2022-10-31 | 2022-10-31 | 一种基于虚拟场景的多人互动网络直播方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115396688A CN115396688A (zh) | 2022-11-25 |
CN115396688B true CN115396688B (zh) | 2022-12-27 |
Family
ID=84115087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211341211.2A Active CN115396688B (zh) | 2022-10-31 | 2022-10-31 | 一种基于虚拟场景的多人互动网络直播方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115396688B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117834949B (zh) * | 2024-03-04 | 2024-05-14 | 清华大学 | 基于边缘智能的实时交互预渲染方法及其装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105872575A (zh) * | 2016-04-12 | 2016-08-17 | 乐视控股(北京)有限公司 | 基于虚拟现实的直播方法及装置 |
CN109660818A (zh) * | 2018-12-30 | 2019-04-19 | 广东彼雍德云教育科技有限公司 | 一种虚拟互动直播系统 |
CN110602517A (zh) * | 2019-09-17 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 基于虚拟环境的直播方法、装置和系统 |
WO2020022405A1 (ja) * | 2018-07-25 | 2020-01-30 | 株式会社ドワンゴ | 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム |
CN112153400A (zh) * | 2020-09-22 | 2020-12-29 | 北京达佳互联信息技术有限公司 | 直播互动方法、装置、电子设备及存储介质 |
CN114071180A (zh) * | 2021-11-24 | 2022-02-18 | 上海哔哩哔哩科技有限公司 | 直播间展示方法及装置 |
CN114466202A (zh) * | 2020-11-06 | 2022-05-10 | 中移物联网有限公司 | 混合现实直播方法、装置、电子设备以及可读存储介质 |
CN114938459A (zh) * | 2022-05-16 | 2022-08-23 | 完美世界征奇(上海)多媒体科技有限公司 | 基于弹幕的虚拟直播互动方法、装置、存储介质及设备 |
-
2022
- 2022-10-31 CN CN202211341211.2A patent/CN115396688B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105872575A (zh) * | 2016-04-12 | 2016-08-17 | 乐视控股(北京)有限公司 | 基于虚拟现实的直播方法及装置 |
WO2020022405A1 (ja) * | 2018-07-25 | 2020-01-30 | 株式会社ドワンゴ | 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム |
CN109660818A (zh) * | 2018-12-30 | 2019-04-19 | 广东彼雍德云教育科技有限公司 | 一种虚拟互动直播系统 |
CN110602517A (zh) * | 2019-09-17 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 基于虚拟环境的直播方法、装置和系统 |
CN112153400A (zh) * | 2020-09-22 | 2020-12-29 | 北京达佳互联信息技术有限公司 | 直播互动方法、装置、电子设备及存储介质 |
CN114466202A (zh) * | 2020-11-06 | 2022-05-10 | 中移物联网有限公司 | 混合现实直播方法、装置、电子设备以及可读存储介质 |
CN114071180A (zh) * | 2021-11-24 | 2022-02-18 | 上海哔哩哔哩科技有限公司 | 直播间展示方法及装置 |
CN114938459A (zh) * | 2022-05-16 | 2022-08-23 | 完美世界征奇(上海)多媒体科技有限公司 | 基于弹幕的虚拟直播互动方法、装置、存储介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN115396688A (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022184117A1 (zh) | 基于深度学习的视频剪辑方法、相关设备及存储介质 | |
US8665374B2 (en) | Interactive video insertions, and applications thereof | |
US11475666B2 (en) | Method of obtaining mask frame data, computing device, and readable storage medium | |
CN108322788B (zh) | 一种视频直播中的广告展示方法及装置 | |
CN107105315A (zh) | 直播方法、主播客户端的直播方法、主播客户端及设备 | |
US20030098869A1 (en) | Real time interactive video system | |
US20170048597A1 (en) | Modular content generation, modification, and delivery system | |
US20180137363A1 (en) | System for the automated analisys of a sporting match | |
CN109145784A (zh) | 用于处理视频的方法和装置 | |
DE102020124815A1 (de) | System und vorrichtung für benutzergesteuerte virtuelle kamera für volumetrisches video | |
US9087380B2 (en) | Method and system for creating event data and making same available to be served | |
CN107295362A (zh) | 基于图像的直播内容筛选方法、装置、设备及存储介质 | |
CN115396688B (zh) | 一种基于虚拟场景的多人互动网络直播方法及系统 | |
CN112287848A (zh) | 基于直播的图像处理方法、装置、电子设备和存储介质 | |
CN1750618A (zh) | 在接收机上观看视听文档的方法和观看这种文档的接收机 | |
Yu et al. | Subjective and objective analysis of streamed gaming videos | |
CN113497946A (zh) | 视频处理方法、装置、电子设备和存储介质 | |
CN110324653A (zh) | 游戏互动交互方法及系统、电子设备及具有存储功能的装置 | |
Sabet et al. | A novel objective quality assessment method for perceptually-coded cloud gaming video | |
CN113784108A (zh) | 一种基于5g传输技术的vr旅游观光方法及系统 | |
CN114945097B (zh) | 视频流处理方法及装置 | |
US20220224958A1 (en) | Automatic generation of augmented reality media | |
CN108449362A (zh) | 基于虚拟现实成像的交互系统 | |
CN114079777B (zh) | 视频处理方法和装置 | |
KR102301076B1 (ko) | 방송 콘텐츠 처리를 위한 장치 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |