CN110602517A - 基于虚拟环境的直播方法、装置和系统 - Google Patents
基于虚拟环境的直播方法、装置和系统 Download PDFInfo
- Publication number
- CN110602517A CN110602517A CN201910877247.4A CN201910877247A CN110602517A CN 110602517 A CN110602517 A CN 110602517A CN 201910877247 A CN201910877247 A CN 201910877247A CN 110602517 A CN110602517 A CN 110602517A
- Authority
- CN
- China
- Prior art keywords
- live
- site
- virtual
- audience
- interactive behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及一种基于虚拟环境的方法、装置和系统,所述方法包括:虚拟现实设备向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;投影设备将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。本申请提供的方案可以使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动。
Description
技术领域
本申请涉及虚拟环境领域,特别是涉及一种基于虚拟环境的直播方法、装置、系统、计算机可读存储介质和计算机设备。
背景技术
随着虚拟环境领域的发展,出现了基于虚拟环境的直播技术,该直播技术主要是利用虚拟现实技术(Virtual Reality,VR)构建现场的虚拟环境,用户穿戴上虚拟现实设备则可以如置身于现场,而且用户可以自由地切换观看的视角,从而可以观看到不同视角观的现场画面,基于虚拟环境的直播技术可以使得用户的观看效果如同身处现场环境的观看效果。
然而,目前的基于虚拟环境的直播技术仅仅是用户单方面的观看直播的画面,而无法与现场的其他用户进行有效的互动。
因此,目前的直播方式存在着场外的用户无法与现场的用户进行有效的互动的问题。
发明内容
基于此,有必要针对场外的用户无法与现场的用户进行有效的互动的问题,提供一种基于虚拟环境的直播方法、装置、系统、计算机可读存储介质和计算机设备。
一种基于虚拟环境的直播方法,包括:
虚拟现实设备向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
投影设备将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种基于虚拟环境的直播方法,包括:
接收虚拟现实设备发送的第一互动行为;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
生成所述场外观众的现场虚拟替身,以及,根据所述场外观众的所述第一互动行为生成所述现场虚拟替身的第二互动行为;
控制投影设备将具有所述第二互动行为的所述现场虚拟替身投影至所述直播现场。
一种基于虚拟环境的直播方法,包括:
向场外观众显示直播现场的现场虚拟环境;
捕捉所述场外观众在所述现场虚拟环境中的第一互动行为,供投影设备将具有所述第二互动行为的现场虚拟替身投影至所述直播现场;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种基于虚拟环境的直播方法,包括:
接收服务器的投影控制信息;所述投影控制信息根据所述服务器接收虚拟现实设备发送的第一互动行为所生成;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
根据所述投影控制信息,将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种直播系统,包括:
虚拟现实设备和投影设备;
所述虚拟现实设备,用于向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
所述投影设备,用于将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种直播装置,包括:
接收模块,用于接收虚拟现实设备发送的第一互动行为;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
生成模块,用于生成所述场外观众的现场虚拟替身,以及,根据所述场外观众的所述第一互动行为生成所述现场虚拟替身的第二互动行为;
控制模块,用于控制投影设备将具有所述第二互动行为的所述现场虚拟替身投影至所述直播现场。
一种直播装置,包括:
显示模块,用于向场外观众显示直播现场的现场虚拟环境;
行为捕捉模块,用于捕捉所述场外观众在所述现场虚拟环境中的第一互动行为,供投影设备将具有所述第二互动行为的现场虚拟替身投影至所述直播现场;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种直播装置,包括:
信息接收模块,用于接收服务器的投影控制信息;所述投影控制信息根据所述服务器接收虚拟现实设备发送的第一互动行为所生成;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
替身投影模块,用于根据所述投影控制信息,将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
上述基于虚拟环境的直播方法、装置、系统、计算机可读存储介质和计算机设备,通过虚拟现实设备显示直播现场的现场虚拟环境,并捕捉场外观众在现场虚拟环境中的第一互动行为,由投影设备将具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
而且,上述的直播方法还可以使得直播现场中的现场观众与直播现场之外的场外观众通过现场虚拟替身的第二互动行为进行互动,而不仅仅局限于文字、语音的互动,解决了传统的直播方法中现场观众无法与场外观众进行充分的互动的问题。
而且,上述的直播方法还可以使得直播现场之外的场外观众之间,可以在直播现场中通过现场虚拟替身的第二互动行为进行互动,而不仅仅局限于文字、语音的互动,解决了传统的直播方法中场外观众之间无法在直播现场中进行充分的互动的问题。
附图说明
图1为一个实施例中一种基于虚拟环境的直播方法的应用环境图;
图2为一个实施例中一种基于虚拟环境的直播方法的流程示意图;
图3为一个实施例中一种直播现场的场景示意图;
图4为一个实施例中一种现场虚拟环境的示意图;
图5A为一个实施例中一种现场虚拟替身的互动行为的示意图之一;
图5B为一个实施例中一种现场虚拟替身的互动行为的示意图之二;
图6A为一个实施例中一种在直播现场中进行互动的示意图之一;
图6B为一个实施例中一种在直播现场中进行互动的示意图之二;
图6C为一个实施例中一种在直播现场中进行互动的示意图之三;
图7A为一个实施例中一种场外观众在直播现场中进行互动的示意图之一;
图7B为一个实施例中一种场外观众在直播现场中进行互动的示意图之二;
图8A为一个实施例中一种基于虚拟替身位置进行投影的示意图之一;
图8B为一个实施例中一种基于虚拟替身位置进行投影的示意图之二;
图8C为一个实施例中一种基于虚拟替身位置进行投影的示意图之三;
图9为一个实施例中一种移动现场虚拟替身的示意图;
图10为一个实施例中一种虚拟现实设备的显示界面的示意图;
图11为一个实施例中另一种基于虚拟环境的直播方法的流程示意图;
图12为一个实施例中又一种基于虚拟环境的直播方法的流程示意图;
图13为一个实施例中又一种基于虚拟环境的直播方法的流程示意图;
图14A为一个实施例中一种直播系统的结构框图;
图14B为一个实施例中另一种直播系统的结构框图;
图14C为一个实施例中一种直播系统的应用场景的示意图;
图15为一个实施例中一种具体的直播流程的时序图;
图16为一个实施例中一种直播装置的结构框图;
图17为一个实施例中另一种直播装置的结构框图;
图18为一个实施例中另一种直播装置的结构框图;
图19为一个实施例中计算机设备的结构框图;
图20A为一个实施例的一种数据共享系统的结构框图;
图20B为一个实施例的一种区块链的数据结构的示意图;
图20C为一个实施例的一种新区块产生过程的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中一种基于虚拟环境的直播方法的应用环境图。参照图1,该直播方法可以应用于直播系统。该直播系统可以包括虚拟现实设备110和投影设备120。
其中,虚拟现实设备110可以具有虚拟环境的显示功能。虚拟环境的显示功能为基于虚拟现实技术显示虚拟环境画面的功能。虚拟现实技术可以为通过对真实环境采集三维数据,并基于该三维数据构建虚拟环境的技术。通过虚拟现实设备110,用户可以在虚拟环境中观看到真实环境中的画面。用户还可以调整在虚拟环境中的观看角度,以看到真实环境中不同角度的画面。虚拟显示设备110具体可以为可穿戴VR眼镜、可穿戴VR头盔等的设备。
此外,虚拟现实设备110还可以具有通过各种方式捕捉用户行为的功能。
例如,虚拟现实设备110可穿戴在用户的头部,虚拟现实设备110上的表情传感器可以通过内置的相机对用户的脸部进行拍摄,对拍摄的脸部照片进行识别,从而捕捉到用户实时的脸部表情。
又例如,虚拟现实设备110可以具有传感手柄,用户可以手握传感手柄进行挥手等的肢体动作,传感手柄可以通过内置的陀螺仪检测到移动方向和移动速度,并以该移动方向和移动速度作为用户的手部的移动方向和移动速度,从而捕捉到用户实时的肢体动作。
又例如,虚拟现实设备110可以通过光学传感器实现肢体动作的捕捉,更具体地,该光学传感器通过激光发射器对用户所处的特定空间进行激光扫描,并根据光学传感器中的激光接收器感应接收到的激光,通过激光到达激光接收器的位置定位用户肢体的位置,从而捕捉到用户实时的肢体动作。
又例如,虚拟现实设备110可以通过内置的声音采集装置采集用户的声音,从而捕捉到用户实时的声音。
当然,虚拟现实设备110还可以通过其他方式捕捉用户的行为,本申请实施例对捕捉用户的行为的具体实现方式不作限制。
其中,投影设备120可以为具有投影功能的设备。投影设备120可以在平面投影板上投射平面影像。
投影设备120还可以通过立体投影技术在指定的空间上投射三维的立体影像。立体投影技术是利用干涉和衍射原理记录并再现物体真实的三维图像的技术。该立体影像在空间中实际上为平面影像,用户可以裸眼看到三维的立体效果,因此,立体影像又称为伪全息影像。
投影设备120还可以通过全息投影技术在指定的空间上投射三维的全息影像。全息投影技术是利用激光发射在空间中的全息介质上形成全息影像的技术。该全息影像在空间中为三维的立体影像。
如图2所示,在一个实施例中,提供了一种基于虚拟环境的直播方法。本实施例主要以该方法应用于上述图1中的直播系统来举例说明。参照图2,该直播方法具体包括如下步骤:
S202,虚拟现实设备向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为。
其中,现场虚拟环境可以为直播现场的虚拟环境。
其中,第一互动行为可以为用户与现场虚拟环境进行互动的行为。
在一个实施例中,第一互动行为可以包括肢体动作、面部表情、声音中的至少一种。第一互动行为可以为场外观众的肢体动作,例如,场外观众手部挥手、鼓掌等的动作,可以作为肢体动作。第一互动行为可以为场外观众的面部表情,例如,场外观众脸部微笑、惊讶等的表情,可以作为面部表情。第一互动行为还可以为场外观众发出的声音,例如,场外观众说话的声音,鼓掌的声音。
需要说明的是,本实施例的直播方法可以应用于需要进行现场直播的应用场景中,例如,演唱会、会议、课堂等的应用场景,在上述的应用场景通常包括有处于直播现场中的现场观众,还包括有处于场外的通过网络观看直播现场的场外观众。在演唱会、会议、课堂等的应用场景中,通过传统的直播方式,场外观众局限于文字、语音的方式与现场观众进行互动,难以进行充分的互动。将本实施例的直播方法应用于上述的应用场景中,可以使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的真实环境进行充分有效的互动。
图3是一个实施例的一种直播现场的场景示意图,参考图3,在一个直播现场中,包括有多个现场观众303,现场观众303在直播现场中观看节目表演。此外,在直播现场之外的场外观众301,则可以通过虚拟现实设备110观看直播现场的现场虚拟环境。
具体实现中,直播现场中可以设置有多个全景摄像设备,全景摄像设备在不同的视角对直播现场进行拍摄,拍摄得到多个视角的直播现场画面,并将拍摄到的直播现场画面发送一个用于生成现场虚拟环境的服务器,为了区分说明,该服务器命名为虚拟环境合成服务器。
虚拟环境合成服务器可以接收到各个全景设备拍摄的多个视角的直播现场画面,并通过三维建模算法将多个视角的直播现场画面合成为有多个不同视角的画面组成的现场虚拟环境,虚拟环境合成服务器可以根据场外观众选定的视角生成在现场虚拟环境中观看到的画面,作为上述的现场虚拟环境,发送至虚拟现实设备110。
虚拟现实设备110可以接收到虚拟环境合成服务器发送的现场虚拟环境,并向场外观众301显示该现场虚拟环境,由此,场外观众301可以通过虚拟现实设备110观看到直播现场的现场虚拟环境。
在图3的基础上,图4示出了一个实施例的一种现场虚拟环境的示意图。参考图4,场外观众301在虚拟现实设备110显示的现场虚拟环境中,观看到直播现场的环境和直播现场中的多个现场观众303。
虚拟现实设备110可以检测到场外观众301抬头、扭头等的用于调整不同视角的操作,虚拟现实设备110可以相应显示不同视角的现场虚拟环境,场外观众301可以自由地变换观看现场虚拟环境的视角,使得场外观众301的观看效果与在直播现场中的观看效果一致。
虚拟现实设备110还可以捕捉场外观众301的第一互动行为。场外观众301在观看直播现场的现场虚拟环境时,可以根据现场虚拟环境中人或物,做出各种肢体动作、面部表情等的互动行为,虚拟现实设备110可以捕捉场外观众301做出的互动行为,作为上述的第一互动行为。
例如,场外观众301通过虚拟现实设备110观看节目表演时,进行了笑的面部表情,虚拟现实设备110可以捕捉场外观众301进行笑的面部表情。又例如,场外观众301感受到直播现场热烈的气氛环境后进行鼓掌的肢体动作,虚拟现实设备110可以捕捉场外观众301进行鼓掌的肢体动作。又例如,场外观众301看到直播现场中的现场观众303,场外观众301可以挥手,以与现场观众303交流,虚拟现实设备110可以捕捉场外观众301挥手的肢体动作。又例如,场外观众301看到精彩的节目表演时发出“精彩”的喊声、进行鼓掌的声音、发出的笑声。
S204,投影设备将场外观众的现场虚拟替身投影至直播现场;现场虚拟替身具有第二互动行为;现场虚拟替身的第二互动行为根据场外观众的第一互动行为生成。
其中,现场虚拟替身可以为通过投影设备120投影至直播现场的代表场外观众的替身的影像。现场虚拟替身的影像形式可以具体为立体影像或全息影像。
具体实现中,虚拟现实设备110捕捉到场外观众301的第一互动行为之后,可以根据该第一互动行为生成相应的互动行为数据,并发送互动行为数据至用于控制投影设备120进行投影的服务器,为了区分说明,该服务器命名为虚拟替身服务器。虚拟替身服务器根据互动行为数据,生成场外观众的现场虚拟替身以及该现场虚拟替身的第二互动行为,并控制投影设备120将进行第二互动行为的现场虚拟替身投影在直播现场中。
在实际应用中,虚拟现实设备110也可以直接将互动行为数据发送至投影设备120,由投影设备120根据互动行为数据,生成场外观众的现场虚拟替身以及该现场虚拟替身的第二互动行为。
例如,参考图3,投影设备120将场外观众301的现场虚拟替身302投影在直播现场中,直播现场中的现场观众303可以看到该现场虚拟替身302。
实际应用中,投影设备120所投影的现场虚拟替身302的第二互动行为可以与虚拟现实设备110捕捉到的场外观众301的第一互动行为一致。
例如,图5A示出了一个实施例的一种现场虚拟替身的互动行为的示意图之一,虚拟现实设备110可以捕捉场外观众301进行笑的面部表情,投影设备120所投影的现场虚拟替身302则可以出现笑的面部表情,现场观众303可以观看到现场虚拟替身302进行笑的面部表情。
例如,图5B示出了一个实施例的一种现场虚拟替身的互动行为的示意图之二,虚拟现实设备110可以捕捉场外观众301进行笑的面部表情和进行挥手的肢体动作,投影设备120所投影的现场虚拟替身则可以出现笑的面部表情和挥手的肢体动作,现场观众303可以观看到现场虚拟替身302进行笑的面部表情和挥手的肢体动作。
实际应用中,现场虚拟替身302的第二互动行为可以与场外观众301的第一互动行为同步,以保证场外观众301在直播现场与其他现场观众303进行互动的实时性。
在一个实施例中,投影设备120投影在直播现场的现场虚拟替身可以为立体影像和/或全息影像,例如,投影设备120具体为立体投影设备,该立体投影设备可以通过立体投影技术,根据场外观众301的形象生成三维的立体影像并在直播现场的指定空间上进行投射,现场观众303可以在该指定空间上看到以三维的立体影像显示的现场虚拟替身302。
实际应用中,该现场虚拟替身302的形象可以为场外观众301的真实形象。具体地,虚拟现实设备110可以拍摄场外观众301,根据拍摄的图像生成场外观众的相貌、身高、体型等的形象,作为现场虚拟替身302的形象。当然,该现场虚拟替身302的形象还可以为根据场外观众301的真实形象所生成的动画形象,本实施例对现场虚拟替身的形象不作限制。
通过虚拟现实设备110显示的直播现场的现场虚拟环境、虚拟现实设备110对场外观众301的第一互动行为的捕捉、投影设备120在直播现场中投影具有第二互动行为的现场虚拟替身302,场外观众301可以通过现场虚拟替身302与在直播现场中的现场观众303进行互动。
图6A是一个实施例的一种在直播现场中进行互动的示意图之一。参考图6A,现场观众303在看到投影设备120投影在直播现场中的现场虚拟替身302之后,现场观众303可以向现场虚拟替身302微笑。
图6B是一个实施例的一种在直播现场中进行互动的示意图之二。参考图6B,场外观众301通过虚拟现实设备110观看直播现场的现场虚拟环境时,可以看到直播现场中的现场观众303向其微笑。
图6C是一个实施例的一种现场观众与场外观众在直播现场中进行互动的示意图之三。参考图6C,场外观众301可以做出微笑的面部表情,虚拟现实设备110捕捉到场外观众301可以做出微笑的第一互动行为,投影设备120投影在直播现场的现场虚拟替身302做出微笑的第二互动行为。由此,现场观众与场外观众通过上述的方式在直播现场中进行互动。
通过虚拟现实设备110显示的直播现场的现场虚拟环境、虚拟现实设备110对场外观众301的第一互动行为的捕捉、投影设备120在直播现场中投影具有第二互动行为的现场虚拟替身302,场外观众301还可以通过现场虚拟替身302与在其他场外观众进行互动。
图7A是一个实施例的一种场外观众之间在直播现场中进行互动的示意图之一。参考图7,在直播现场之外存在有场外观众301和场外观众304,分别通过虚拟现实设备110和虚拟现实设备130观看直播现场的现场虚拟环境。投影设备120可以将场外观众301和场外观众304各自的现场虚拟替身投影至直播现场。场外观众301可以在虚拟现实设备110显示的现场虚拟环境中,观看到场外观众304的现场虚拟替身305,场外观众304也可以在虚拟现实设备130显示的现场虚拟环境中,观看到场外观众301的现场虚拟替身302。
图7B是一个实施例的一种场外观众之间在直播现场中进行互动的示意图之二。参考图7,场外观众301可以向场外观众304的现场虚拟替身305进行微笑的第一互动行为,虚拟现实设备110捕捉该第一互动行为,场外观众301的现场虚拟替身302也会相应进行微笑的第二互动行为。场外观众304也可以在现场虚拟环境看到现场虚拟替身302在微笑,场外观众304可以做出挥手的第一互动行为,虚拟现实设备130捕捉该第一互动行为,场外观众304的现场虚拟替身305也会相应进行挥手的第二互动行为。场外观众301可以在虚拟现实设备110显示的现场虚拟环境看到现场虚拟替身305在挥手。由此,场外观众之间通过上述的方式在直播现场中进行互动。
上述的直播方法中,通过虚拟现实设备显示直播现场的现场虚拟环境,并捕捉场外观众在现场虚拟环境中的第一互动行为,由投影设备将具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
而且,上述的直播方法还可以使得直播现场中的现场观众与直播现场之外的场外观众通过现场虚拟替身的第二互动行为进行互动,而不仅仅局限于文字、语音的互动,解决了传统的直播方法中现场观众无法与场外观众进行充分的互动的问题。
而且,上述的直播方法还可以使得直播现场之外的场外观众之间,可以在直播现场中通过现场虚拟替身的第二互动行为进行互动,而不仅仅局限于文字、语音的互动,解决了传统的直播方法中场外观众之间无法在直播现场中进行充分的互动的问题。
在一个实施例中,场外观众在直播现场中具有对应的虚拟替身位置,所述现场虚拟环境根据所述现场虚拟替身在所述虚拟替身位置上观看到的画面生成,上述的步骤S202,可以具体包括:投影设备在直播现场中的虚拟替身位置上投影场外观众的现场虚拟替身。
其中,虚拟替身位置可以为直播现场中的用于投影现场虚拟替身的位置。
具体实现中,可以在直播现场中预设一个位置作为虚拟替身位置,虚拟现实设备110向场外观众301所显示的现场虚拟环境,可以根据现场虚拟替身在虚拟替身位置上观看到的画面所生成。更具体地,确定虚拟替身位置之后,虚拟环境合成服务器可以根据虚拟替身位置在虚拟替身位置的视角上所观看到的画面,合成现场虚拟环境,并将该现场虚拟环境发送至虚拟现实设备110。由此,虚拟现实设备110显示的现场虚拟环境,即为现场虚拟替身在虚拟替身位置上观看到的画面。投影设备120在投影时,则可以基于虚拟替身位置投影现场虚拟替身,以使得现场虚拟替身投影在直播现场的虚拟替身位置上。
图8A是一个实施例的一种投影设备基于虚拟替身位置进行投影的示意图之一。参考图8A,可以在直播现场中设定场外观众301的虚拟替身位置306,由此可以确定现场虚拟替身在虚拟替身位置306上观看的视角如图中虚线箭头所示,现场虚拟替身在虚拟替身位置306上所观看到的画面中包含有正在挥手的现场观众303。根据该视角可以生成相应的现场虚拟环境。
图8B是一个实施例的一种投影设备基于虚拟替身位置进行投影的示意图之二。参考图8B,场外观众301通过虚拟现实设备110所看到的画面,与现场虚拟替身在虚拟替身位置306上所观看到的画面一致,均包含有正在挥手的现场观众303。
图8C是一个实施例的一种投影设备基于虚拟替身位置进行投影的示意图之三。投影设备120可以在虚拟替身位置306上投影场外观众301的现场虚拟替身302。
需要说明的是,如果场外观众301所看到的现场虚拟环境并非现场虚拟替身在虚拟替身位置上观看到的画面,则可能由于会导致无效有效地进行互动的问题。例如,场外观众301所看到的画面为现场虚拟替身在虚拟替身位置A上观看到的画面,而实际上现场虚拟替身投影在虚拟替身位置B,当场外观众针对虚拟替身位置A上观看到的画面作出互动行为时,现场虚拟替身投影则会在虚拟替身位置B作出互动行为,无法有效地进行互动。
上述的直播方法,通过在直播现场中的虚拟替身位置上投影现场虚拟替身,使得场外观众实际观看到的画面与现场虚拟替身在虚拟替身位置上所观看到的画面保持一致,从而避免了由于场外观众所看到的画面并非现场虚拟替身在虚拟替身位置上观看到的画面而导致无效有效地进行互动的问题。
在一个实施例中,上述的直播方法,可以还包括:
虚拟现实设备捕捉场外观众的移动行为;移动行为用于调整场外观众在直播现场中的虚拟替身位置。
其中,移动行为可以为场外观众的移动行为,例如,场外观众向前移动等的行为。
具体实现中,虚拟现实设备110可以内置有陀螺仪等的反向感应装置,场外观众301穿戴上虚拟现实设备110进行移动时,虚拟现实设备110可以通过陀螺仪感应到移动的方向和速度,作为上述的移动行为。虚拟现实设备110捕捉到的移动行为,可以生成相应的移动行为数据。
根据该移动行为数据,可以调整虚拟替身位置,从而控制现场虚拟替身302在直播现场中移动。例如,可以根据移动行为数据移动投影设备120,从而调整了虚拟替身位置。又例如,可以根据移动行为数据控制投影设备120调整投影的位置,从而调整了虚拟替身位置。
图9是一个实施例的一种移动现场虚拟替身的示意图。参考图9,场外观众301向前移动,虚拟现实设备110捕捉到场外观众301向前移动的移动行为,投影设备120按照移动行为相应地调整虚拟替身位置,从而向前移动现场虚拟替身302。
实际应用中,当虚拟现实设备110捕捉到场外观众301的移动行为,可以相应地根据移动行为变换现场虚拟环境。例如,场外观众301向前移动,现场虚拟环境则可以变换为现场虚拟替身302在直播现场向前移动后所看到的画面。
在一个实施例中,当第一互动行为为所述声音时,上述的直播方法可以还包括:
在直播现场播放现场观众的声音。
具体实现中,虚拟现实设备110可以通过内置的声音采集装置采集场外观众301在现场虚拟环境中发出的声音。在直播现场中可以设置有语音播放器,用于播放虚拟现实设备110捕捉到的场外观众301的声音,作为现场虚拟替身发出的声音。实际应用中,也可以由具有声音播放功能的投影设备120播放场外观众301的声音,作为现场虚拟替身发出的声音。
上述的直播方法中,通过虚拟现实设备捕捉场外观众的声音,并在直播现场播放,使得场外观众可以通过声音的方式在直播现场中进行互动。
在一个实施例中,上述的直播方法,可以还包括:
虚拟现实设备向场外观众显示现场虚拟替身的行为虚拟现实动画;行为虚拟现实动画根据现场虚拟替身的第二互动行为生成。
其中,行为虚拟现实动画可以为反映现场虚拟替身的第二互动行为的虚拟现实动画。
具体实现中,上述的虚拟替身服务器可以针对现场虚拟替身的第二互动行为生成行为虚拟现实动画。
行为虚拟现实动画用于展示现场虚拟替身的第二互动行为。例如,场外观众做出挥手的第一互动行为,现场虚拟替身相应做出挥手的第二互动行为,行为虚拟现实动画则展示现场虚拟替身做出挥手该第二互动行为。
针对于如VR眼镜、VR头盔等穿戴式的虚拟现实设备,现场观众无法看到自身的互动行为,也无法在现场虚拟环境中看到现场虚拟替身的第二互动行为,可能存在着现场虚拟替身的第二互动行为不符合现场观众的需求的问题。
上述的直播方法通过虚拟现实设备显示行为虚拟现实动画,使得场外观众可以观看到现场虚拟替身的第二互动行为,并根据行为虚拟现实动画调整自身的第一互动行为,以调整现场虚拟替身在直播现场中的第二互动行为,解决了现场虚拟替身的第二互动行为不符合现场观众的需求的问题。
实际应用中,虚拟现实设备上所显示的行为虚拟现实动画,也可以根据另一场外观众的现场虚拟替身的第二互动行为生成。使得场外观众之间可以通过虚拟现实设备所显示的行为虚拟现实动画进行互动,场外观众之间可以更有效地进行互动。
需要说明的是,虚拟现实设备110的显示界面上可以同时显示现场虚拟环境和行为虚拟现实动画。图10是一个实施例的一种虚拟现实设备的显示界面的示意图,参考图10,虚拟现实设备110的显示界面可以在右侧显示现场虚拟环境,在该现场虚拟环境中,可以包含有现场观众303和另一场外观众的现场虚拟替身307,在左侧显示场外观众自身的现场虚拟替身的行为虚拟现实动画308和另一场外观众的现场虚拟替身的行为虚拟现实动画309。
如图11所示,在一个实施例中,提供了一种基于虚拟环境的直播方法,本实施例主要以该方法应用于上述图1中的虚拟现实设备110来举例说明。参照图11,该直播方法具体包括如下步骤:
S1102,向场外观众显示直播现场的现场虚拟环境;
S1104,捕捉场外观众在所述现场虚拟环境中的第一互动行为,供投影设备将具有第二互动行为的现场虚拟替身投影至直播现场;现场虚拟替身的第二互动行为根据场外观众的第一互动行为生成。
具体实现中,虚拟现实设备110可以接收到虚拟环境合成服务器发送的现场虚拟环境,并向场外观众301显示该现场虚拟环境,虚拟现实设备110还可以捕捉场外观众301在观看现场虚拟环境时做出的第一互动行为,供投影设备120将场外观众的现场虚拟替身投影至直播现场,其中,现场虚拟替身具有第二互动行为,现场虚拟替身的第二互动行为根据场外观众的第一互动行为生成。
由于虚拟现实设备110的处理过程在前述实施例中已有详细说明,在此不再赘述。
上述的直播方法中,通过虚拟现实设备显示直播现场的现场虚拟环境,并捕捉场外观众对于现场虚拟环境的第一互动行为,由投影设备将场外观众的、具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
如图12所示,在一个实施例中,提供了一种基于虚拟环境的直播方法,本实施例主要以该方法应用于上述图1中的投影设备120来举例说明。参照图12,该直播方法具体包括如下步骤:
S1202,接收服务器的投影控制信息;投影控制信息根据服务器接收虚拟现实设备发送的第一互动行为所生成;虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;第一互动行为由虚拟现实设备对场外观众在现场虚拟环境中的互动行为进行捕捉得到;
S1204,根据投影控制信息,将场外观众的现场虚拟替身投影至直播现场;现场虚拟替身具有第二互动行为;现场虚拟替身的第二互动行为根据场外观众的第一互动行为生成。
具体实现中,虚拟替身服务器可以接收到虚拟现实设备110对场外观众捕捉到的第一互动行为。虚拟替身服务器生成场外观众的现场虚拟替身,并根据第一互动行为生成现场虚拟替身的第二互动行为。虚拟替身服务器可以通过发送投影控制信息的方式,控制投影设备120将进行第二互动行为的现场虚拟替身投影在直播现场中。投影设备120在接收到虚拟替身服务器发送的投影控制信息时,可以根据投影控制信息,将进行第二互动行为的现场虚拟替身投影在直播现场中。由于投影设备120的处理过程在前述实施例中已有详细说明,在此不再赘述。
上述的直播方法中,通过虚拟现实设备显示直播现场的现场虚拟环境画面,并捕捉场外观众在现场虚拟环境中的第一互动行为,由投影设备将具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境画面的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
如图13所示,在一个实施例中,提供了一种基于虚拟环境的直播方法,本实施例主要以该方法应用于上述的虚拟替身服务器来举例说明。参照图13,该直播方法具体包括如下步骤:
S1302,接收虚拟现实设备发送的第一互动行为;虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;第一互动行为由虚拟现实设备对场外观众在现场虚拟环境中的互动行为进行捕捉得到;
S1304,生成场外观众的现场虚拟替身,以及,根据场外观众的第一互动行为生成现场虚拟替身的第二互动行为;
S1306,控制投影设备将具有第二互动行为的现场虚拟替身投影至直播现场。
具体实现中,虚拟替身服务器可以接收到虚拟现实设备对场外观众捕捉到的第一互动行为。虚拟替身服务器生成场外观众的现场虚拟替身,并根据第一互动行为生成现场虚拟替身的第二互动行为。虚拟替身服务器可以根据现场虚拟替身和第二互动行为生成投影控制信息,将投影控制信息发送至投影设备120,以控制投影设备120将进行第二互动行为的现场虚拟替身投影在直播现场中。由于虚拟现实设备110和投影设备120的处理过程在前述实施例中已有详细说明,在此不再赘述。
上述的直播方法中,通过接收用于向场外观众显示直播现场的现场虚拟环境的虚拟现实设备所发送的第一互动行为,生成场外观众的现场虚拟替身,以及根据虚拟现实设备所捕捉到的场外观众在现场虚拟环境中的第一互动行为,生成现场虚拟替身的第二互动行为,并控制投影设备将场外观众的、具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
如图14A所示,在一个实施例中,提供了一种直播系统1400,该直播系统1400可以包括:虚拟现实设备1410和投影设备1420。
虚拟现实设备1410,用于向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
投影设备1420,用于将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
由于虚拟现实设备1410和投影设备1420的处理过程在前述实施例中已有详细说明,在此不再赘述。
上述的直播系统中,通过虚拟现实设备显示直播现场的现场虚拟环境,并捕捉场外观众在现场虚拟环境中的第一互动行为,由投影设备将具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
在图14A的基础上,图14B示出了一个实施例中的另一种直播系统1400,该直播系统1400中的虚拟现实设备1410可以有多个,该直播系统1400可以还包括:
全景摄像设备1430、虚拟环境合成服务器1440、虚拟替身服务器1450和电视直播设备1460;
全景摄像设备1430,用于对直播现场进行多视角的全景拍摄,得到多个视角的直播现场画面;
虚拟环境合成服务器1440,用于将多个视角的直播现场画面合成为现场虚拟环境,并将现场虚拟环境发送至虚拟现实设备1410;
虚拟替身服务器1450,用于接收所述虚拟现实设备发送的所述第一互动行为,生成所述场外观众的现场虚拟替身,根据所述场外观众的所述第一互动行为生成所述现场虚拟替身的第二互动行为,并控制所述投影设备将具有所述第二互动行为的所述现场虚拟替身投影至所述直播现场;
电视直播设备1460,用于对直播现场进行电视直播。
具体实现中,可以在直播现场的不同视角分别部署多个全景摄像设备1430,多个全景摄像设备1430分别得到了不同视角的直播现场画面,并发送至虚拟环境合成服务器1440。虚拟环境合成服务器1440接收到不同视角的直播现场画面,将不同视角的直播现场画面合成为现场虚拟环境,并将现场虚拟环境发送至虚拟现实设备1410,供虚拟现实设备1310向场外观众显示现场虚拟环境。
虚拟替身服务器1450可以生成场外观众的现场虚拟替身,并接收到虚拟现实设备1410捕捉到的第一互动行为,虚拟替身服务器1450根据第一互动行为生成现场虚拟替身的第二互动行为,并控制投影设备1420在直播现场中投影具有该第二互动行为的现场虚拟替身。
电视直播设备1460则可以对包含有现场观众、场外观众的现场虚拟替身的直播现场进行电视直播,电视观众则可以观看到直播现场中的现场观众和场外观众的现场虚拟替身。
在一个实施例中,虚拟环境合成服务器1440与虚拟现实设备1410之间可以基于5G技术(5th Generation Mobile Network,第五代移动通信技术)进行通信。具体地,虚拟环境合成服务器1340可以将合成为现场虚拟环境转换为基于5G通信协议的5G数据格式,通过5G网络将5G数据格式的现场虚拟环境发送至虚拟现实设备1310。由于通过虚拟现实设备显示直播现场的现场虚拟环境时,要求较高的实时性,而将多视角全景画面通过三维建模算法合成现场虚拟环境需要较大的数据传输量,如果网络的通信延迟严重,则无法保证虚拟现实设备显示直播现场的现场虚拟环境时所需的实时性。因此,虚拟环境合成服务器1440与虚拟现实设备1410之间基于5G技术进行通信,可以保证显示直播现场的现场虚拟环境时所需的实时性。
在图14B的基础上,图14C示出了一个实施例中的一种直播系统的应用场景的示意图。图15示出了一个实施例的一种具体的直播流程的时序图。以下将结合图14C和图15进行说明。参考图15,在一个具体的直播流程中,可以包括以下步骤:
S1502,全景摄像设备1430对直播现场进行多视角的全景拍摄,得到多个视角的直播现场画面;
S1504,全景摄像设备1430将直播现场画面发送至虚拟环境合成服务器1440;
S1506,虚拟环境合成服务器1440将多个视角的直播现场画面合成为现场虚拟环境;
S1508,虚拟环境合成服务器1440将现场虚拟环境发送至虚拟现实设备1410;
S1510,虚拟现实设备1410显示现场虚拟环境;
S1512,虚拟现实设备1410捕捉场外观众的第一互动行为;
S1514,虚拟现实设备1410发送第一互动行为至虚拟替身服务器1450;
S1516,虚拟替身服务器1450生成现场虚拟替身,根据第一互动行为生成现场虚拟提升的第二互动行为;
S1518,投影设备1420在直播现场中投影具有第二互动行为的现场虚拟替身。
应该理解的是,虽然上述的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图16所示,在一个实施例中,提供了一种直播装置1600,包括:
显示模块1602,用于向场外观众显示直播现场的现场虚拟环境;
行为捕捉模块1604,用于捕捉所述场外观众在所述现场虚拟环境中的第一互动行为,供投影设备将具有所述第二互动行为的现场虚拟替身投影至所述直播现场;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
上述的直播装置,通过虚拟现实设备显示直播现场的现场虚拟环境,并捕捉场外观众在现场虚拟环境中的第一互动行为,由投影设备将具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
在一个实施例中,所述第一互动行为包括肢体动作、面部表情、声音中的至少一种。
在一个实施例中,所述场外观众在所述直播现场中具有对应的虚拟替身位置,所述现场虚拟环境根据所述现场虚拟替身在所述虚拟替身位置上观看到的画面生成。
在一个实施例中,直播装置1600,可以还包括:
移动行为捕捉模块,用于捕捉所述场外观众的移动行为;所述移动行为用于调整所述场外观众在所述直播现场中的所述虚拟替身位置。
在一个实施例中,直播装置1600,可以还包括:
动画显示模块,用于向所述场外观众显示所述现场虚拟替身的行为虚拟现实动画;所述行为虚拟现实动画根据所述现场虚拟替身的所述第二互动行为生成。
如图17所示,在一个实施例中,提供了一种直播装置1700,包括:
信息接收模块1702,用于接收服务器的投影控制信息;所述投影控制信息根据所述服务器接收虚拟现实设备发送的第一互动行为所生成;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
替身投影模块1704,用于根据所述投影控制信息,将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
上述的直播装置,通过虚拟现实设备显示直播现场的现场虚拟环境画面,并捕捉场外观众对于现场虚拟环境画面的互动行为,由投影设备将场外观众的、具有互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境画面的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
在一个实施例中,所述直播装置1700,还具体用于:将所述场外观众的现场虚拟替身投影在所述直播现场中的虚拟替身位置上。
在一个实施例中,所述直播装置1700,还具体用于:调整所述场外观众在所述直播现场中的所述虚拟替身位置。
在一个实施例中,所述直播装置1700,还具体用于:在所述直播现场播放所述现场观众的所述声音。
如图18所示,在一个实施例中,提供了一种直播装置1800,包括:
接收模块1802,用于接收虚拟现实设备发送的第一互动行为;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
生成模块1804,用于生成所述场外观众的现场虚拟替身,以及,根据所述场外观众的所述第一互动行为生成所述现场虚拟替身的第二互动行为;
控制模块1806,用于控制投影设备将具有所述第二互动行为的所述现场虚拟替身投影至所述直播现场。
上述的直播装置,通过接收用于向场外观众显示直播现场的现场虚拟环境的虚拟现实设备所发送的第一互动行为,生成场外观众的现场虚拟替身,以及根据虚拟现实设备所捕捉到的场外观众在现场虚拟环境中的第一互动行为,生成现场虚拟替身的第二互动行为,并控制投影设备将场外观众的、具有第二互动行为的现场虚拟替身投影至直播现场,使得场外观众在观看到直播现场真实的现场虚拟环境的同时,还可以与在直播现场中的现场观众和直播现场的环境进行充分有效的互动,解决了传统的直播方法中场外观众仅仅可以观看直播现场的画面而无法进行互动的问题。
图19示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图16中的直播装置1600、图17中的直播装置1700或图18中的直播装置1800。如图17所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现一种基于虚拟环境的直播方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行基于虚拟环境的直播方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图19中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的直播装置可以实现为一种计算机程序的形式,计算机程序可在如图19所示的计算机设备上运行。计算机设备的存储器中可存储组成该直播装置的各个程序模块,比如,图16所示的显示模块1602和行为捕捉模块1604。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的基于虚拟环境的直播方法中的步骤。
例如,图19所示的计算机设备可以通过如图16所示的直播装置中的显示模块1602执行向场外观众显示直播现场的现场虚拟环境的步骤。计算机设备可通过行为捕捉模块1604执行捕捉所述场外观众在所述现场虚拟环境中的第一互动行为的步骤。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于虚拟环境的直播方法的步骤。此处基于虚拟环境的直播方法的步骤可以是上述各个实施例的基于虚拟环境的直播方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于虚拟环境的直播方法的步骤。此处基于虚拟环境的直播方法的步骤可以是上述各个实施例的基于虚拟环境的直播方法中的步骤。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的基于虚拟环境的直播方法涉及人工智能的计算机视觉技术,具体通过如下实施例进行说明:
虚拟现实设备捕捉场外观众在现场虚拟环境中的第一互动行为的过程中,可以针对现场观众进行拍摄,得到观众行为图像,通过计算机视觉技术识别出现场观众的交互行为。
虚拟现实设备捕捉场外观众在现场虚拟环境中的第一互动行为的过程中,通过计算机视觉技术识别现场观众脸上的表情。
虚拟环境合成服务器可以通过计算机视觉技术,对直播现场进行三维物体建模,而合成出现场虚拟环境。
本申请实施例提供的基于虚拟环境的直播方法涉及区块链,具体通过如下实施例进行说明:
参见图20A所示的数据共享系统,数据共享系统2000是指用于进行节点与节点之间数据共享的系统,该数据共享系统中可以包括多个节点2001,多个节点2001可以是指数据共享系统中各个客户端。
每个节点2001在进行正常工作可以接收到输入信息,并基于接收到的输入信息维护该数据共享系统内的共享数据。为了保证数据共享系统内的信息互通,数据共享系统中的每个节点之间可以存在信息连接,节点之间可以通过上述信息连接进行信息传输。例如,当数据共享系统中的任意节点接收到输入信息时,数据共享系统中的其他节点便根据共识算法获取该输入信息,将该输入信息作为共享数据中的数据进行存储,使得数据共享系统中全部节点上存储的数据均一致。
对于数据共享系统中的每个节点,均具有与其对应的节点标识,而且数据共享系统中的每个节点均可以存储有数据共享系统中其他节点的节点标识,以便后续根据其他节点的节点标识,将生成的区块广播至数据共享系统中的其他节点。每个节点中可维护一个如下表所示的节点标识列表,将节点名称和节点标识对应存储至该节点标识列表中。其中,节点标识可为IP(Internet Protocol,网络之间互联的协议)地址以及其他任一种能够用于标识该节点的信息,表1中仅以IP地址为例进行说明。
节点名称 | 节点标识 |
节点1 | 117.114.151.174 |
节点2 | 117.116.189.145 |
… | … |
节点N | 119.123.789.258 |
数据共享系统中的每个节点均存储一条相同的区块链。区块链由多个区块组成,参见图20B,区块链由多个区块组成,创始块中包括区块头和区块主体,区块头中存储有输入信息特征值、版本号、时间戳和难度值,区块主体中存储有输入信息;创始块的下一区块以创始块为父区块,下一区块中同样包括区块头和区块主体,区块头中存储有当前区块的输入信息特征值、父区块的区块头特征值、版本号、时间戳和难度值,并以此类推,使得区块链中每个区块中存储的区块数据均与父区块中存储的区块数据存在关联,保证了区块中输入信息的安全性。
在生成区块链中的各个区块时,参见图20C,区块链所在的节点在接收到输入信息时,对输入信息进行校验,完成校验后,将输入信息存储至内存池中,并更新其用于记录输入信息的哈希树;之后,将更新时间戳更新为接收到输入信息的时间,并尝试不同的随机数,多次进行特征值计算,使得计算得到的特征值可以满足下述公式:
SHA256(SHA256(version+prev_hash+merkle_root+ntime+nbits+x))<TARGET
其中,SHA256为计算特征值所用的特征值算法;version(版本号)为区块链中相关区块协议的版本信息;prev_hash为当前区块的父区块的区块头特征值;merkle_root为输入信息的特征值;ntime为更新时间戳的更新时间;nbits为当前难度,在一段时间内为定值,并在超出固定时间段后再次进行确定;x为随机数;TARGET为特征值阈值,该特征值阈值可以根据nbits确定得到。
这样,当计算得到满足上述公式的随机数时,便可将信息对应存储,生成区块头和区块主体,得到当前区块。随后,区块链所在节点根据数据共享系统中其他节点的节点标识,将新生成的区块分别发送给其所在的数据共享系统中的其他节点,由其他节点对新生成的区块进行校验,并在完成校验后将新生成的区块添加至其存储的区块链中。
本申请实施例的基于虚拟环境的直播方法中,虚拟替身服务器可以将根据现场观众生成的现场虚拟替身和根据第一互动行为生成的第二互动行为,上传至数据共享系统2000中的某个节点2001,节点2001将虚拟替身服务器上传的数据作为输入信息维护数据共享系统2000中的共享数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种基于虚拟环境的直播方法,包括:
虚拟现实设备向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
投影设备将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
2.根据权利要求1所述的方法,其特征在于,所述场外观众在所述直播现场中具有对应的虚拟替身位置,所述现场虚拟环境根据所述现场虚拟替身在所述虚拟替身位置上观看到的画面生成;
所述投影设备将所述场外观众的现场虚拟替身投影至所述直播现场,包括:
所述投影设备将所述场外观众的现场虚拟替身投影在所述直播现场中的虚拟替身位置上。
3.根据权利要求2所述的方法,其特征在于,还包括:
所述虚拟现实设备捕捉所述场外观众的移动行为;所述移动行为用于调整所述场外观众在所述直播现场中的所述虚拟替身位置。
4.根据权利要求1所述的方法,其特征在于,还包括:
所述虚拟现实设备向所述场外观众显示所述现场虚拟替身的行为虚拟现实动画;所述行为虚拟现实动画根据所述现场虚拟替身的所述第二互动行为生成。
5.根据权利要求1所述的方法,其特征在于,所述第一互动行为包括肢体动作、面部表情、声音中的至少一种。
6.根据权利要求1所述的方法,其特征在于,所述现场虚拟替身为立体影像和/或全息影像。
7.一种基于虚拟环境的直播方法,包括:
接收虚拟现实设备发送的第一互动行为;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
生成所述场外观众的现场虚拟替身,以及,根据所述场外观众的所述第一互动行为生成所述现场虚拟替身的第二互动行为;
控制投影设备将具有所述第二互动行为的所述现场虚拟替身投影至所述直播现场。
8.一种基于虚拟环境的直播方法,包括:
向场外观众显示直播现场的现场虚拟环境;
捕捉所述场外观众在所述现场虚拟环境中的第一互动行为,供投影设备将具有所述第二互动行为的现场虚拟替身投影至所述直播现场;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
9.一种基于虚拟环境的直播方法,包括:
接收服务器的投影控制信息;所述投影控制信息根据所述服务器接收虚拟现实设备发送的第一互动行为所生成;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
根据所述投影控制信息,将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
10.一种直播系统,包括:
虚拟现实设备和投影设备;
所述虚拟现实设备,用于向场外观众显示直播现场的现场虚拟环境,并捕捉所述场外观众在所述现场虚拟环境中的第一互动行为;
所述投影设备,用于将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
11.一种直播装置,包括:
接收模块,用于接收虚拟现实设备发送的第一互动行为;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
生成模块,用于生成所述场外观众的现场虚拟替身,以及,根据所述场外观众的所述第一互动行为生成所述现场虚拟替身的第二互动行为;
控制模块,用于控制投影设备将具有所述第二互动行为的所述现场虚拟替身投影至所述直播现场。
12.一种直播装置,包括:
显示模块,用于向场外观众显示直播现场的现场虚拟环境;
行为捕捉模块,用于捕捉所述场外观众在所述现场虚拟环境中的第一互动行为,供投影设备将具有所述第二互动行为的现场虚拟替身投影至所述直播现场;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
13.一种直播装置,包括:
信息接收模块,用于接收服务器的投影控制信息;所述投影控制信息根据所述服务器接收虚拟现实设备发送的第一互动行为所生成;所述虚拟现实设备用于向场外观众显示直播现场的现场虚拟环境;所述第一互动行为由所述虚拟现实设备对所述场外观众在所述现场虚拟环境中的互动行为进行捕捉得到;
替身投影模块,用于根据所述投影控制信息,将所述场外观众的现场虚拟替身投影至所述直播现场;所述现场虚拟替身具有第二互动行为;所述现场虚拟替身的所述第二互动行为根据所述场外观众的所述第一互动行为生成。
14.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至9中任一项所述方法的步骤。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至9中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910877247.4A CN110602517B (zh) | 2019-09-17 | 2019-09-17 | 基于虚拟环境的直播方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910877247.4A CN110602517B (zh) | 2019-09-17 | 2019-09-17 | 基于虚拟环境的直播方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110602517A true CN110602517A (zh) | 2019-12-20 |
CN110602517B CN110602517B (zh) | 2021-05-11 |
Family
ID=68860195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910877247.4A Active CN110602517B (zh) | 2019-09-17 | 2019-09-17 | 基于虚拟环境的直播方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110602517B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111228791A (zh) * | 2019-12-30 | 2020-06-05 | 塔普翊海(上海)智能科技有限公司 | 真人ar射击游戏装备、基于ar技术的射击对战系统及方法 |
CN111399777A (zh) * | 2020-03-16 | 2020-07-10 | 北京平凯星辰科技发展有限公司 | 一种基于数据值分类的差异化键值数据存储方法 |
CN111399653A (zh) * | 2020-03-24 | 2020-07-10 | 北京文香信息技术有限公司 | 一种虚拟互动的方法、装置、设备和计算机存储介质 |
CN111541932A (zh) * | 2020-04-30 | 2020-08-14 | 广州华多网络科技有限公司 | 直播间的用户形象展示方法、装置、设备及存储介质 |
CN112492231A (zh) * | 2020-11-02 | 2021-03-12 | 重庆创通联智物联网有限公司 | 远程交互方法、装置、电子设备和计算机可读存储介质 |
TWI726577B (zh) * | 2019-05-15 | 2021-05-01 | 華碩電腦股份有限公司 | 電子裝置 |
CN113286162A (zh) * | 2021-05-20 | 2021-08-20 | 成都威爱新经济技术研究院有限公司 | 一种基于混合现实的多机位画面直播方法及系统 |
CN115193032A (zh) * | 2022-05-13 | 2022-10-18 | 广州博冠信息科技有限公司 | 游戏直播的处理方法及相关设备 |
CN115396688A (zh) * | 2022-10-31 | 2022-11-25 | 北京玩播互娱科技有限公司 | 一种基于虚拟场景的多人互动网络直播方法及系统 |
CN115918089A (zh) * | 2020-04-17 | 2023-04-04 | 15秒誉股份有限公司 | 用于处理和呈现媒体数据以允许虚拟参与事件的系统和方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110063287A1 (en) * | 2009-09-15 | 2011-03-17 | International Business Machines Corporation | Information Presentation in Virtual 3D |
CN102170361A (zh) * | 2011-03-16 | 2011-08-31 | 西安电子科技大学 | 基于虚拟现实的网络会议方法 |
CN103888714A (zh) * | 2014-03-21 | 2014-06-25 | 国家电网公司 | 一种基于虚拟现实的3d场景网络视频会议系统 |
CN105227990A (zh) * | 2015-09-25 | 2016-01-06 | 天脉聚源(北京)科技有限公司 | 标识vip虚拟观众的方法和装置 |
CN105975622A (zh) * | 2016-05-28 | 2016-09-28 | 蔡宏铭 | 多角色智能聊天的方法及系统 |
CN106162369A (zh) * | 2016-06-29 | 2016-11-23 | 腾讯科技(深圳)有限公司 | 一种实现虚拟场景中互动的方法、装置及系统 |
CN106303555A (zh) * | 2016-08-05 | 2017-01-04 | 深圳市豆娱科技有限公司 | 一种基于混合现实的直播方法、装置和系统 |
CN106339986A (zh) * | 2016-08-31 | 2017-01-18 | 天脉聚源(北京)科技有限公司 | 在虚拟座位上分配头像的方法和装置 |
KR101704442B1 (ko) * | 2016-11-04 | 2017-02-09 | 한국프라임제약주식회사 | Vr 기기를 이용한 시력측정시스템 |
CN106789991A (zh) * | 2016-12-09 | 2017-05-31 | 福建星网视易信息系统有限公司 | 一种基于虚拟场景的多人互动方法及系统 |
US20170264936A1 (en) * | 2016-03-14 | 2017-09-14 | The Directv Group, Inc. | Method and system for viewing sports content within a virtual reality environment |
CN109271553A (zh) * | 2018-08-31 | 2019-01-25 | 乐蜜有限公司 | 一种虚拟形象视频播放方法、装置、电子设备及存储介质 |
CN109426343A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于虚拟现实的协作训练方法及系统 |
CN109874021A (zh) * | 2017-12-04 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 直播互动方法、装置及系统 |
-
2019
- 2019-09-17 CN CN201910877247.4A patent/CN110602517B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110063287A1 (en) * | 2009-09-15 | 2011-03-17 | International Business Machines Corporation | Information Presentation in Virtual 3D |
CN102170361A (zh) * | 2011-03-16 | 2011-08-31 | 西安电子科技大学 | 基于虚拟现实的网络会议方法 |
CN103888714A (zh) * | 2014-03-21 | 2014-06-25 | 国家电网公司 | 一种基于虚拟现实的3d场景网络视频会议系统 |
CN105227990A (zh) * | 2015-09-25 | 2016-01-06 | 天脉聚源(北京)科技有限公司 | 标识vip虚拟观众的方法和装置 |
US20170264936A1 (en) * | 2016-03-14 | 2017-09-14 | The Directv Group, Inc. | Method and system for viewing sports content within a virtual reality environment |
CN105975622A (zh) * | 2016-05-28 | 2016-09-28 | 蔡宏铭 | 多角色智能聊天的方法及系统 |
CN106162369A (zh) * | 2016-06-29 | 2016-11-23 | 腾讯科技(深圳)有限公司 | 一种实现虚拟场景中互动的方法、装置及系统 |
CN106303555A (zh) * | 2016-08-05 | 2017-01-04 | 深圳市豆娱科技有限公司 | 一种基于混合现实的直播方法、装置和系统 |
CN106339986A (zh) * | 2016-08-31 | 2017-01-18 | 天脉聚源(北京)科技有限公司 | 在虚拟座位上分配头像的方法和装置 |
KR101704442B1 (ko) * | 2016-11-04 | 2017-02-09 | 한국프라임제약주식회사 | Vr 기기를 이용한 시력측정시스템 |
CN106789991A (zh) * | 2016-12-09 | 2017-05-31 | 福建星网视易信息系统有限公司 | 一种基于虚拟场景的多人互动方法及系统 |
CN109426343A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于虚拟现实的协作训练方法及系统 |
CN109874021A (zh) * | 2017-12-04 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 直播互动方法、装置及系统 |
CN109271553A (zh) * | 2018-08-31 | 2019-01-25 | 乐蜜有限公司 | 一种虚拟形象视频播放方法、装置、电子设备及存储介质 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI726577B (zh) * | 2019-05-15 | 2021-05-01 | 華碩電腦股份有限公司 | 電子裝置 |
CN111228791A (zh) * | 2019-12-30 | 2020-06-05 | 塔普翊海(上海)智能科技有限公司 | 真人ar射击游戏装备、基于ar技术的射击对战系统及方法 |
CN111399777A (zh) * | 2020-03-16 | 2020-07-10 | 北京平凯星辰科技发展有限公司 | 一种基于数据值分类的差异化键值数据存储方法 |
CN111399777B (zh) * | 2020-03-16 | 2023-05-16 | 平凯星辰(北京)科技有限公司 | 一种基于数据值分类的差异化键值数据存储方法 |
CN111399653A (zh) * | 2020-03-24 | 2020-07-10 | 北京文香信息技术有限公司 | 一种虚拟互动的方法、装置、设备和计算机存储介质 |
CN115918089A (zh) * | 2020-04-17 | 2023-04-04 | 15秒誉股份有限公司 | 用于处理和呈现媒体数据以允许虚拟参与事件的系统和方法 |
CN111541932A (zh) * | 2020-04-30 | 2020-08-14 | 广州华多网络科技有限公司 | 直播间的用户形象展示方法、装置、设备及存储介质 |
CN112492231A (zh) * | 2020-11-02 | 2021-03-12 | 重庆创通联智物联网有限公司 | 远程交互方法、装置、电子设备和计算机可读存储介质 |
CN113286162A (zh) * | 2021-05-20 | 2021-08-20 | 成都威爱新经济技术研究院有限公司 | 一种基于混合现实的多机位画面直播方法及系统 |
CN115193032A (zh) * | 2022-05-13 | 2022-10-18 | 广州博冠信息科技有限公司 | 游戏直播的处理方法及相关设备 |
CN115396688A (zh) * | 2022-10-31 | 2022-11-25 | 北京玩播互娱科技有限公司 | 一种基于虚拟场景的多人互动网络直播方法及系统 |
CN115396688B (zh) * | 2022-10-31 | 2022-12-27 | 北京玩播互娱科技有限公司 | 一种基于虚拟场景的多人互动网络直播方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110602517B (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110602517B (zh) | 基于虚拟环境的直播方法、装置和系统 | |
JP7135141B2 (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
US9030486B2 (en) | System and method for low bandwidth image transmission | |
KR102581453B1 (ko) | 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리 | |
CN110176077B (zh) | 增强现实拍照的方法、装置及计算机存储介质 | |
CN111862348B (zh) | 视频显示方法、视频生成方法、装置、设备及存储介质 | |
CN104883557A (zh) | 实时全息投影方法、装置及系统 | |
CN107529091B (zh) | 视频剪辑方法及装置 | |
JP2019054488A (ja) | 提供装置および提供方法、プログラム | |
CN114900678B (zh) | 一种vr端端云结合的虚拟演唱会渲染方法及系统 | |
CN111698543B (zh) | 基于演唱场景的交互实现方法、介质及系统 | |
JP7200935B2 (ja) | 画像処理装置および方法、ファイル生成装置および方法、並びにプログラム | |
CN113784160A (zh) | 视频数据生成方法、装置、电子设备及可读存储介质 | |
CN105324994A (zh) | 用于生成多投影图像的方法和系统 | |
CN111179392A (zh) | 一种基于5g通信的虚拟偶像综艺直播的方法及系统 | |
CN113852838A (zh) | 视频数据生成方法、装置、电子设备及可读存储介质 | |
CN110730340B (zh) | 基于镜头变换的虚拟观众席展示方法、系统及存储介质 | |
CN109872400B (zh) | 一种全景虚拟现实场景的生成方法 | |
KR20190031220A (ko) | Vr 콘텐츠 제공 시스템 및 방법 | |
KR102084970B1 (ko) | 가상현실 관람 방법 및 가상현실 관람 시스템 | |
CN116964544A (zh) | 信息处理装置、信息处理终端、信息处理方法和程序 | |
JP6609078B1 (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
KR20160136160A (ko) | 가상현실 공연시스템 및 공연방법 | |
WO2024103805A1 (zh) | 针对动作捕捉数据的处理方法和系统 | |
WO2023236656A1 (zh) | 互动画面的渲染方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |