CN111530086B - 一种生成游戏角色的表情的方法和装置 - Google Patents
一种生成游戏角色的表情的方法和装置 Download PDFInfo
- Publication number
- CN111530086B CN111530086B CN202010305320.3A CN202010305320A CN111530086B CN 111530086 B CN111530086 B CN 111530086B CN 202010305320 A CN202010305320 A CN 202010305320A CN 111530086 B CN111530086 B CN 111530086B
- Authority
- CN
- China
- Prior art keywords
- expression
- data
- game
- character
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/87—Communicating with other players during game play, e.g. by e-mail or chat
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种生成游戏角色的表情的方法和装置,其中该方法包括在游戏角色被创建时,获取游戏角色的面部模型数据;获取表情特征数据;依据面部模型数据和表情特征数据,生成游戏角色的第一角色表情数据,其中第一角色表情数据被配置作为所创建的游戏角色的数据的一部分;和依据第一角色表情数据进行渲染,以生成游戏角色的表情。
Description
技术领域
本发明涉及电子游戏领域中的增强现实技术,更具体而言,涉及一种生成游戏角色的表情的方法和装置。
背景技术
在许多电子游戏系统中,允许用户(即,游戏玩家)使用“表情”刻画游戏角色的面部特征,这使得该游戏角色的虚拟形象更加生动。带有表情的游戏角色可以让用户更切身地感受到该游戏角色的喜怒哀乐,进而增强电子游戏的趣味性和感染力。然而,表情是丰富且细腻的,并且细微的面部特征变化就会产生不同的表情,因而电子游戏系统中的表情制作一直是非常繁琐、耗时的工作。当前,在本领域中缺少简便、快捷制作表情以及实时生成表情的方法。
发明内容
本发明提供了一种生成游戏角色的表情的方法,包括在所述游戏角色被创建时,获取所述游戏角色的面部模型数据;获取表情特征数据;依据所述面部模型数据和所述表情特征数据,生成所述游戏角色的第一角色表情数据,其中所述第一角色表情数据被配置作为所创建的所述游戏角色的数据的一部分;和依据所述第一角色表情数据进行渲染,以生成所述游戏角色的表情。
本发明还提供了一种生成游戏角色的表情的装置,包括用于在所述游戏角色被创建时,获取所述游戏角色的面部模型数据的模块;用于获取表情特征数据的模块;用于依据所述面部模型数据和所述表情特征数据,生成所述游戏角色的第一角色表情数据的模块,其中所述第一角色表情数据被配置作为所创建的所述游戏角色的数据的一部分;和用于依据所述第一角色表情数据进行渲染,以生成所述游戏角色的表情的模块。
本发明又提供了一种系统,包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由所述处理器加载并执行时能够实现上面描述的方法。
本发明进一步提供了一种计算机可读介质,其上存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行时能够实现上面描述的方法。
本发明的技术方案通过增强现实技术(AR)实现了游戏角色的表情的制作和生成。相对于现有技术,本发明的方法和装置操作简便、快捷,制作出的表情真实、细腻,符合人体面部肌肉运动,并且还能够实现表情在电子游戏中的实时生成。另外,依据本发明的方法和装置生成的游戏角色的表情还可以被作为游戏数据的一部分以便在电子游戏中继续使用。
附图说明
图1是根据本发明的一个实施例的生成游戏角色的表情的方法的流程图。
图2A是根据本发明的一个实施例的用于检测和保存模特无表情模型数据和模特表情模型数据的软件程序用户界面的示意图。
图2B是根据本发明的实施例的示例性模特无表情模型数据和模特表情模型数据。
图3是根据本发明的实施例的示例性表情特征系数。
图4是根据本发明的一个实施例的生成游戏角色的角色表情数据的示意图。
图5是根据本发明的一个实施例的使用的R3DS Wrap软件中的节点。
图6A是根据本发明的一个实施例的示例性标定特征点。
图6B是与图6A中的标定特征点对应的游戏角色的面部模型数据和角色表情模型数据。
图7是根据本发明的一个实施例的不同游戏角色的表情模型数据的示意图。
图8是根据本发明的一个实施例的示例性morph文件和target文件。
图9是根据本发明的一个实施例的添加morph文件的操作界面。
图10是根据本发明的一个实施例的设置表情动画属性的操作界面。
图11是根据本发明的一个实施例的实施“部分替换”的方法的节点。
图12是图11中的方法的示例性操作示意图。
图13是根据本发明的一个实施例的创建游戏角色的界面的示意图。
图14A和14B是根据本发明的实施例的方法非实时生成的游戏角色的表情的示意图。
图15A和15B是根据本发明的实施例的方法实时生成的游戏角色的表情的示意图。
图16是实施本发明的实施例的示例性电子游戏系统的示意图。
具体实施方式
现在将参照若干示例性实施例来说明本发明的内容。应当理解,说明这些实施例仅是为了使得本领域普通技术人员能够更好地理解并且因此实现本发明的内容,而不是暗示对本发明的范围进行任何限制。
如本文中所使用的,术语“包括”及其变体应当解读为意味着“包括但不限于”的开放式术语。术语“基于”应当解读为“至少部分地基于”。术语“一个实施例”和“一种实施例”应当解读为“至少一个实施例”。术语“另一个实施例”应当解读为“至少一个其他实施例”。
在本发明的实施例中,生成游戏角色的表情的方法可以在电子游戏的任何阶段和场景中应用,其中该场景包括但不限于:创建游戏角色时,用户聊天(例如,通过聊天室或聊天窗口)时,拍照、截屏或录屏时,用户或游戏情节满足特定条件时。在本发明的实施例中,应用生成游戏角色的表情的方法的时机是由电子游戏系统预设的。在本发明的实施例中,应用生成游戏角色的表情的方法的时机是由用户根据需要选择的。在本发明的优选的实施例中,在创建游戏角色时应用生成游戏角色的表情的方法。
图1示出了根据本发明的一个实施例的生成游戏角色的表情的方法的流程图,下面依次说明其中的各个步骤。
获取游戏角色的面部模型数据
在本发明的实施例中,“游戏角色”指的是电子游戏中的任何虚拟角色,优选地是用户正在操纵的虚拟角色。在本发明的实施例中,可以在任何阶段和场景获取游戏角色的面部模型数据,优选地,在游戏角色被创建时获取游戏角色的面部模型数据。在本发明的实施例中,“游戏角色的面部模型数据”即游戏角色的美术制作模型,指的是在进行渲染后呈现出无表情的游戏角色的面部的数据。参见图4,其中示出了游戏角色的美术制作模型。在本发明的实施例中,游戏角色的美术制作模型由游戏开发人员预置并保存在游戏数据中。在本发明的实施例中,“预置”与“非预置”或“实时”相对,指的是已经预先制作好而不需要实时制作、生成。
获取表情特征数据
在本发明的实施例中,“表情特征数据”指的是能够表示表情的数据的统称。在本发明的实施例中,获取的表情特征数据可以是预置的或实时的(即,非预置的),下面分别讨论这两种不同情况的技术方案。
在本发明的预置的实施例中,表情特征数据包括预置的模特无表情模型数据和模特表情模型数据。在本发明的实施例中,针对同一个模特,模特无表情模型数据仅具有一种,而模特表情模型数据可以具有一种或多种。在本发明的实施例中,可以编辑预置的模特表情模型数据以生成与其不同的模特表情模型,其中编辑前的模特表情模型数据被称为模特第一表情模型数据,而编辑后的模特表情模型数据被称为模特第二表情模型数据。在本发明的实施例中,还可以对模特第二表情模型数据进行进一步编辑以生成模特第三表情模型数据,以此类推。在本发明的实施例中,模特第一表情模型数据和模特第二表情模型数据均可以具有一种或多种。在本发明的实施例中,模特表情模型数据对应于多个不同类型的表情中的一个。在本发明的实施例中,可以通过摄像头模组(例如,手机、平板和电脑上的摄像头或摄像机和摄影机等)获取模特表情模型数据。
在本发明的实施例中,“模特”可以是任何人,包括但不限于游戏开发人员、测试人员和用户,优选地是游戏开发人员。在本发明的实施例中,模特可以是相同或不同的人。在本发明的实施例中,“模特无表情模型数据”指的是描述无表情的面部拓扑学的网格结构数据。在本发明的实施例中,“模特表情模型数据”指的是相对于模特无表情模型数据描述具有表情的面部拓扑学的网格结构数据。在本发明的实施例中,“模型数据”与“模型”可互换地使用。
在本发明的实施例中,可以使用软件(例如,已知的Ark Platforms Inc.公司的ARKit软件,其功能的详细信息可在http://www.arkit.io/获得)配合摄像头模组完成模特无表情模型数据和模特表情模型数据的获取。在本发明的实施例中,使用摄像头模组拍摄或检测模特的面部。在本发明的实施例中,模特的面部是已经拍摄完成的图片或照片。在本发明的实施例中,可以根据需要以不同的数据格式表示和存储模特无表情模型数据和模特表情模型数据。发明人编制了一种软件程序(例如,用于在手机、平板或电脑上运行的APP)来调用ARKit软件并且控制摄像头模组来完成上述数据的获取。例如,在通过ARKit软件尤其是ARFaceAnchor模块中的ARFaceGeometry功能获取的模型数据中,每个模型数据包含1220个顶点和2304个三角面片。在本发明的实施例中,发明人编制的软件程序可以以obj格式保存上述模型数据。在本发明的实施例中,可以通过硬件模块(通常是定制的)来实现对ARKit软件和摄像头模组的调用和控制,也可以通过混合了软件和硬件的模块来实现所述调用和控制。在本发明的实施例中,还可以通过其他方法或软件来获取模特无表情模型数据和模特表情模型数据,只要其能够实现本发明的目的。
图2A示出了根据本发明的一个实施例的用于检测和保存模特无表情模型数据和模特表情模型数据的软件程序用户界面的示意图。在图2A所示出的本发明的实施例中,该软件程序运行在苹果公司的iPhone上。在本发明的实施例中,操作者(例如,游戏开发人员)可以点击“FaceCapture”按钮将模特无表情模型数据(左)和模特表情模型数据(右)保存到相应的文件夹。如先前描述的,该软件程序可以通过调用ARKit软件并控制摄像头模组来完成上述操作。在本发明的实施例中,操作者即为模特。图2B示出了根据本发明的一个实施例的示例性模特无表情模型数据和模特表情模型数据。在本发明的实施例中,在获取了作为模特第一表情模型数据的模特表情模型数据后,可以对其进行任何本领域已知的编辑以生成模特第二表情模型数据。
在本发明的非预置的实施例中,表情特征数据包括实时获取的表情特征系数。在本发明的实施例中,表情特征数据还包括旋转矩阵。在本发明的实施例中,表情特征系数是通过摄像头模组由当前的游戏用户实时获取的。在本发明的实施例中,“表情特征系数”指的是能够表示面部特征的数据,其以系数形式描述相对于无表情时面部特征的偏移,进而描述有表情时的面部特征。在本发明的实施例中,旋转矩阵具有本领域技术人员通常理解的含义。
在本发明的实施例中,表情特征系数可以例如由ARKit软件(尤其是ARFaceAnchor模块中的ARBlendShapeLocation功能)以blendShapes属性或参数的形式提供。在本发明的实施例中,还可以以其他软件或其他形式来提供表情特征系数。如本领域中已知的,在ARKit软件中,表情特征系数提供了一个模型,该模型表示一系列面部特征相对于无表情时的偏移系数。如本领域中已知的,ARKit软件目前提供了包括52个系数的表情特征系数,其分布在左眼、右眼、嘴、下巴、眉毛、脸颊、舌头等部位,每个系数为0-1之间的浮点数,其中0表示无表情,而1表示最大程度的表情。图3示出了根据本发明的实施例的示例性表情特征系数,其中显示了睁开和闭合左眼的表情。在本发明的实施例中,表情特征数据中包含的模特无表情模型数据和模特表情模型数据也具有相应的表情特征系数。例如,如果假设图3中左右两边分别为模特无表情模型数据和模特表情模型数据,则模特无表情模型数据具有的所有表情特征系数均为0,而模特表情模型数据具有的表情特征系数中与左眼对应的系数为1且其他系数为0。
依据面部模型数据和表情特征数据生成游戏角色的角色表情数据
在本发明的实施例中,生成的游戏角色的角色表情数据使游戏角色表现出由表情特征数据表示的表情。在本发明的实施例中,首先将面部模型数据分别与模特无表情模型数据和模特表情模型数据进行包裹变形处理,然后将包裹变形处理后的数据进行融合变形处理,以得到与面部模型数据对应的角色表情模型数据。在本发明的实施例中,角色表情模型数据可以被作为游戏角色的角色表情数据。在本发明的实施例中,上述模特无表情模型数据和模特表情模型数据可以是预置的或非预置的。在本发明的实施例中,参与上述操作的模特无表情模型数据和模特表情模型数据分别可以是一种或多种。在本发明的实施例中,由第一模特表情模型数据参与生成的角色表情模型数据(角色表情数据)可以被称为第一角色表情模型数据(第二角色表情数据),而由第二模特表情模型数据参与生成的角色表情模型数据(角色表情数据)可以被称为第二角色表情模型数据(第二角色表情数据),以此类推。
在本发明的实施例中,可以使用软件(例如,已知的Russian3DScanner LLC公司的R3DS Wrap软件,其功能的详细信息可在https://www.russian3dscanner.com/获得)实现上述角色表情数据的生成,特别是利用该软件实现上述“包裹变形处理”和“融合变形处理”。在本发明的实施例中,还可以使用其他方法或软件实现上述操作,只要能够实现本发明的目的。与ARKit软件类似,可以编制软件程序、设置硬件模块或软件与硬件混合的模块来实现对R3DS Wrap软件的调用。在本发明的实施例中,调用ARKit软件的模块和调用R3DSWrap软件的模块可以是相同的模块,也可以是不同的但彼此可以交换数据的模块,还可以是相同系统下的不同模块(可以彼此交换数据)。图4示出了根据本发明的一个实施例的生成游戏角色的角色表情数据的示意图。如本领域中已知的,R3DS Wrap软件是一种节点方式的软件,可以通过选取并且连接节点来实现功能。例如,本发明的实施例可以使用R3DSWrap软件中的包裹变形(Wrapping)和融合变形(Blendshapes)节点。
图5示出了根据本发明的一个实施例的使用的R3DS Wrap软件中的节点,其中将游戏角色的面部模型数据分别与模特无表情模型数据和模特表情模型数据进行包裹变形处理,然后将在包裹变形处理后得到的数据在游戏角色的面部模型数据的基础上进行融合变形处理,得到游戏角色的角色表情模型数据作为角色表情数据,最后使用SaveGeom节点以obj格式保存生成的数据。在本发明的实施例中,R3DS Wrap软件和ARKit软件可以使用具有相同底层数据结构的模型或数据,以使得二者所利用或生成的模型或数据可以互用。
在本发明的实施例中,可以在包裹变形处理中,对面部模型数据和模特无表情模型数据选取一一对应的标定特征点。在本发明的实施例中,标定特征点可以与表情特征系数指示的部位相同或不同。在本发明的实施例中,可以根据需要选择适当数量的标定特征点。在本发明的实施例中,选取的标定特征点可以根据需要进行调整,例如,通常在眼睛、嘴巴等对表情影响较大的部位分布较多。上述对标定特征点的数量和部位的选择可以减轻工作量,从而提高了制作效率。图6A示出了根据本发明的一个实施例的示例性标定特征点,而图6B示出了与图6A中的标定特征点对应的游戏角色的面部模型数据和角色表情模型数据。
在本发明的实施例中,当需要替换游戏角色时,游戏角色的面部模型数据也会随之改变。在本发明的实施例中,可以针对不同的游戏角色,利用已有的模特模型反复进行包裹变形处理,这简化了表情制作,进而提高了制作效率。在本发明的实施例中,当游戏角色变化时,可以导入变化后的游戏角色的面部模型数据,然后对其选取多个相同的标定特征点,以得到与修改后的面部模型数据对应的角色表情模型数据。图7示出了根据本发明的一个实施例的不同游戏角色的表情模型数据的示意图,其中在模特无表情模型数据和模特表情模型数据不变而游戏角色变化的情况下,根据上述简化方法制作出多个不同的游戏角色的角色表情模型数据。
在本发明的实施例中,还可以选择依据上面生成的游戏角色的角色表情数据,生成相应的表情动画数据,以便使游戏角色的表情切换能够更加流畅、自然。在本发明的实施例中,“表情动画”指的是从一个表情到另一个表情的融合过程。在本发明的实施例中,可以利用已知的ERA引擎的角色编辑器的Morph编辑功能制作表情动画。在本发明的实施例中,还可以使用其他方法和软件,只要能够实现本发明的目的。在本发明的实施例中,可以对面部模型数据和角色表情数据(例如,其中的角色表情模型数据)进行编辑。在本发明的实施例中,使用ERA引擎的角色编辑器进行上述编辑,游戏角色的面部模型数据和角色表情数据被组装到集成文件(包括morph文件和target文件)。如本领域技术人员知道的,在ERA引擎的角色编辑器中,target文件是表情动画文件,其包含某个角色表情模型数据相对于面部模型数据的变化信息,而morph文件是游戏角色的所有表情数据文件的集合,其包含关于游戏角色的面部模型数据和所有的target文件名。图8示出了根据本发明的一个实施例的示例性morph文件和target文件。
在本发明的实施例中,在利用ERA引擎的角色编辑器组装morph文件后,可以在BodyPart功能下为游戏角色添加该morph文件,然后可以在技能面板中为游戏角色添加表情动画,以便设置表情动画属性。图9示出了根据本发明的一个实施例的添加morph文件的操作界面。图10示出了根据本发明的一个实施例的设置表情动画属性的操作界面。在本发明的实施例中,可以通过插值计算算法计算从一个表情到另一个表情融合的过程。在本发明的实施例中,“插值计算”具有本领域技术人员通常理解的含义。在本发明的实施例中,进行插值计算的数据涉及上面的经过编辑的面部模型数据和角色表情数据。在本发明的实施例中,图10中的表情动画属性表示的含义如表1中所示:
表1
本发明还能够使游戏角色实时跟随用户的表情做出相应的表情,这需要利用上面说明的表情特征系数。在本发明的实施例中,可以例如通过ERA引擎实现游戏角色的实时表情的生成。在本发明的实施例中,可以将获取的表情特征系数以及相关联的旋转矩阵传输到ERA引擎中。在本发明的实施例中,可以通过将面部模型数据与表情特征系数和旋转矩阵进行插值计算,以得到实时的角色表情数据。
在本发明的实施例中,还可以通过融合变形处理以“部分替换”的方式改变已经生成的角色表情数据,以快速得到大量新的角色表情数据。图11示出了实施此“部分替换”的方法的节点的示意图,而图12则示出了上述方法的示例性操作示意图。具体而言,在已有的游戏角色的面部模型数据和角色表情数据(该数据可以是实时或非实时生成的)的基础上,选择面部模型数据中需要部分替换的部位(节点),从而将角色表情数据相对应部位的“局部表情”应用到面部模型数据上,进而生成新的角色表情数据。在本发明的实施例中,被替换的部位可以是一个或多个。
在本发明的实施例中,角色表情数据,特别是第一角色表情数据,被配置作为所创建的游戏角色的数据的一部分。在本发明的实施例中,角色表情数据可以被保存、分享或下载。
依据角色表情数据进行渲染以生成游戏角色的表情
在本发明的实施例中,可以通过本领域已知的方法进行渲染操作以生成最终呈现的表情。在本发明的实施例中,可以将游戏角色的表情作为预览显示给游戏用户。在本发明的实施例中,可以将游戏角色的表情动画给游戏用户预览播放。在本发明的实施例中,可以提供多种接口以便实现上述预览、播放等操作。在本发明的实施例中,可以通过预览、播放等按钮来查看表情或表情动画。
在本发明的实施例中,生成的游戏角色的表情还可以在后续的游戏情节或场景进行交互(例如,用于拍照、截图、截屏、录屏),还可以作为聊天用表情包或依据角色剧情给出的表情。在本发明的实施例中,可以将游戏角色的表情,特别是依据第二角色表情数据渲染生成的表情,在游戏的一个或多个游戏情节中进行突出显示,或将该表情在操作游戏角色的用户或游戏情节满足特定条件时,进行加载显示。
在下面特别描述在创建角色的场景下本发明的示例性实施例。在用户登陆电子游戏系统后,电子游戏系统根据用户的选择向用户呈现可供进行定制的角色属性,该属性包括但不限于脸型、发色、五官形状等。在用户选择角色属性的过程中,电子游戏系统通过屏幕向用户呈现具备上述角色属性的角色形象。图13示出了根据本发明的一个实施例的创建游戏角色的界面的示意图,其中用户通过对第三个脸型的选择,电子游戏系统在屏幕上显示出匹配该脸型的游戏角色的形象供用户进行预览。
除了脸型等面部属性之外,用户还可以对该游戏角色的预置的表情进行选择和预览。图14A和14B是根据本发明的实施例的方法非实时生成的游戏角色的表情的示意图,其中用户可以在电子游戏系统提供的一个表情预览选择窗口中进行选择。电子游戏系统中预存了该游戏角色的多种表情,用户通过选择不同的表情,屏幕上会显示出游戏角色的不同表情的预览。在用户没有进行任何选择的情况下,游戏角色不呈现任何表情,即此时游戏角色的表情对应于游戏角色的面部模型数据所具有的无表情。上述可供预览的角色的表情,可以是通过常规方法由电子游戏系统的开发人员制备的,也可以是通过本发明的生成表情的方法制备的,优选地通过模特的参与由角色表情数据生成的。表情预览选择窗口列出的表情,可以是与第一角色表情数据或第二角色表情数据相对应的。
本发明的电子游戏系统还提供了一个接口以选择“实时表情”,该接口例如可以是一个“按钮”或“勾选框”等。图15A和15B是根据本发明的实施例的方法实时生成的游戏角色的表情的示意图。在用户选择了实时表情功能后,电子游戏系统可以通过游戏终端上的摄像头捕获用户的面部表情,并通过本发明的方法使当前的游戏角色呈现出与用户的面部表情相同的表情。可选地,该生成的游戏角色的实时表情可以被保存以供用户在表情预览窗口进行选择预览,也可以用于电子游戏系统的其他场景中。
在角色的表情在电子游戏的游戏情节中突出显示的场景下,本发明的示例性实施例如下:在电子游戏的进行过程中,在某些特别游戏情节中需要突出显示游戏角色的面部,例如当镜头拉近至游戏角色面部以显示游戏角色的表情时。此时,电子游戏系统可以选择将在创建游戏角色时由电子游戏系统预存或由用户制作的表情作为突出显示的表情使用。例如,当需要表现出游戏角色非常高兴时,突出显示的游戏角色的面部可以使用电子游戏系统中预览名称为“高兴”的表情,也可以使用用户在游戏角色创建时生成并保存的名为“喜悦”的表情,另外其还可以使用玩家当前的表情。例如,当前的游戏情节烘托出悲伤的氛围,用户也因此受影响而表情凝重,可以依据本发明的实时或非实时生成游戏角色的表情的方法,使用户操控的角色呈现出用户此时面部的表情。上述游戏功能可以是电子游戏系统中预设的或由用户在游戏设置中选定的。
在电子游戏的用户或电子游戏的游戏情节满足特定条件的场景下,本发明的示例性实施例如下:在电子游戏的进行过程中,当用户或游戏情节满足某些特定条件时,可以将根据本发明的方法制备的表情用作游戏角色的表情。特定条件包括但不限于用户达到一定等级、完成某项任务、达成某项成就、游戏剧情进展到特定环节,触发特定隐藏剧情等。此时,电子游戏系统可以选择将在创建游戏角色时由电子游戏系统预存或由用户制作的表情作为游戏角色的表情使用。或者在此时,电子游戏系统开始提供制作实时表情的选项(例如,按钮)以供用户操作。
图16示出了实施本发明的实施例的示例性电子游戏系统的示意图。游戏用户能够利用本发明的实施例便捷地生成、共享和播放角色的表情以及相关的动画。游戏用户能够离线地在游戏的客户端进行相关操作,也可以在玩游戏的同时实时地进行相关操作。作为数据源,用户利用实施了本发明的实施例的软件、硬件或软件与硬件混合的模块,通过摄像设备(例如,苹果公司或华为技术有限公司的销售手机)拍摄自己的面部,并且将所拍摄的面部的照片甚至视频提供给本发明所使用的面部处理装置和表情生成装置(例如,ARKit软件和R3DS Wrap软件)。图16所示的游戏客户端是本发明的实施例之一,能够实现对ARKit软件和R3DS Wrap软件的调用和对摄像设备的控制。面部处理装置和表情生成装置对所提供的数据进行处理,生成相关模型或表情特征信息,并将相关数据提供给ERA引擎。用户通过游戏系统的客户端进行有关角色和表情的相关操作(这些操作可能会调用前述摄像设备、面部处理装置和表情生成装置),包括自拍、角色表情的生成、角色表情传播和角色表情动画的播放、角色表情或动画的保存、角色表情的检索(可以通过ERA引擎执行检索操作)等等。游戏系统的客户端软件通过计算机网络与游戏服务器进行通信,从而能够支持客户端多角色的实时表情同步,以及在玩家之间进行角色表情的传播或共享。
本发明各实施例的方法和装置、以及所述方法的步骤和装置的构成模块可以实现为纯粹的软件模块(例如用Java语言来编写的软件程序),也可以根据需要实现为纯粹的硬件模块(例如专用ASIC芯片或FPGA芯片),还可以实现为结合了软件和硬件的模块(例如存储有固定代码的固件系统)。
本发明还提供了一种计算机可读介质,其上存储有计算机可读指令,所述指令被执行时可实施本发明各实施例的方法。
本领域普通技术人员可以意识到,以上所述仅为本发明的示例性实施例,并不用于限制本发明。本发明还可以包含各种修改和变化。任何在本发明的精神和范围内作的修改和变化均应包含在本发明的保护范围内。
在权利要求书中规定了各个实施例的各个方面。在下列编号条款中规定了各个实施例的这些和其他方面:
1.一种生成游戏角色的表情的方法,包括:
在所述游戏角色被创建时,获取所述游戏角色的面部模型数据;
获取表情特征数据;
依据所述面部模型数据和所述表情特征数据,生成所述游戏角色的第一角色表情数据,其中所述第一角色表情数据被配置作为所创建的所述游戏角色的数据的一部分;和
依据所述第一角色表情数据进行渲染,以生成所述游戏角色的表情。
2.根据条款1所述的方法,其特征在于,所述表情特征数据包括:
预置的与所述面部模型数据对应的模特无表情模型数据和至少一个模特第一表情模型数据。
3.根据条款2所述的方法,其特征在于,所述预置的至少一个模特第一表情模型数据中的每个具有:
通过摄像头模组获取的相对于所述预置的模特无表情模型数据的模特的多个不同类型的表情中的一个。
4.根据条款1所述的方法,其特征在于,进一步包括:
将所述游戏角色的表情作为预览显示给游戏用户。
5.根据条款2所述的方法,其特征在于,生成所述游戏角色的第一角色表情数据的操作包括:
游戏引擎将所述面部模型数据分别与所述预置的模特无表情模型数据和所述预置的至少一个模特第一表情模型数据进行包裹变形处理,然后将所述包裹变形处理后的数据进行融合变形处理,以得到与所述面部模型数据对应的角色第一表情模型数据,并且作为所述游戏角色的第一角色表情数据。
6.根据条款5所述的方法,其特征在于,进一步包括:
在所述包裹变形处理中,对所述面部模型数据和所述模特无表情模型数据选取一一对应的标定特征点,其中在眼睛或嘴部位选取的标定特征点多于在其他部位选取的标定特征点;
其中,当导入修改后的面部模型数据时,对所述修改后的面部模型数据选取多个相同的所述标定特征点,以得到与所述修改后的面部模型数据对应的角色第一表情模型数据。
7.根据条款5所述的方法,其特征在于,进一步包括:
编辑所述面部模型数据和所述第一角色表情数据中的角色第一表情模型数据,将所述编辑后的数据在所述游戏引擎中通过变形表情编辑器中的插值计算算法,计算从在前表情到所述表情的表情融合的过程,并且将所述融合过程作为动画给游戏用户预览播放。
8.根据条款2所述的方法,其特征在于,进一步包括:
编辑所述预置的至少一个模特第一表情模型数据,以生成模特第二表情模型数据,并且将所述模特第二表情模型数据用于生成所述游戏角色的第二角色表情数据。
9.根据条款8所述的方法,其特征在于,进一步包括:
依据所述第二角色表情数据进行渲染,以生成所述游戏角色的表情;并且
将所述表情在所述游戏的一个或多个游戏情节中进行突出显示;或
将所述表情在所述游戏角色的用户或所述游戏的游戏情节满足特定条件时,进行加载显示。
10.根据条款1所述的方法,其特征在于,所述表情特征数据包括:
从摄像头模组实时获取的当前游戏用户的表情特征系数。
11.根据条款10所述的方法,其特征在于,进一步包括:
将所述面部模型数据与所述摄像头模组中获取的所述当前游戏用户的表情特征数据中的表情特征系数与旋转矩阵进行插值计算,以得到实时的第一角色表情数据。
12.根据条款11所述的方法,其特征在于,所述实时的第一角色表情数据包括:
通过融合变形节点制作的第一角色表情数据;
其中所述融合变形节点被配置为被一个或多个替换节点取代。
13.根据条款1所述的方法,其特征在于,进一步包括:
提供接口以使得能够保存、分享或下载所述游戏角色的第一角色表情数据。
14.一种生成游戏角色的表情的装置,包括:
用于在所述游戏角色被创建时,获取所述游戏角色的面部模型数据的模块;
用于获取表情特征数据的模块;
用于依据所述面部模型数据和所述表情特征数据,生成所述游戏角色的第一角色表情数据的模块,其中所述第一角色表情数据被配置作为所创建的所述游戏角色的数据的一部分;和
用于依据所述第一角色表情数据进行渲染,以生成所述游戏角色的表情的模块。
15.根据条款14所述的装置,其特征在于,所述表情特征数据包括:
预置的与所述面部模型数据对应的模特无表情模型数据和至少一个模特第一表情模型数据。
16.根据条款15所述的装置,其特征在于,所述预置的至少一个模特第一表情模型数据中的每个具有:
通过摄像头模组获取的相对于所述预置的模特无表情模型数据的模特的多个不同类型的表情中的一个。
17.根据条款14所述的装置,其特征在于,进一步包括:
用于将所述游戏角色的表情作为预览显示给游戏用户的模块。
18.根据条款15所述的装置,其特征在于,进一步包括:
用于将所述面部模型数据分别与所述预置的模特无表情模型数据和所述预置的至少一个模特第一表情模型数据进行包裹变形处理,然后将所述包裹变形处理后的数据进行融合变形处理,以得到与所述面部模型数据对应的角色第一表情模型数据,并且作为所述游戏角色的第一角色表情数据的模块。
19.根据条款18所述的装置,其特征在于,进一步包括:
用于在所述包裹变形处理中,对所述面部模型数据和所述模特无表情模型数据选取一一对应的标定特征点的模块,其中在眼睛或嘴部位选取的标定特征点多于在其他部位选取的标定特征点;和
用于当导入修改后的面部模型数据时,对所述修改后的面部模型数据选取多个相同的所述标定特征点,以得到与所述修改后的面部模型数据对应的角色第一表情模型数据的模块。
20.根据条款18所述的装置,其特征在于,进一步包括:
用于编辑所述面部模型数据和所述第一角色表情数据中的角色第一表情模型数据,将所述编辑后的数据通过变形表情编辑器中的插值计算算法,计算从在前表情到所述表情的表情融合的过程的模块;和
用于将所述融合过程作为动画给游戏用户预览播放的模块。
21.根据条款15所述的装置,其特征在于,进一步包括:
用于编辑所述预置的至少一个模特第一表情模型数据,以生成模特第二表情模型数据的模块;和
用于将所述模特第二表情模型数据用于生成所述游戏角色的第二角色表情数据的模块。
22.根据条款21所述的装置,其特征在于,进一步包括:
用于依据所述第二角色表情数据进行渲染,以生成所述游戏角色的表情的模块;和
用于将所述表情在所述游戏的一个或多个游戏情节中进行突出显示的模块;或
用于将所述表情在所述游戏角色的用户或所述游戏的游戏情节满足特定条件时,进行加载显示的模块。
23.根据条款14所述的装置,其特征在于,所述表情特征数据包括:
从摄像头模组实时获取的当前游戏用户的表情特征系数。
24.根据条款23所述的装置,其特征在于,进一步包括:
用于将所述面部模型数据与所述摄像头模组中获取的所述当前游戏用户的表情特征数据中的表情特征系数与旋转矩阵进行插值计算,以得到实时的第一角色表情数据的模块。
25.根据条款24所述的装置,其特征在于,进一步包括:
用于融合变形节点制作的模块;和
用于替换融合变形节点的模块。
26.根据条款14所述的装置,其特征在于,进一步包括:
用于保存、分享或下载所述游戏角色的第一角色表情数据的模块。
27.一种系统,包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由所述处理器加载并执行时能够实现根据条款1-13中任一项所述的方法。
28.一种计算机可读介质,其上存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行时能够实现根据条款1-13中任一项所述的方法。
Claims (16)
1.一种生成和显示游戏角色的表情的方法,包括:
在所述游戏角色被创建时,获取所述游戏角色的面部模型数据;
获取表情特征数据;
依据所述面部模型数据和所述表情特征数据,生成所述游戏角色的第一角色表情数据,其中所述第一角色表情数据被配置作为所创建的所述游戏角色的数据的一部分;
依据所述第一角色表情数据进行渲染,以生成所述游戏角色的表情;和
在电子游戏的进行过程中,当所述电子游戏的游戏情节满足特定条件时,将符合所述游戏情节的生成的所述游戏角色的表情或预存的所述游戏角色的表情作为所述游戏角色的当前表情进行突出显示。
2.根据权利要求1所述的方法,其特征在于,所述表情特征数据包括:
预置的与所述面部模型数据对应的模特无表情模型数据和至少一个模特第一表情模型数据。
3.根据权利要求2所述的方法,其特征在于,所述预置的至少一个模特第一表情模型数据中的每个具有:
通过摄像头模组获取的相对于所述预置的模特无表情模型数据的模特的多个不同类型的表情中的一个。
4.根据权利要求1所述的方法,其特征在于,进一步包括:
将所述游戏角色的表情作为预览显示给游戏用户。
5.根据权利要求2所述的方法,其特征在于,生成所述游戏角色的第一角色表情数据的操作包括:
游戏引擎将所述面部模型数据分别与所述预置的模特无表情模型数据和所述预置的至少一个模特第一表情模型数据进行包裹变形处理,然后将所述包裹变形处理后的数据进行融合变形处理,以得到与所述面部模型数据对应的角色第一表情模型数据,并且作为所述游戏角色的第一角色表情数据。
6.根据权利要求5所述的方法,其特征在于,进一步包括:
在所述包裹变形处理中,对所述面部模型数据和所述模特无表情模型数据选取一一对应的标定特征点,其中在眼睛或嘴部位选取的标定特征点多于在其他部位选取的标定特征点;
其中,当导入修改后的面部模型数据时,对所述修改后的面部模型数据选取多个相同的所述标定特征点,以得到与所述修改后的面部模型数据对应的角色第一表情模型数据。
7.根据权利要求5所述的方法,其特征在于,进一步包括:
编辑所述面部模型数据和所述第一角色表情数据中的角色第一表情模型数据,将所述编辑后的数据在所述游戏引擎中通过变形表情编辑器中的插值计算算法,计算从在前表情到所述表情的表情融合的过程,并且将所述融合过程作为动画给游戏用户预览播放。
8.根据权利要求2所述的方法,其特征在于,进一步包括:
编辑所述预置的至少一个模特第一表情模型数据,以生成模特第二表情模型数据,并且将所述模特第二表情模型数据用于生成所述游戏角色的第二角色表情数据。
9.根据权利要求8所述的方法,其特征在于,进一步包括:
依据所述第二角色表情数据进行渲染,以生成所述游戏角色的表情。
10.根据权利要求1所述的方法,其特征在于,所述表情特征数据包括:
从摄像头模组实时获取的当前游戏用户的表情特征系数。
11.根据权利要求10所述的方法,其特征在于,进一步包括:
将所述面部模型数据与所述摄像头模组中获取的所述当前游戏用户的表情特征数据中的表情特征系数与旋转矩阵进行插值计算,以得到实时的第一角色表情数据。
12.根据权利要求11所述的方法,其特征在于,所述实时的第一角色表情数据包括:
通过融合变形节点制作的第一角色表情数据;
其中所述融合变形节点被配置为被一个或多个替换节点取代。
13.根据权利要求1所述的方法,其特征在于,进一步包括:
提供接口以使得能够保存、分享或下载所述游戏角色的第一角色表情数据。
14.一种生成和显示游戏角色的表情的装置,包括:
用于在所述游戏角色被创建时,获取所述游戏角色的面部模型数据的模块;
用于获取表情特征数据的模块;
用于依据所述面部模型数据和所述表情特征数据,生成所述游戏角色的第一角色表情数据的模块,其中所述第一角色表情数据被配置作为所创建的所述游戏角色的数据的一部分;
用于依据所述第一角色表情数据进行渲染,以生成所述游戏角色的表情的模块;和
用于在电子游戏的进行过程中,当所述电子游戏的游戏情节满足特定条件时,将符合所述游戏情节的生成的所述游戏角色的表情或预存的所述游戏角色的表情作为所述游戏角色的当前表情进行突出显示的模块。
15.一种系统,包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由所述处理器加载并执行时能够实现根据权利要求1-13中任一项所述的方法。
16.一种计算机可读介质,其上存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行时能够实现根据权利要求1-13中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010305320.3A CN111530086B (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法和装置 |
CN202210310787.6A CN114669059A (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法 |
PCT/CN2020/112616 WO2021208330A1 (zh) | 2020-04-17 | 2020-08-31 | 一种生成游戏角色的表情的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010305320.3A CN111530086B (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210310787.6A Division CN114669059A (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111530086A CN111530086A (zh) | 2020-08-14 |
CN111530086B true CN111530086B (zh) | 2022-04-22 |
Family
ID=71975138
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010305320.3A Active CN111530086B (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法和装置 |
CN202210310787.6A Pending CN114669059A (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210310787.6A Pending CN114669059A (zh) | 2020-04-17 | 2020-04-17 | 一种生成游戏角色的表情的方法 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111530086B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021208330A1 (zh) * | 2020-04-17 | 2021-10-21 | 完美世界(重庆)互动科技有限公司 | 一种生成游戏角色的表情的方法和装置 |
CN112337105B (zh) * | 2020-11-06 | 2023-09-29 | 广州酷狗计算机科技有限公司 | 虚拟形象生成方法、装置、终端及存储介质 |
CN113470149B (zh) * | 2021-06-30 | 2022-05-06 | 完美世界(北京)软件科技发展有限公司 | 表情模型的生成方法及装置、存储介质、计算机设备 |
WO2023184357A1 (zh) * | 2022-03-31 | 2023-10-05 | 云智联网络科技(北京)有限公司 | 一种表情模型制作的方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654537A (zh) * | 2015-12-30 | 2016-06-08 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
CN108256505A (zh) * | 2018-02-12 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN108648251A (zh) * | 2018-05-15 | 2018-10-12 | 深圳奥比中光科技有限公司 | 3d表情制作方法及系统 |
CN109961496A (zh) * | 2019-02-22 | 2019-07-02 | 厦门美图之家科技有限公司 | 表情驱动方法及表情驱动装置 |
-
2020
- 2020-04-17 CN CN202010305320.3A patent/CN111530086B/zh active Active
- 2020-04-17 CN CN202210310787.6A patent/CN114669059A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654537A (zh) * | 2015-12-30 | 2016-06-08 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
CN108256505A (zh) * | 2018-02-12 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN108648251A (zh) * | 2018-05-15 | 2018-10-12 | 深圳奥比中光科技有限公司 | 3d表情制作方法及系统 |
CN109961496A (zh) * | 2019-02-22 | 2019-07-02 | 厦门美图之家科技有限公司 | 表情驱动方法及表情驱动装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111530086A (zh) | 2020-08-14 |
CN114669059A (zh) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111530086B (zh) | 一种生成游戏角色的表情的方法和装置 | |
US9626788B2 (en) | Systems and methods for creating animations using human faces | |
CN112037311B (zh) | 一种动画生成的方法、动画播放的方法以及相关装置 | |
CN110465097B (zh) | 游戏中的角色立绘显示方法及装置、电子设备、存储介质 | |
CN111530088B (zh) | 一种生成游戏角色的实时表情图片的方法和装置 | |
KR100912877B1 (ko) | 3차원 아바타 생성 기능을 구비한 이동통신 단말기 및3차원 아바타 생성 방법 | |
US20120028707A1 (en) | Game animations with multi-dimensional video game data | |
CN111541950A (zh) | 表情的生成方法、装置、电子设备及存储介质 | |
CN113766168A (zh) | 一种互动处理方法、装置、终端及介质 | |
JP7011206B2 (ja) | 遊戯用撮影装置、画像処理装置、および画像処理方法 | |
CN111530087B (zh) | 一种在游戏中生成实时表情包的方法和装置 | |
KR20160134883A (ko) | 영상컨텐츠 적용 디지털액터의 운용방법 | |
EP2667358A2 (en) | System and method for generating an animation | |
Fu et al. | Real-time multimodal human–avatar interaction | |
US20240163527A1 (en) | Video generation method and apparatus, computer device, and storage medium | |
US20230326161A1 (en) | Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product | |
KR100643415B1 (ko) | 이동 단말기의 3차원 아바타 메신저 시스템 | |
CN109561338B (zh) | 一种点歌系统的界面无缝切换显示方法及存储介质 | |
WO2021208330A1 (zh) | 一种生成游戏角色的表情的方法和装置 | |
JP5509287B2 (ja) | 再生表示装置、再生表示プログラム、再生表示方法、および画像処理サーバー | |
KR102553432B1 (ko) | 아바타 얼굴 생성 시스템 | |
WO2024146236A1 (zh) | 游戏场景图像编辑方法、装置、计算机设备及存储介质 | |
US20240193838A1 (en) | Computer-implemented method for controlling a virtual avatar | |
Ballin et al. | Personal virtual humans—inhabiting the TalkZone and beyond | |
JP5106240B2 (ja) | 画像処理装置および画像処理サーバー |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |