JP7329217B2 - Computer program, server device, terminal device, and method - Google Patents
Computer program, server device, terminal device, and method Download PDFInfo
- Publication number
- JP7329217B2 JP7329217B2 JP2020078079A JP2020078079A JP7329217B2 JP 7329217 B2 JP7329217 B2 JP 7329217B2 JP 2020078079 A JP2020078079 A JP 2020078079A JP 2020078079 A JP2020078079 A JP 2020078079A JP 7329217 B2 JP7329217 B2 JP 7329217B2
- Authority
- JP
- Japan
- Prior art keywords
- predetermined
- avatar
- facial expression
- pose
- distributor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004590 computer program Methods 0.000 title claims description 71
- 238000000034 method Methods 0.000 title claims description 30
- 230000008921 facial expression Effects 0.000 claims description 340
- 230000009471 action Effects 0.000 claims description 92
- 230000014509 gene expression Effects 0.000 claims description 49
- 230000006870 function Effects 0.000 claims description 20
- 230000035943 smell Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 4
- 235000019645 odor Nutrition 0.000 claims 5
- 230000010365 information processing Effects 0.000 description 55
- 238000003860 storage Methods 0.000 description 24
- 230000008901 benefit Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 15
- 230000001815 facial effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 235000013372 meat Nutrition 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241000238814 Orthoptera Species 0.000 description 1
- 206010033557 Palpitations Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 235000013557 nattō Nutrition 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本件出願に開示された技術は、コンピュータプログラム、サーバ装置、端末装置及び方法に関する。 The technology disclosed in the present application relates to computer programs, server devices, terminal devices and methods.
近年、配信者が演じるアバターを用いた技術が発展している。この種の技術においては、配信サービスを介して、配信者が演じるアバターを、視聴者が視聴可能なようにされている。 In recent years, technology using avatars played by distributors has been developed. In this type of technology, viewers can view avatars played by distributors via distribution services.
また、アバターを用いたサービスに関連して、アバターオブジェクトの表情や動作を演者等の動作に基づいて制御する技術を利用したサービスとして、「カスタムキャスト」と称されるサービスが知られている(非特許文献1)。このサービスでは、演者は、スマートフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情や動作のうちのいずれかの表情又は動作を予め割り当てておき、所望する表情又は動作に対応する方向に沿って演者がスマートフォンの画面をフリックすることにより、その動画に表示されるアバターオブジェクトにその表情又は動作を表現させることができる。 In addition, in relation to services using avatars, a service called "custom cast" is known as a service that uses technology to control the facial expressions and actions of avatar objects based on the actions of performers, etc. ( Non-Patent Document 1). In this service, the performer pre-assigns one of a large number of prepared facial expressions and actions to each of a plurality of flicking directions on the screen of the smartphone, and selects the desired facial expression or action. By flicking the screen of the smartphone by the performer along the corresponding direction, the avatar object displayed in the moving image can express the facial expression or action.
しかしながら、非特許文献1に開示される技術においては、演者が発話しながらスマートフォンの画面をフリックしなければならず、演者にとっては当該フリックの操作を行う困難がある。 However, in the technology disclosed in Non-Patent Document 1, the performer has to flick the screen of the smartphone while speaking, and it is difficult for the performer to perform the flick operation.
なお、上記非特許文献1は、引用によりその全体が本明細書に組み入れられる。 The above non-patent document 1 is incorporated herein by reference in its entirety.
本件出願において開示された幾つかの実施形態は、アバターをより適切に表現可能な、コンピュータプログラム、サーバ装置、端末装置、及び方法を提供する。 Some embodiments disclosed in this application provide a computer program, a server device, a terminal device, and a method that can express avatars more appropriately.
一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。 A computer program according to one aspect is executed by one or more processors to perform predetermined actions of an avatar performed by a distributor, the expression of the avatar, the complexion of the avatar, the voice of the avatar, or acquiring information relating to any one or more of a predetermined situation occurring regarding the avatar, determining whether or not the acquired information satisfies a predetermined condition, and determining whether or not the acquired information satisfies a predetermined condition. When it is determined that the conditions are satisfied, the facial expression or pose of the avatar of the distributor generated based on the facial expression or pose of the distributor, the predetermined facial expression or pose corresponding to the predetermined condition, Information for the expression of the avatar is generated, and the avatar to which the predetermined expression or pose is applied is displayed.
一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 A computer program according to one aspect is executed by one or more processors to perform predetermined actions of an avatar performed by a distributor, the expression of the avatar, the complexion of the avatar, the voice of the avatar, Alternatively, acquiring information related to any one or more of predetermined situations occurring regarding the avatar, determining whether or not the acquired information satisfies a predetermined condition, and determining that the predetermined condition is satisfied. information for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition. and transmitting information for making the predetermined facial expression or pose.
一態様によるサーバ装置は、一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 A server device according to one aspect includes one or more processors, and the processors execute computer-readable instructions to perform predetermined actions of an avatar played by a distributor, Acquiring information related to any one or more of facial expression, complexion of the avatar, voice of the avatar, or a predetermined situation occurring with respect to the avatar, and whether or not the acquired information satisfies a predetermined condition and, if it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor corresponds to the predetermined condition. Information for making a predetermined facial expression or pose is generated, and the information for making the predetermined facial expression or pose is transmitted.
一態様による方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。 A method according to one aspect is a method executed by one or more processors executing computer readable instructions, wherein, in a virtual space, a given action of an avatar performed by a broadcaster, a facial expression of the avatar, Acquiring information related to any one or more of the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring regarding the avatar, and determining whether or not the acquired information satisfies a predetermined condition. and, if it is determined that a predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, is changed to the predetermined condition. Information for making a corresponding predetermined facial expression or pose the facial expression of the avatar is generated, and the avatar to which the predetermined facial expression or pose is applied is displayed.
一態様による方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 A method according to one aspect is a method executed by one or more processors executing computer readable instructions, wherein, in a virtual space, a given action of an avatar performed by a broadcaster, a facial expression of the avatar, Acquiring information related to any one or more of the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring regarding the avatar, and determining whether or not the acquired information satisfies a predetermined condition. and, when it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, is changed to a predetermined facial expression corresponding to the predetermined condition. Alternatively, information for making a pose is generated, and the information for making the predetermined expression or pose is transmitted.
一態様による視聴者端末装置は、一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。 A viewer terminal device according to one aspect includes one or more processors, and the processor executes a computer-readable instruction to perform a predetermined action of an avatar played by a distributor in a virtual space, Acquiring information related to any one or more of an avatar's facial expression, the avatar's complexion, the avatar's voice, or a predetermined situation occurring with respect to the avatar, and whether the obtained information satisfies a predetermined condition determining whether or not, and if it is determined that the predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, Information for making a predetermined facial expression or pose corresponding to the predetermined condition the facial expression of the avatar is generated, and the avatar to which the predetermined facial expression or pose is applied is displayed.
一態様による配信者端末装置は、一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 A distributor terminal device according to one aspect includes one or more processors, and the processor executes a computer-readable instruction to perform a predetermined action of an avatar played by a distributor in a virtual space, Acquiring information related to any one or more of an avatar's facial expression, the avatar's complexion, the avatar's voice, or a predetermined situation occurring with respect to the avatar, and whether the obtained information satisfies a predetermined condition If it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar associated with the distributor, which has been generated based on the facial expression or pose associated with the distributor, is changed to satisfy the predetermined condition. Information for making a corresponding predetermined facial expression or pose is generated, and the information for making the predetermined facial expression or pose is transmitted.
以下、添付図面を参照して本発明の様々な実施形態を説明する。或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面は、本願発明の一実施形態を開示するものではあるものの、必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。また、本願書類において、アプリケーションという用語が示す対象は、ソフトウェア、又はプログラムと呼ばれるものであってよく、コンピュータに対する指令であって、結果を得ることができるように組み合わされたものであればよい。 Various embodiments of the present invention will now be described with reference to the accompanying drawings. Note that components depicted in one drawing may be omitted in another drawing for convenience of explanation. Furthermore, it should be noted that the attached drawings, while disclosing one embodiment of the present invention, are not necessarily drawn to scale. Also, in this document, the object indicated by the term application may be referred to as software or a program, and may be instructions to a computer that are combined so as to obtain a result.
1.システムの例
図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。図1に示すように、システム1は、通信網10に接続される1又はそれ以上のサーバ装置20と、通信網10に接続される1又はそれ以上の端末装置30と、を含んでよい。なお、図1には、サーバ装置20の例として、3つのサーバ装置20A~20Cが例示され、端末装置30の例として、3つの端末装置30A~30Cが例示されているが、サーバ装置20として、これら以外の1又はそれ以上のサーバ装置20が通信網10に接続され得るし、端末装置30として、これら以外の1又はそれ以上の端末装置30が通信網10に接続され得る。なお、本出願書類において、システムという用語を、サーバと端末装置の両方を含む場合もあれば、サーバのみ、又は、端末装置のみ、を示す用語としても用いる。すなわち、システムは、サ―バのみ、端末装置のみ、サーバ及び端末装置の両方、のいずれの態様であってもよい。
1. System Example FIG. 1 is a block diagram showing an example of a system configuration according to an embodiment. As shown in FIG. 1 , system 1 may include one or more server devices 20 connected to communication network 10 and one or more terminal devices 30 connected to communication network 10 . In FIG. 1, three server devices 20A to 20C are illustrated as examples of the server device 20, and three terminal devices 30A to 30C are illustrated as examples of the terminal device 30. , one or more server devices 20 other than these may be connected to the communication network 10 , and one or more terminal devices 30 other than these may be connected to the communication network 10 as terminal devices 30 . In this application document, the term "system" may include both a server and a terminal device, and may also be used as a term indicating only a server or only a terminal device. In other words, the system may be in any form of a server only, a terminal device only, or both a server and a terminal device.
また、システムは、クラウド上の情報処理装置であってもよい。また、システムは、仮想的な情報処理装置を構成するものであって、論理的に一の情報処理装置と構成されるものであってもよい。また、システムの所有者と管理者は異なってもよい。 Also, the system may be an information processing device on the cloud. Further, the system constitutes a virtual information processing device, and may be logically configured with one information processing device. Also, the system owner and administrator may be different.
通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット、イーサネット(登録商標)、及び/又はこれらの組み合わせ等であってよく、また、これらに限定されない。通信網10においては、本願書類で開示された種々のデータが通信されてよい。 The communication network 10 may be, but is not limited to, a mobile phone network, a wireless LAN, a fixed phone network, the Internet, an intranet, Ethernet, and/or combinations thereof. In communication network 10, various data disclosed in this document may be communicated.
サーバ装置20は、インストールされた特定のアプリケーションを実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、
という動作等を実行できてよい。
By executing a specific installed application, the server device 20 performs a predetermined action of the avatar performed by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the voice of the avatar in the virtual space. a predetermined situation occurring in relation to the avatar, and determining whether or not the obtained information satisfies a predetermined condition, and when it is determined that the predetermined condition is satisfied , generating information for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition;
and the like.
或いはまた、端末装置30は、インストールされたウェブブラウザまたは特定のアプリケーションを実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等を実行できてよい。 Alternatively, by executing an installed web browser or a specific application, the terminal device 30 can perform a predetermined action of the avatar performed by the distributor, the expression of the avatar, the complexion of the avatar, the avatar, voice, or a predetermined situation that occurs with respect to the avatar, obtain information related to one or more, determine whether the obtained information satisfies a predetermined condition, and determine whether the predetermined condition is for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition when it is determined that the condition is satisfied It may be able to perform an operation such as generating information.
端末装置30は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等であってよく、これらに限定されない。 The terminal device 30 is any terminal device capable of executing such operations, and may be, but is not limited to, a smart phone, tablet, mobile phone (feature phone), personal computer, or the like.
2.各装置のハードウェア構成
次に、サーバ装置20が有するハードウェア構成の一例について説明する。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of the server device 20 will be described.
2-1.サーバ装置20のハードウェア構成
サーバ装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するように各端末装置30に関連して記載されたものである。)
2-1. Hardware Configuration of Server Device 20 An example of hardware configuration of the server device 20 will be described with reference to FIG. FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the server device 20 (terminal device 30) shown in FIG. It is described in relation to each terminal device 30.)
図2に示すように、サーバ装置20は、主に、演算装置21と、主記憶装置22と、入出力インタフェイス装置23を備えることができる。サーバ装置20は、更に、入力装置24と、補助出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されていてよい。 As shown in FIG. 2 , the server device 20 can mainly include an arithmetic device 21 , a main storage device 22 and an input/output interface device 23 . Server device 20 may further include input devices 24 and auxiliary output devices 26 . These devices may be connected by a data bus and/or a control bus.
演算装置21は、主記憶装置22に記憶されている命令及びデータを用いて演算を行い、その演算の結果を主記憶装置22に記憶させるものである。さらに、演算装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。サーバ装置20は、1以上の演算装置21を含んでよい。演算装置21は、1又はそれ以上の、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでよい。 The arithmetic device 21 performs arithmetic operations using instructions and data stored in the main memory device 22 and causes the main memory device 22 to store the results of the arithmetic operations. Further, the computing device 21 can control an input device 24, an auxiliary storage device 25, an output device 26 and the like via an input/output interface device 23. FIG. The server device 20 may include one or more computing devices 21 . Computing device 21 may include one or more central processing units (CPUs), microprocessors, and/or graphics processing units (GPUs).
主記憶装置22は、記憶機能を有し、入力装置24、補助記憶装置25及び通信網10等(サーバ装置20等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、演算装置21の演算結果を記憶するものである。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 22 has a storage function, and receives instructions and data from the input device 24, the auxiliary storage device 25, the communication network 10, etc. (server device 20, etc.) via the input/output interface device 23, and It stores the calculation result of the calculation device 21 . Main memory 22 may include, but is not limited to, RAM (random access memory), ROM (read only memory), and/or flash memory.
補助記憶装置25は、記憶装置である。上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶してよく、演算装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)は入出力インタフェイス装置23を介して主記憶装置22にロードされてよい。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置、ファイルサーバ等であってよく、これらに限定されない。 The auxiliary storage device 25 is a storage device. Instructions and data (computer programs) constituting the specific application, web browser, etc. may be stored. may be loaded into the main memory 22 via the . The auxiliary storage device 25 may be a magnetic disk device and/or an optical disk device, a file server, etc., but is not limited to these.
入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等であってよい。 The input device 24 is a device that takes in data from the outside, and may be a touch panel, buttons, keyboard, mouse and/or sensor.
出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができてよい。また、入力装置24と出力装置26とが一体化されたものであってもよい。 Output devices 26 may include, but are not limited to, display devices, touch panels, and/or printer devices. Alternatively, the input device 24 and the output device 26 may be integrated.
このようなハードウェア構成にあっては、演算装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置20及び他の端末装置30等)との間で様々な情報の送受信を行うことができてよい。 In such a hardware configuration, the arithmetic unit 21 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 25 into the main storage device 22, and loads the loaded instructions. and data to control the output device 26 via the input/output interface device 23, or to control other devices (for example, the server device 20 and It may be possible to transmit and receive various information to and from other terminal devices 30, etc.).
サーバ装置20がかかる構成を備え、インストールされた特定のアプリケーションを実行することにより、以下で定義される、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述する様々な動作を含む)の一部又は全部を実行できてよい。また、かかる動作等は、ユーザーが、入力装置24又は後述する端末装置30に係る入力装置34を用いて、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラムが演算装置21上で実行されている場合にはユーザーの利用するシステムとしてのサーバ装置20の出力装置26によって表示されてよく、又はユーザーの利用するシステムとしての端末装置30の出力装置36に表示させる構成であってよい。 The server device 20 is provided with such a configuration, and by executing a specific installed application, predetermined actions of the avatar played by the distributor, the expression of the avatar, the expression of the avatar, and the Acquiring information related to any one or more of complexion, voice of the avatar, or a predetermined situation occurring regarding the avatar, determining whether the acquired information satisfies a predetermined condition, When it is determined that a predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, is changed to a predetermined facial expression or pose corresponding to the predetermined condition. It may be possible to perform some or all of operations such as generating information for . Further, such operations may be performed by the user using the input device 24 or an input device 34 associated with the terminal device 30, which will be described later, to give instructions to the system of the example of the invention disclosed in this document. Further, when the program is executed on the arithmetic device 21, it may be displayed by the output device 26 of the server device 20 as the system used by the user, or the output device of the terminal device 30 as the system used by the user. 36 may be used.
2-2.端末装置30のハードウェア構成
端末装置30のハードウェア構成例について同じく図2を参照して説明する。各端末装置30のハードウェア構成としては、例えば、上述した各サーバ装置20のハードウェア構成と同一のものを用いることが可能である。したがって、各端末装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Terminal Device 30 An example of hardware configuration of the terminal device 30 will be described with reference to FIG. As the hardware configuration of each terminal device 30, for example, the same hardware configuration as that of each server device 20 described above can be used. Therefore, the reference numerals for the components of each terminal device 30 are shown in parentheses in FIG.
図2に示すように、各端末装置30は、主に、演算装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each terminal device 30 mainly includes an arithmetic device 31, a main storage device 32, an input/output interface device 33, an input device 34, an auxiliary storage device 35, and an output device 36. , can be included. These devices are connected to each other by a data bus and/or a control bus.
演算装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各サーバ装置20に含まれる、演算装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であってもよいし、異なるものであってもよい。また、演算装置や記憶装置の容量や能力は、異なっていてよい。特に入力装置34及び出力装置36については、以下で詳述する。 Arithmetic device 31, main storage device 32, input/output interface device 33, input device 34, auxiliary storage device 35, and output device 36 are included in each server device 20 described above, respectively. , the input/output interface device 23, the input device 24, the auxiliary storage device 25, and the output device 26, or may be different. Also, the capacities and capabilities of the computing devices and storage devices may be different. Input device 34 and output device 36, in particular, are described in greater detail below.
このようなハードウェア構成にあっては、演算装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各サーバ装置20等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the arithmetic unit 31 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 35 into the main storage device 32, and loads the loaded instructions. and data to control the output device 36 via the input/output interface device 33, or to control other devices (for example, each server device 20) via the input/output interface device 33 and the communication network 10 etc.).
端末装置30がかかる構成を備え、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、 という動作等(後に詳述する様々な動作を含む)の一部又は全部を実行できてよい。また、インストールされたウェブブラウザを実行することにより、サーバ装置20からウェブページを受信及び表示して、同様の動作を実行できる。また、かかる動作等は、ユーザーが、入力装置34を用いて、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラムが演算装置31上で実行されている場合にはユーザーの利用するシステムとしての端末装置30の出力装置36に表示する構成であってよい。 The terminal device 30 has such a configuration, and in the virtual space, a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring in relation to the avatar. acquire information related to any one or more of them, determine whether the acquired information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, express or An operation such as generating information for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the pose, to a predetermined facial expression or pose corresponding to the predetermined condition (various actions) may be performed in part or in whole. Also, by executing the installed web browser, it is possible to receive and display web pages from the server device 20 and perform similar operations. Also, such operations may be performed by the user using the input device 34 to give instructions to the system of the example of the invention disclosed in this document. Further, when the program is executed on the arithmetic device 31, it may be configured to be displayed on the output device 36 of the terminal device 30 as a system used by the user.
端末装置は、本願書類において、「配信者端末」と「視聴者端末」の2種類の端末装置があってよい。これらは端末の役割に対して付与された名称であってよく、一の端末装置が、視聴者端末であることもあれば、配信者端末であることもあり、また、視聴者端末であると同時に配信者端末であってもよい。配信者端末は、配信されるものにアバターなどの被写体として登場する者である配信者が利用する端末であってよい。他方、視聴者端末は、主に、配信されているものを視聴する者である視聴者が利用する端末であってよい。なお、視聴者も、アバターなどの被写体に対してギフトを提供するギフティング行為によって、配信されるものにギフトが登場するような形で、視聴者が配信されるものに一定の影響をあたえてもよい。同様に、視聴者は、音声、コメント、等の形で、配信されるものに、一定の影響を与えてよい。配信されるものは、動画であってもよいし、映像であってもよいし、アニメーションであってもよく、これらの一部に配信者が演じるアバターなどの被写体が登場する者であればよい。なお、上述の説明は、本願発明の一実施形態が適用される例にすぎず、かかる前提のない被写体が登場する仮想空間においても、本願発明に係る各実施形態は適用されてよい。 In the present document, there may be two types of terminal devices, a "distributor terminal" and a "viewer terminal". These may be names given to the roles of terminals, and one terminal device may be a viewer terminal or a distributor terminal, and may be a viewer terminal and a distributor terminal at the same time. may be a user terminal. The distributor terminal may be a terminal used by a distributor who appears as a subject such as an avatar in what is distributed. On the other hand, the viewer terminal may be a terminal primarily used by viewers who watch what is being distributed. In addition, viewers can also give a certain amount of influence to what is distributed by giving gifts to subjects such as avatars in such a way that gifts appear in what is distributed. good too. Similarly, viewers may influence what is delivered in the form of audio, comments, and the like. The content to be distributed may be a video, a video, or an animation, as long as the subject such as an avatar played by the distributor appears in a part of them. . Note that the above description is merely an example to which one embodiment of the present invention is applied, and each embodiment of the present invention may be applied even in a virtual space in which a subject without such assumptions appears.
視聴者端末は、上述のように、音声の入力、コメントの入力、ギフティングなどが可能に構成されてよい。例えば、利用者端末は、入力装置34として、コメントを入力可能であり、テキスト情報たるコメントを取得可能なキーボード、タッチパネル、などを有してよい。また、利用者端末は、演算装置34により、一定のコメントを生成する機能を有してもよい。これらの取得されたコメントは、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 The viewer terminal may be configured to allow voice input, comment input, gifting, etc., as described above. For example, the user terminal may have, as the input device 34, a keyboard, a touch panel, or the like that can input comments and obtain comments that are text information. Also, the user terminal may have a function of generating a certain comment by means of the computing device 34 . These acquired comments may be similarly transmitted to the communication network 10 via the input/output interface device 23 .
なお、本願発明に係るコメントは、利用者端末によって入力されるコメント以外に、システムが自動的に生成するものであってよい。かかるコメントは、利用者端末に向けて送信され、利用者端末において表示されてよい。 Note that the comments according to the present invention may be automatically generated by the system in addition to the comments input by the user terminal. Such comments may be sent to the user terminal and displayed at the user terminal.
また、端末は、入力装置34として、音を取得可能なマイクを含んでよい。なお、人の音声は、入力装置34としてのマイクによって取得され、音として扱ってもよいし、入力装置34としてのマイクによって取得された後、演算装置31による音声認識によりテキスト化して、コメントとして扱ってもよい。なお、利用者端末は、演算装置31によって音を生成してもよい。これらの取得された音又はコメントは、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 The terminal may also include a microphone capable of acquiring sound as the input device 34 . The human voice may be acquired by the microphone as the input device 34 and treated as sound, or after being acquired by the microphone as the input device 34, converted into text by speech recognition by the arithmetic unit 31 and used as a comment. can handle. It should be noted that the user terminal may generate sound using the computing device 31 . These acquired sounds or comments may be similarly transmitted to the communication network 10 via the input/output interface device 23 .
他方、配信者端末は、入力装置34として、人の動きを検知可能なモーションセンサーを含んでよい。モーションセンサーは、配信者の身体に装着し、身体の各部の動きを検知可能な機能を有してよい。身体の各部としては、頭部、顔面、上腕、前腕、手、大腿、下腿、足、体幹、など種々の箇所が挙げられうるが、これらの一部又は全部に限られず、身体の動きを検出可能な位置に装着できるものであってよい。かかるセンサーによって、配信者の表情やポーズをトラッキングし、情報として生成可能であってよい。モーションセンサーは、加速度センサ、ジャイロセンサ、地磁気センサなどを有してよい。これらの取得された情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 On the other hand, the distributor terminal may include a motion sensor capable of detecting human movement as the input device 34 . The motion sensor may be attached to the body of the broadcaster and have a function capable of detecting movements of each part of the body. Each part of the body can include various parts such as the head, face, upper arm, forearm, hand, thigh, lower leg, foot, trunk, etc., but not limited to some or all of these. It may be something that can be attached to a detectable position. Such sensors may be able to track the facial expressions and poses of the broadcaster and generate them as information. Motion sensors may include acceleration sensors, gyro sensors, geomagnetic sensors, and the like. These acquired information may be similarly transmitted to the communication network 10 via the input/output interface device 23 .
また、配信者端末は、入力装置34として、動画を撮像可能なカメラを含んでよい。カメラは、配信者の、頭、顔面、目、身体の一部、全身、などを撮像してよい。カメラが、頭や顔面を撮像する場合顔の方向を検知することが可能であり、顔面を撮像する場合表情を検知することが可能であり、目を撮像する場合視線を検知することが可能であり、身体の一部又は全身を撮像する場合上述のモーションセンサーと共に又は代えて身体の動きを検知することが可能であってよい。これらの撮像情報に基づいた、顔方向、視線、表情、身体の動きについて取得された情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 Also, the distributor terminal may include a camera capable of capturing moving images as the input device 34 . The camera may capture the head, face, eyes, body parts, whole body, etc. of the broadcaster. When the camera captures an image of the head or face, it can detect the direction of the face. When capturing the image of the face, it can detect the facial expression. When capturing the image of the eye, the camera can detect the line of sight. Yes, it may be possible to detect body movement in conjunction with or in place of the motion sensors described above when imaging a portion of the body or the entire body. Information about facial direction, line of sight, facial expression, and body movement based on these imaging information may be similarly transmitted to the communication network 10 via the input/output interface device 23 .
また、視聴者端末及び配信者端末における出力装置36は、表示装置、音発生装置であってよい。表示装置は、表示可能な機能であれば種々の装置であってよく、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、マイクロLEDディスプレイ、ヘッドマウントディスプレイなどが挙げられるが、これらに限らず種々の装置であってよい。音発生装置は、スピーカー、ヘッドフォン、イヤホンなどであってよい。出力装置36で出力される情報は、演算装置31において生成された情報であってもよいし、通信網10から受信した情報であってもよい。 Also, the output device 36 in the viewer terminal and distributor terminal may be a display device or a sound generator. The display device may be a variety of devices as long as it has a displayable function, and examples thereof include liquid crystal displays, plasma displays, organic EL displays, micro LED displays, head-mounted displays, etc. It can be a device. The sound-producing device may be a speaker, headphones, earphones, or the like. The information output by the output device 36 may be information generated by the arithmetic device 31 or information received from the communication network 10 .
3.各装置の機能
次に、サーバ装置20及び端末装置30の各々が有する機能の一例について、図3を参考に、説明する。図3は、図1に示したシステムの機能の一例を模式的に示すブロック図である。図3に示すように、一例のシステムは、物体を生成するのに使用できる情報を取得する取得部と、取得された情報を用いて物体を生成する生成部と、を有してよい。
3. Functions of Each Device Next, an example of the functions of each of the server device 20 and the terminal device 30 will be described with reference to FIG. FIG. 3 is a block diagram schematically showing an example of functions of the system shown in FIG. As shown in FIG. 3, an example system may include an acquisition unit that acquires information that can be used to generate an object, and a generation unit that uses the acquired information to generate the object.
2.1.取得部
取得部は、後述する所定の条件の適用の可否を判断するのに使用できる情報を取得する機能を有する。
2.1. Acquisition Unit The acquisition unit has a function of acquiring information that can be used to determine whether or not a predetermined condition, which will be described later, is applicable.
取得部の取得する情報は、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報(本願書類において、所定の動作等、ということもある)を含んでよい。 The information acquired by the acquisition unit is any of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring in relation to the avatar in the virtual space. It may include information (in this document, it may also be referred to as a predetermined operation, etc.) related to one or more of them.
これらの、取得部の取得する情報については、条件適用部において、その具体的な内容を説明する。なお、図4は、これらの取得部が取得する情報の一部の一例を示したものである。 Concrete contents of the information acquired by the acquisition unit will be explained in the condition application unit. Note that FIG. 4 shows an example of part of the information acquired by these acquisition units.
また、取得部は、ギフトが、特定のアバターに対して提供された場合は、かかるギフトが提供された相手であるアバターを特定する情報を、取得してよい。 Moreover, when a gift is provided to a specific avatar, the obtaining unit may obtain information specifying the avatar to whom the gift has been provided.
なお、取得部が情報を取得する元となる情報処理装置は、取得部の機能を有する情報処理装置と同じであってもよいし、異なってもよい。また、取得という用語は、情報を、他の情報処理装置から受信する意味の上位概念であってよく、また、情報を記憶装置から情報を読み取る意味の上位概念であってよく、また、他のプログラムから記憶装置を介して情報を受け取る意味の上位概念であってよい。 The information processing device from which the obtaining unit obtains information may be the same as or different from the information processing device having the function of the obtaining unit. The term "acquisition" may be a broader concept of receiving information from another information processing device, or may be a broader concept of reading information from a storage device. It may be a broader concept of the meaning of receiving information from a program via a storage device.
2.2.条件適用部
条件適用部は、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する機能を有する。
2.2. The condition application unit The condition application unit determines whether the acquired information satisfies a predetermined condition, and if it determines that the acquired information satisfies the predetermined condition, the facial expression or It has a function of generating information for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the pose, to a predetermined facial expression or pose corresponding to the predetermined condition.
ここで、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成するとは、かかる所定の条件が充足された場合において、前記配信者に係る表情に基づいて生成されていた前記配信者に係るアバターの表情を、前記所定の条件に対応する所定の表情とするための情報のみを生成してもよいし、前記配信者に係るポーズに基づいて生成されていた前記配信者に係るアバターのポーズを、前記所定の条件に対応する所定のポーズとするための情報のみを生成してもよいし、前記配信者に係る表情及びポーズに基づいて各々生成されていた前記配信者に係るアバターの表情及びポーズを、前記所定の条件に対応する所定の表情及びポーズとするための情報を生成してもよい。なお、本願書類において、所定の条件に対応して特定される、所定の表情及び/又はポーズについて、所定の表情等ということがあり、また、表情及び/又はポーズを、表情等ということがある。 Here, generating information for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition. is for changing the facial expression of the avatar of the distributor, which has been generated based on the facial expression of the distributor, to a predetermined facial expression corresponding to the predetermined condition when such a predetermined condition is satisfied; Only information may be generated, or only information for making the pose of the avatar associated with the distributor, which has been generated based on the pose associated with the distributor, a predetermined pose corresponding to the predetermined condition. Alternatively, the expression and pose of the avatar of the distributor, which have been generated based on the expression and pose of the distributor, are set to predetermined expressions and poses corresponding to the predetermined conditions. information may be generated. In the documents of the present application, a predetermined facial expression and/or pose specified in response to a predetermined condition may be referred to as a predetermined facial expression, etc., and a facial expression and/or pose may be referred to as a facial expression, etc. .
また、所定の表情等は、予め定められた表情のパラメータ、又は、配信者の表情に基づく表情のパラメータを所定のルールに基づいて補正された表情のパラメータ、を用いて表示される表情であってもよいし、予め定められた形状又は動きの設定により表示される表情であってもよいし、予め定められたポーズのパラメータ、又は、配信者のポーズに基づくポーズのパラメータを所定のルールに基づいて補正されたポーズのパラメータ、を用いて表示されるポーズであってもよいし、予め定められた形状又は動きの設定により表示されるポーズであってもよい。ここで、予め定められた表情のパラメータとは、顔の各部位の動きに影響を与える複数のパラメータを示し、かかる複数のパラメータを各々所定の値に設定することにより、一の表情を示すものであってよい。かかる一又は複数のパラメータは、顔の各部位の動きに影響を与えるパラメータであればよく、各パラメータが、顔の特定の部位についてのものでもよいし、顔全体(又は顔の一部)についてのものであるがパラメータ毎に顔全体(又は顔の一部)の形状が異なるものでもよい。後者は、同じ面積であるが形状が異なるものを複数用意して、それらの一部又は複数の合成によって、一の表情を表現する技術である。後者の例としては、例えば、ブレンドシェイプが挙げられ、かかる技術では、予め形状が異なる複数の顔全体の形状のものを用意しそれらの複数の形状の合成によって一の表情を生成するものである。なお、本技術においては、通常の顔の要素に加えて、予め所定の形状のものを用意しておくことにより、特殊な表情をさせてもよい。例えば、予め顔の縦線を示す形状を用意しておく場合には、かかる顔の縦線の演出が可能となり、予め目がバツの演出の要素を用意しておく場合には、かかる目がバツの演出が可能となる。この場合、パラメータが予め設定されることから、配信者の表情等を問わず、再現される表情等となるため、表情等を示す適切なパラメータが選択される場合には常に分かりやすい表情等を再現できる利点がある。なお、この場合においても、アバターに応じて、所定の表情等が異なるよう設定されてもよい。すなわち、アバターAとアバターBについて、同一の所定の条件が充足された場合において適用される所定の表情等が、アバターAとアバターBにおいて、異なってもよい。この場合において、個々のアバターに対して設定されてもよいし、アバターの種類に応じて、設定されてもよい。 Further, the predetermined facial expression or the like is a facial expression displayed using a predetermined facial expression parameter or a facial expression parameter obtained by correcting the facial expression parameter based on the distributor's facial expression based on a predetermined rule. It may be an expression displayed by setting a predetermined shape or movement, a predetermined pose parameter, or a pose parameter based on the pose of the broadcaster according to a predetermined rule. It may be a pose displayed using the parameters of the pose corrected based on the pose, or a pose displayed by setting a predetermined shape or movement. Here, the predetermined facial expression parameter indicates a plurality of parameters that affect the movement of each part of the face, and by setting each of the plurality of parameters to a predetermined value, one facial expression is indicated. can be Such one or more parameters may be parameters that affect the movement of each part of the face, and each parameter may be for a specific part of the face, or for the entire face (or part of the face) However, the shape of the whole face (or part of the face) may be different for each parameter. The latter is a technique in which a plurality of objects having the same area but different shapes are prepared, and one facial expression is expressed by synthesizing a part or a plurality of them. An example of the latter is a blend shape, in which a plurality of different overall face shapes are prepared in advance and a single facial expression is generated by synthesizing the plurality of shapes. . Note that, in the present technology, in addition to normal facial elements, a special facial expression may be given by preparing a predetermined shape in advance. For example, if a shape indicating the vertical lines of the face is prepared in advance, it is possible to produce the vertical lines of the face. It is possible to produce a cross. In this case, since the parameters are set in advance, the facial expression, etc. will be reproduced regardless of the facial expression, etc. of the broadcaster. It has the advantage of being reproducible. Also in this case, the predetermined facial expression may be set differently depending on the avatar. That is, for avatar A and avatar B, the predetermined facial expression applied when the same predetermined condition is satisfied may be different between avatar A and avatar B. In this case, it may be set for each avatar, or may be set according to the type of avatar.
他方、所定の表情等が、配信者の表情等に基づく表情等のパラメータを所定のルールに基づいて補正された表情等のパラメータである場合は、所定の表情等が、配信者の表情等に基づいた表情等となってよい。例えば、配信者が何らかのギフトに対して、驚いた表情をするとする。このとき、配信者の表情の検知に対応してアバターの表情が一又は複数のパラメータによって驚きに対応する表情に設定されるが、所定の条件に対応する所定の表情として驚きに係る複数のパラメータの値を所定の値分増加させたり減少させることにより、より驚きの表情を強調するようにする場合を示す。上述の技術を所定の表情として一又は複数のパラメータが決定される点において絶対値的なものであるのに対し、本技術は、いわば、現在の配信者の表情から得られた情報に対する相対的なパラメータを用いるものであってよい。そのため、同一の配信者が演じる同一のアバターが、同一の所定の条件が適用された場合においても、かかる配信者自身がその時点で有している表情等に基づく表情等のパラメータは同じ場合もあれば、異なる可能性もあることから、かかる異なりうるパラメータに応じた表情等が、所定の表情等となる場合がある。そのため、より表情等のバリエーションをもたせることができる可能性がある。 On the other hand, if the predetermined facial expression, etc. is a facial expression parameter, etc., that is obtained by correcting the facial expression, etc. parameter based on the facial expression, etc. of the distributor based on a predetermined rule, the predetermined facial expression, etc. does not correspond to the facial expression, etc. of the distributor. It may be a facial expression etc. based on. For example, assume that the distributor has a surprised expression for some kind of gift. At this time, the facial expression of the avatar is set to a facial expression corresponding to surprise by one or a plurality of parameters corresponding to the detection of the facial expression of the broadcaster. is increased or decreased by a predetermined value to emphasize the expression of surprise. While the above-described technology is absolute in that one or more parameters are determined with a predetermined facial expression, the present technology can be said to be relative to information obtained from the current facial expression of the distributor parameters may be used. Therefore, even if the same predetermined conditions are applied to the same avatar played by the same distributor, the parameters such as facial expressions based on the facial expressions that the distributor himself has at that time may be the same. If there is, there is a possibility that it will be different, so there are cases where the facial expression etc. corresponding to such different parameters may become the predetermined facial expression etc. Therefore, there is a possibility that it is possible to have more variations such as facial expressions.
また、予め定められた形状又は動きの設定により表示される表情は、表情として、お面のように予め定められた形状そのものを、所定の表情とするものを示し、かかるものであってもよい。 In addition, the facial expression displayed by setting a predetermined shape or movement indicates that a predetermined shape itself, such as a mask, is used as a predetermined expression as a facial expression, and may be such. .
なお、以上においては、いずれも所定の表情について説明したが、同様に、所定のポーズについても、対応する技術が用いられてよい。 In the above description, a predetermined facial expression has been described, but similarly, a corresponding technique may be used for a predetermined pose.
また、所定の表情等は、生じる所定の動作等と関連する表情等であってよい。この場合、視聴者は、所定の表情等が表現される理由を、所定の動作等と関連付けて、容易に理解できる利点がある。 Also, the predetermined facial expression or the like may be a facial expression or the like associated with a predetermined action or the like that occurs. In this case, there is an advantage that the viewer can easily understand the reason why a predetermined expression or the like is expressed in association with a predetermined action or the like.
また、所定の表情等は、表情等を構成する全ての個所についてのパラメータに作用してもよいし、その一部のパラメータに作用してもよい。例えば、所定の表情等は、口についてのパラメータのみに作用し、口以外の個所についてのパラメータは、配信者の表情に連動するパラメータであって、配信者端末から配信者の表情の動きに対応した情報に基づくパラメータであってよい。また、所定の表情等は、アバターの外観を含んでもよい。例えば、所定の表情等は、アバターが黒焦げになる演出を含んでよい。 Moreover, a predetermined facial expression or the like may act on parameters for all parts constituting the facial expression or the like, or may act on a part of the parameters. For example, a predetermined facial expression or the like affects only the parameters for the mouth, and the parameters for parts other than the mouth are parameters that are linked to the facial expression of the distributor, and correspond to the movement of the facial expression of the distributor from the distributor terminal. It may be a parameter based on the information obtained. Also, the predetermined facial expression or the like may include the appearance of the avatar. For example, the predetermined facial expression or the like may include an effect in which the avatar is charred.
また、所定の表情等は、所定の動作等の方向に連動して変化する、ものであってよい。仮想空間内において、後述の物等の出現場所が、配信者に分からないことがある。このとき、物等の出現場所に、配信者は気づかないことがあり、結果として、配信者に係るアバターも、その物等に反応ができないことがある。例えば、おばけキャラが登場したり、たらいが頭上から落ちてきたときに、配信者が気付かない場合もありえる。そこで、アバターに係る所定の表情等が、所定の動作等が表示されている方向に連動して変化することにより、視聴者もよりアバターの行動に興味を持つことができる利点がある。ここで、所定の動作等の方向に連動して変化する態様としては、種々のものがあってよい。例えば、おばけキャラが接触してきた方向や、ゾンビキャラが迫ってきた方向に対して、設定される所定の表情等が向いてよい。所定の表情等が向く場合において、アバターの一部の部位が連動して変化してもよいし、アバターの複数の部位が連動して変化してもよい。例えば、所定の表情等が向く場合とは、体全体がかかる方向を向いてもよいし、頭部のみがかかる方向を向いてもよいし、目のみなど顔の一部のみがかかる方向を向いてもよい。 Also, the predetermined facial expression or the like may change in conjunction with the direction of a predetermined action or the like. In the virtual space, there are times when the distributor does not know the place where things such as things described later appear. At this time, the distributor may not be aware of where the object appears, and as a result, the avatar associated with the distributor may not be able to react to the object. For example, when a ghost character appears or a basin falls from overhead, the broadcaster may not notice. Therefore, there is an advantage that the viewer can be more interested in the behavior of the avatar by changing the predetermined facial expression etc. of the avatar in conjunction with the direction in which the predetermined action etc. is displayed. Here, there may be various modes for changing in conjunction with the direction of the predetermined motion or the like. For example, a predetermined facial expression or the like may be set to face the direction in which the ghost character has come into contact or the direction in which the zombie character has approached. When a predetermined facial expression or the like is directed, a part of the avatar may be changed in conjunction, or a plurality of parts of the avatar may be changed in conjunction. For example, when a predetermined facial expression or the like is directed, the entire body may be directed in the direction in which the expression is directed, only the head may be directed in the direction in which the expression is directed, or only a part of the face such as only the eyes may be directed in the direction in which the facial expression is directed. may
所定のポーズは、種々のポーズであってよい。ポーズは、アバターの体の一部のみであってもよいし、アバターの体の全体であってもよい。例えば、首をかしげるポーズとして頭部のみのポーズや、手が大きくなったり手が赤く腫れた演出を含む手のみのポーズや、ガッツポーズのように上半身のみのポーズであってもよいし、銃を構えるポーズや全身でジャンプするような全体のポーズでもよい。 The predetermined pose may be various poses. A pose may be only a part of the avatar's body or may be the entire avatar's body. For example, poses with only the head as a pose to tilt the neck, poses with only the hands including a production that the hands are enlarged or swollen red, poses with only the upper body such as guts poses, gun poses, etc. It can be a pose that holds up or a whole pose that jumps with the whole body.
所定の条件は、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報、を用いてよい。 The predetermined condition is information related to any one or more of a predetermined action of the avatar performed by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring regarding the avatar. , can be used.
配信者が演じるアバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作であってよい。また、前記アバターの所定の動作は、所定の対象を見る動作を含んでよい。例えば、アバターが、何か物を見て驚いた場合、所定の表情等として、驚く表情が設定されてよい。この場合、アバターが驚く表情をすることが自然な物をあらかじめ設定しておき、かかる物が、視線の延長線上にある場合に、かかるアバターが、かかる物を見たと判定してよい。すなわち、前記所定の動作が、前記所定の対象を見る動作を含む場合、前記所定の条件は、前記所定の対象が前記アバターの視線方向となるように前記アバターの視線を移動させること、又は、前記アバターの視線上において前記所定の対象が存在すること、を含んでよい。前者は、アバターが主体的に見る方向を移動して視線を変化させた場合に、かかる視線の延長線上に驚く物が位置していると、所定の表情等として驚く表情が設定されてよい。後者は、所定の対象が存在する場合であってよく、アバターが所定の方向を見ている場合に、その方向に所定の対象が生じて表示された場合等があってよい。 The predetermined action of the avatar performed by the distributor may be a predetermined action that the avatar perceives with the five senses if the avatar is a living creature. Also, the predetermined motion of the avatar may include a motion of looking at a predetermined target. For example, when the avatar sees something and is surprised, a surprised expression may be set as the predetermined expression. In this case, an object that is natural for the avatar to make a surprised expression may be set in advance, and it may be determined that the avatar has seen the object when the object is on the extension line of the line of sight. That is, when the predetermined action includes a motion of looking at the predetermined target, the predetermined condition is to move the line of sight of the avatar so that the predetermined target is in the line-of-sight direction of the avatar, or It may include that the predetermined target exists on the line of sight of the avatar. In the former case, when the avatar changes its line of sight by actively moving the direction in which it looks, and if the surprising object is positioned on the extension line of the line of sight, a surprised expression may be set as a predetermined expression or the like. The latter may be the case where a predetermined target exists, and when the avatar is looking in a predetermined direction, the predetermined target may appear and be displayed in that direction.
以上、上述においては、アバターに驚きの感情をもたらす物について説明したが、驚きの感情に限らず、他の感情や感覚をもたらす物であってもよい。例えば、おばけなどの怖いという感情をもたらす物、ステーキなどの好きだという感情をもたらす物、納豆などの嫌いだという感情をもたらす物、など人が対象を見たときに一定の感情や感覚が生じる物であってよい。また、かかる物を見た場合の所定の表情等についても、かかる対象を見た場合に人が一般的に生じる顔を示す所定の表情等が設定されてよい。上述の怖いという感情をもたらす物、好きだという感情をもたらす物、嫌いだという感情をもたらす物、については、対応して、ぞっとする表情、笑顔、嫌悪の表情、などであってよい。 In the above description, an object that gives the avatar a feeling of surprise has been described, but the object is not limited to the feeling of surprise, and may be an object that gives another feeling or sensation. For example, when a person looks at an object, certain emotions and sensations arise, such as objects that evoke feelings of fear such as ghosts, objects that evoke feelings of liking such as steak, and objects that evoke feelings of dislike such as natto. It can be a thing. Also, a predetermined facial expression or the like representing a face that a person generally makes when viewing such an object may be set as a predetermined facial expression or the like when viewing such an object. The above-mentioned things that evoke feelings of fear, things that evoke feelings of liking, and things that evoke feelings of dislike can be correspondingly horrified expressions, smiles, expressions of disgust, and the like.
上述では、見る対象を物として説明したが、見る対象は、他のキャラクタや他のアバターであってもよい。すなわち、前記所定の対象が他のアバター又はキャラクタである場合、前記アバターの所定の動作は、前記アバターの視線と前記所定の対象に係る視線とが合うことを含んでよい。このように、他のキャラクタや他のアバターと視線が合った場合に、所定の表情等に設定してよい。なお、アバター同士の視線が合致している場合、一方のアバターについてのみ、所定の表情等が設定されてもよいし、両方のアバターについて、所定の表情等が設定されてもよい。後者は、例えば、視線が合って、両方のアバターが顔が赤くなる等のドキドキしている表情等が考えられる。また、後者の両方のアバターについて所定の表情等が設定される場合において、かかる設定される表情等は、同一の所定の表情等であってもよいし、異なる所定の表情等であってもよい。かかる異なる所定の表情等となる理由としては、アバターの属するタイプに応じた所定の表情等であってもよいし、アバターの好みや性質等に応じた所定の表情等であってもよいし、確率的に選定された所定の表情等であってもよい。また、アバターが他のキャラクタと視線が合う場合の例としては、おばけキャラとアバターの視線があうと、アバターの所定の表情等として、アバターの顔が青ざめる設定としてよい。かかる所定の条件は、アバターの視線方向とおばけキャラ等の対象物との交点の有無を判定することによって、充足性が判定されてよい。 In the above description, the object to be seen is described as an object, but the object to be seen may be other characters or other avatars. That is, when the predetermined target is another avatar or character, the predetermined action of the avatar may include matching the line of sight of the avatar with the line of sight of the predetermined target. In this way, when the line of sight matches that of another character or other avatar, a predetermined facial expression or the like may be set. When the line of sight of the avatars matches, a predetermined facial expression or the like may be set for only one of the avatars, or a predetermined facial expression or the like may be set for both avatars. As for the latter, for example, it is conceivable that both avatars' facial expressions are heart-pounding, such as their faces turning red when their eyes are on each other. In addition, in the case where the predetermined facial expressions etc. are set for both of the latter avatars, the facial expressions etc. to be set may be the same predetermined facial expressions etc., or may be different predetermined facial expressions etc. . The reason for such a different predetermined facial expression may be a predetermined facial expression that corresponds to the type to which the avatar belongs, or a predetermined facial expression that corresponds to the avatar's preference or nature. A predetermined facial expression or the like selected stochastically may be used. In addition, as an example of a case where the avatar meets the line of sight of another character, when the line of sight of the ghost character and the avatar meet, the avatar's face may turn pale as a predetermined facial expression of the avatar. The sufficiency of such a predetermined condition may be determined by determining whether or not there is an intersection between the line-of-sight direction of the avatar and an object such as a ghost character.
上述では、見る対象を物として説明したが、見る対象は、何らかのイベントであってもよい。イベントは、その規模や対象は種々のものであってよく、限定はない。例えば、コオロギの大群が突進してきたり、氾濫した川の水で流されたり、突風が襲ってくるような怖い状況のイベントであってもよいし、他のキャラクタやアバターの転倒や流血などの痛そうな状況であってもよい。かかるイベントの場合であっても、同様に、かかるイベントを見たアバターについて、対応する所定の表情等に設定されてよい。 In the above description, the object to be viewed is described as an object, but the object to be viewed may be some event. The event may have various scales and targets, and is not limited. For example, it may be a scary event such as a rushing swarm of crickets, being swept away by a flooded river, or a gust of wind, or a painful event such as falling or bloodshed of another character or avatar. It may be so. Even in the case of such an event, similarly, the corresponding predetermined facial expression or the like may be set for the avatar who has seen such an event.
また、アバターの所定の動作は、所定の対象に接触する動作を含んでよい。そして、前記所定の動作が、前記所定の対象に接触する動作を含む場合、前記所定の条件は、前記アバターに係る位置と、前記所定の対象に係る位置と、の距離が所定の距離内である こと、を含んでよい。ここで、前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダーの位置、のいずれかであってよい。 Also, the predetermined motion of the avatar may include a motion of touching a predetermined target. When the predetermined motion includes a motion of contacting the predetermined target, the predetermined condition is that the distance between the position of the avatar and the position of the predetermined target is within a predetermined distance. may include being. Here, the position related to the avatar is any one of the position of the avatar in the virtual space, the part that activates the predetermined facial expression, the predetermined part of the avatar, or the position of the collider of the avatar. good.
ここで、接触する動作は、アバターが主体的又は受動的を問わず、アバターから接触する態様を意味するが、第三者から接触される態様は意味しない。第三者から主体的又は受動的を問わず、第三者から接触される態様は、アバターに関して生じる所定の状況、に含まれる。なお、受動的とは、例えば、アバターや第三者の意思を問わずに、アバターや第三者が客観的に動いた結果、接触されるケースを含む。 Here, the action of contact means a mode of contact from the avatar, regardless of whether the avatar is active or passive, but does not mean a mode of contact from a third party. The mode of being contacted by a third party, regardless of whether it is subjective or passive, is included in the "predetermined situations that occur with respect to the avatar." Note that "passive" includes, for example, a case where an avatar or a third party objectively moves and is contacted regardless of the intention of the avatar or the third party.
アバターが接触する動作の例としては、例えば、アバターが触った対象が熱いものである場合、アバターが驚くような表情をしてもよいし、触った個所が熱さで腫れるような所定の表情等であってもよい。より具体的には、例えば、手で熱いものを触った場合、手が大きくなって、赤く腫れあがるような所定の表情等であってもよい。 For example, when the object touched by the avatar is hot, the avatar may make a surprised expression, or a predetermined expression such as swelling of the touched part due to heat. may be More specifically, for example, when the hand touches something hot, it may be a predetermined facial expression such that the hand becomes larger and becomes red and swollen.
アバターの所定の動作は、所定の対象の飲食動作を含む。ここで、所定の飲食動作は、アバターの飲食動作として、予め定められたものであってよく、かかる飲食動作を示すIDなどによって、検知してよい。かかる飲食動作を示すIDは、飲食動作として予め定められた特定の動きに対し付与されたIDであってもよいし、一又は複数のモーションデータに基づく所定の動きに対し付与されたIDであってもよい。本願発明において、飲食動作を所定の動作として組み込む技術的意義は、後述の他の情報と組み合わせることによって、所定の表情等を設定する点にある。例えば、同じ飲食動作(例えば、お肉を食べる動作)であるとしても、あるアバターAがお肉を食べる場合は、上品な食べ方を表現する所定の表情等が設定される一方、他のアバターBがお肉を食べる場合は、ワイルドな食べ方を表現する所定の表情等が設定される、などが考えられる。ここで、アバターAとアバターBとにおいて、異なる演出となる要因としては、例えば、アバターAとアバターBとが異なるタイプのアバターであったり、同一タイプのアバターであっても、その設定された趣向や好み等によって、異なる食べ方を表現する所定の表情等が設定される、などが考えられる。かかるアバターのタイプは、アバターの設定時に設定された性格であってもよいし、アバターが所定の条件が判定される時点で装備しているパーツや服装から判定されるものであってもよい。 The predetermined action of the avatar includes eating and drinking action of a predetermined target. Here, the predetermined eating action may be a predetermined eating action of the avatar, and may be detected by an ID or the like indicating the eating action. The ID indicating the eating action may be an ID given to a specific movement predetermined as the eating action, or an ID given to a predetermined movement based on one or a plurality of motion data. may In the present invention, the technical significance of incorporating an eating action as a predetermined action is that a predetermined facial expression or the like is set by combining it with other information described later. For example, even if the action of eating and drinking is the same (for example, the action of eating meat), when a certain avatar A eats meat, a predetermined facial expression expressing an elegant way of eating is set, while other avatars When B eats meat, it is conceivable that a predetermined facial expression or the like expressing wild eating is set. Here, factors that cause different effects for avatar A and avatar B include, for example, if avatar A and avatar B are avatars of different types, or if they are avatars of the same type, the set preferences Predetermined facial expressions and the like expressing different ways of eating may be set according to taste, preference, and the like. Such an avatar type may be the personality set when the avatar is set, or may be determined from the parts or clothes that the avatar is equipped with when a predetermined condition is determined.
また、前記アバターの所定の動作は、匂い又は臭いに対する所定のジェスチャーを含んでよい。ここで、所定のジェスチャーとしては、鼻をくんくん動かすようなジェスチャー、手で鼻の前の空気を左右に移動させるジェスチャー、などが挙げられる。かかるジェスチャーは、例えば、鼻の動きや右手又は左手などの手の動きを、光学センサや慣性センサ等を用いることによって、検出されてよい。すなわち、前記所定の条件は、前記アバターの前記所定のジェスチャーの検知を用いてよい。そして、対応する所定の表情等として、恍惚感を演出する所定の表情等や苦悶する所定の表情等が挙げられる。これにより、配信者が、何らかの匂いや臭いを感じた場合に行う動作によって、その動作の意義をよりはっきりと視聴者に理解させる利点がある。なお、かかる匂いや臭いに対応する具体的なジェスチャーについて、予め配信者とシステム間で共有することにより、より効果的に、かかるジェスチャーに対応する所定の表情等を演出できる。 Also, the predetermined action of the avatar may include an odor or a predetermined gesture with respect to the odor. Here, examples of the predetermined gesture include a gesture of sniffing the nose, a gesture of moving the air in front of the nose left and right with a hand, and the like. Such gestures may be detected, for example, by using optical sensors, inertial sensors, or the like, for example, nose movements or hand movements such as right or left hand. That is, the predetermined condition may use detection of the predetermined gesture of the avatar. As the corresponding predetermined facial expression, etc., there are a predetermined facial expression that produces an ecstatic feeling, a predetermined facial expression that agonizes, and the like. As a result, there is an advantage that the viewer can more clearly understand the meaning of the action by the distributor when he or she senses a certain smell or smell. By sharing such smells and specific gestures corresponding to such smells between the distributor and the system in advance, it is possible to more effectively produce a predetermined expression or the like corresponding to such gestures.
また、前記アバターの所定の動作は、音を聞く/聴くことについての所定のジェスチャーを含んでよい。音を聞く/聴くことについての所定のジェスチャーとしては、例えば、手を耳に沿える動作や、片耳を一定の方向に動かすジェスチャーが考えられる。かかるジェスチャーに対応する所定の表情等としては、手を耳に沿えるジェスチャーの場合はかかる手が大きくなることが考えられ、片耳を一定の方向に動かすジェスチャーの場合はかかる耳が大きくなって動くことが考えられる。 Also, the predetermined action of the avatar may include a predetermined gesture of hearing/listening to a sound. As a predetermined gesture for listening/listening to a sound, for example, a motion of putting a hand on an ear or a gesture of moving one ear in a certain direction can be considered. As a predetermined facial expression corresponding to such a gesture, it is conceivable that the hand becomes larger in the case of the gesture of placing the hand on the ear, and that the ear becomes larger and moves in the case of the gesture of moving one ear in a certain direction. can be considered.
配信者が演じるアバターの表情を含む所定の条件は、例えば、アバターの表情が特定の一又は複数のパラメータである場合に、所定の表情等とすることが考えられる。また、常に所定の表情等とならないとしても、他の所定の条件が充足した場合に、所定の表情等とすることが考えられる。例えば、配信者の驚きの表情の顔として、通常であれば、所定の表情等を設定しない場合であっても、特定のイベントが生じるととともに配信者が驚きの表情の顔を示す場合、所定の表情等が設定されてもよい。 The predetermined condition including the facial expression of the avatar played by the distributor may be, for example, a predetermined facial expression when the facial expression of the avatar is one or more specific parameters. Moreover, even if the predetermined facial expression is not always obtained, it is conceivable that the predetermined facial expression or the like is used when other predetermined conditions are satisfied. For example, even if a predetermined expression, etc. is not normally set as the face of the broadcaster with a surprised expression, if a specific event occurs and the broadcaster shows a surprised face, the predetermined expression may be set.
配信者が演じるアバターの顔色は、顔色の変化を含んでよい。例えば、アバターの顔色が、通常と異なる態様になった場合に、かかる顔色に合わせて、アバターの表情等を、異なる所定の表情等に設定してよい。 The complexion of the avatar played by the broadcaster may include complexion changes. For example, when the facial color of the avatar changes from normal, the facial expression or the like of the avatar may be set to a different predetermined facial expression or the like in accordance with the facial color.
配信者が演じるアバターの声は、前記アバターの声の音質が所定の範囲以上変化すること、又は、前記アバターの声の音量が所定の量以上変化すること、を含んでよい。例えば、アバターの声が、緊張や、怒りなどで、通常と異なる声の性質となっている場合が考えられる。かかる声の場合、かかる声に対応する所定の表情等が設定されてよい。 The voice of the avatar performed by the distributor may include that the sound quality of the avatar's voice changes by a predetermined range or more, or that the volume of the avatar's voice changes by a predetermined amount or more. For example, the avatar's voice may have an unusual voice quality due to tension, anger, or the like. In the case of such voice, a predetermined facial expression or the like corresponding to such voice may be set.
前記アバターに関して生じる所定の状況は、仮想空間内において所定の音が生じることを含んでよい。所定の音は、例えば、大きな音であってよい。かかる大きな音に対して、所定の表情等として、驚いた表情としたり、例えば、飛び上がるというような、驚きを全身で表すポーズをしてもよい。 The predetermined situation occurring with respect to the avatar may include the occurrence of a predetermined sound within the virtual space. The predetermined sound may be, for example, a loud sound. For such a loud sound, a surprised expression may be given as a predetermined facial expression, or a pose expressing surprise with the whole body, such as jumping up, may be used.
アバターに関して生じる所定の状況は、所定の物に係る位置と、前記アバターに係る位置と、の距離が所定の範囲内になることを含んでよい。ここで、所定の物に係る位置は、例えば、所定の物の重心とされる個所、所定の物の中心とされる個所、所定の物の外接円の中心、所定の物の内接円の中心、所定の物の表示上の外接円の中心、所定の物の表示上の内接円の中心、等であってよい。また、所定の物に係る位置は、所定の物に係る円又は多角形とアバターに係る位置との間の直線距離の接線上のかかる円又は多角形との交点であってもよい。また、所定の物に係る位置は、所定の物に対してコライダーを設定し、また、アバターにもコライダーを設定し、かかるコライダーを用いた接触判定を行ってもよい。アバターに係る位置は、上述のとおりであってよい。なお、アバターに係る位置がコライダーの位置である場合、所定の物とアバターが接触していると判定してよい。 A predetermined situation that occurs with respect to an avatar may include a distance between a position of a predetermined object and a position of the avatar being within a predetermined range. Here, the position related to the predetermined object is, for example, the center of gravity of the predetermined object, the center of the predetermined object, the center of the circumscribed circle of the predetermined object, or the inscribed circle of the predetermined object. It may be the center, the center of the circumscribed circle on the representation of the given object, the center of the inscribed circle on the representation of the given object, or the like. Alternatively, the position of the predetermined object may be the intersection of the circle or polygon on the tangent of the straight line distance between the circle or polygon of the predetermined object and the position of the avatar. Further, as for the position related to a predetermined object, a collider may be set for the predetermined object, a collider may be set for the avatar, and contact determination may be performed using the collider. The position associated with the avatar may be as described above. Note that when the position related to the avatar is the position of the collider, it may be determined that the avatar is in contact with a predetermined object.
所定の物は、上述の種々の物であってよい。例えば、たらいが頭上から落ちてきて、頭に接触した場合に、所定の表情等として、目をバツ(×)とする設定にしてよい。また、アバターに雷が落ちる(接触)すると、所定の表情等として、全身が黒焦げとする設定にしてよい。 The predetermined entity may be any of the various entities described above. For example, when a basin falls from overhead and touches the head, the eyes may be crossed out (X) as a predetermined facial expression. Also, when lightning strikes (contacts) the avatar, the avatar may be set to have a charred-black appearance as a predetermined facial expression.
また、所定の物に代えて、他のものでよく、例えば、キャラクタや、他のアバターでもよい。キャラクタの場合の例としては、アバターに関して生じる所定の状況として、ゾンビキャラに係る位置と、アバターに係る位置と、の距離が所定の範囲内になることを含んでよい。この場合、かかる距離が所定の距離内の場合に、アバターの顔に縦線を入れるようにしてもよい。また、かかる距離の程度に応じて、所定の表情等も変化してよい。例えば、かかる距離が、第1の距離と、第1の距離よりも短い第2の距離と、に変化した場合、第1の距離における所定の表情等と、第2の距離における所定の表情等と、が異なってよい。例えば、第1の距離における所定の表情等として、顔の表情内の縦線が10本であるのに対し、第2の距離における所定の表情等として、顔の表情内の縦線が20本かつかかる縦線の幅が2倍になる、などであってよい。なお、上記とは逆に、所定の条件において、アバターに係る位置と、キャラクタ又はアバターに係る位置と、が所定距離の範囲外となることを含んでもよい。この場合、アバター又はキャラクタがアバターとが離れる方向に相対的に移動する状況が示されているが、例えば、アバターの所定の表情として涙が出てくる、などの表情が設定されてもよい。 Also, instead of the predetermined object, another object such as a character or another avatar may be used. As an example in the case of a character, the predetermined situation that occurs with respect to the avatar may include that the distance between the position of the zombie character and the position of the avatar falls within a predetermined range. In this case, a vertical line may be drawn on the avatar's face when the distance is within a predetermined distance. Also, the predetermined facial expression or the like may change according to the extent of the distance. For example, when the distance changes to a first distance and a second distance shorter than the first distance, a predetermined facial expression at the first distance and a predetermined facial expression at the second distance and may be different. For example, the predetermined facial expression at the first distance has 10 vertical lines in the facial expression, while the predetermined facial expression at the second distance has 20 vertical lines in the facial expression. And the width of such vertical lines may be doubled, and so on. Contrary to the above, it may include that the position related to the avatar and the position related to the character or avatar are outside the range of the predetermined distance under a predetermined condition. In this case, a situation in which the avatar or the character relatively moves away from the avatar is shown.
例えば、アバターに関して生じる所定の状況は、第1のアバターと、第2のアバターと、が所定の関係が生じる場合を含んでよい。例えば、第1のアバターが、第2のアバターの頭を撫でる場合、所定の表情等として、第2のアバターの目をハートに設定してよい。この場合、第1のアバターと第2のアバターとの各々にコライダーを設定し、その接触判定によって、判定してよい。 For example, a given situation that occurs with respect to an avatar may include a case where a given relationship occurs between a first avatar and a second avatar. For example, when the first avatar strokes the head of the second avatar, the eyes of the second avatar may be set to hearts as a predetermined facial expression or the like. In this case, a collider may be set for each of the first avatar and the second avatar, and determination may be made based on the contact determination.
また、アバターに関して生じる所定の状況は、前記アバターに関して生じる所定の状況は、所定の対象と、前記アバターの所定のポーズと、が所定の組み合わせとなることを含んでよい。ここで、所定の対象は、物であってもよいし、所定の状況であってもよいし、所定のイベントであってもよい。また、物は、ギフトを含んでもよい。例えば、物として拳銃のギフトを装着し、アバターが射撃のポーズをすると、所定の表情等として勇ましい表情が設定されてよい。なお、ここで、射撃のポーズの判定は、アバターの中心位置からのコライダーを設定し、右手、左手、右足、左足、頭などの体の各位置の衝突判定によって、判定してよい。ここで、配信者における各配信者の右手、左、右足、左足、頭などの位置は、光学センサや慣性センサによって、検出してよい。なお、かかる場合において設定される所定の表情等は、与えられたギフトの組み合わせから、示唆されるものであってよい。一例を挙げれば、カエルの盾、カエルの件、カエルのマントであれば、カエルのような顔になってよい。 Further, the predetermined situation occurring regarding the avatar may include a predetermined combination of a predetermined target and a predetermined pose of the avatar. Here, the predetermined target may be an object, a predetermined situation, or a predetermined event. Objects may also include gifts. For example, when the avatar wears a gift of a pistol as an object and makes a shooting pose, a brave expression may be set as a predetermined expression or the like. Here, the determination of the shooting pose may be made by setting a collider from the center position of the avatar and determining the collision of each position of the body such as the right hand, left hand, right foot, left foot, and head. Here, the positions of each distributor's right hand, left, right foot, left foot, head, etc. may be detected by an optical sensor or an inertial sensor. It should be noted that the predetermined expression or the like set in such a case may be suggested by the combination of gifts given. For example, a frog shield, a frog case, or a frog cloak can have a frog-like face.
また、本願発明に係る複数の条件のうち、複数の条件が成立する場合がある。例えば、アバターがおばけキャラと視線が合致すると同時に、アバターに係る位置とおばけキャラに係る位置との距離が所定の距離範囲内である場合、などが挙げられる。このような場合、視線が合致したこと及び距離が範囲内であることの各条件に対応する所定の表情等が異なる場合、複数の所定の条件が充足した場合の処理が定められていてよい。例えば、所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用してよい。ここで、優先度は、各所定の条件と、関連付けられて、記憶されていてもよいし、複数の所定の条件が充足した場合のルールとして設定されていてもよい。例えば、所定の条件として、A1、A2、A3、A4などがあった場合において、各所定の条件同士を比較した上で優先される所定の条件を選定できるものであればよい。かかる優先度を用いた機能により、複数の所定の条件が充足された場合においても、特にほぼ同時に複数の所定の条件が充足された場合においても、適確に処理できる利点がある。また、かかる優先度は、確率が用いられてもよい。例えば、確率が、疑似乱数関数等によって判定される場合であって、第1の所定の条件と第2の所定の条件とが充足している場合において、かかる疑似乱数関数値が所定の値の場合は、第1の所定の条件に対応する所定の表情等が適用され、他の所定の値の場合は、第2の所定の条件に対応する所定の表情等が適用される、と処理されてよい。この場合、演出のバリエーションが増加することになり、より視聴者の興味を引くことができる可能性がある。 Further, among the plurality of conditions according to the present invention, a plurality of conditions may be satisfied. For example, when the line of sight of the avatar matches that of the ghost character, and at the same time, the distance between the position of the avatar and the position of the ghost character is within a predetermined distance range. In such a case, if predetermined facial expressions and the like corresponding to each condition that the lines of sight match and that the distance is within a range are different, processing when a plurality of predetermined conditions are satisfied may be defined. For example, when a first predetermined condition is satisfied and a second predetermined condition is satisfied within a predetermined time, priority is given to the first predetermined condition or the second predetermined condition. A predetermined facial expression or pose corresponding to the satisfaction of a predetermined condition set to a high degree may be applied. Here, the priority may be stored in association with each predetermined condition, or may be set as a rule when a plurality of predetermined conditions are satisfied. For example, when there are A1, A2, A3, A4, etc. as the predetermined conditions, it is sufficient that the predetermined conditions that are given priority can be selected after comparing the respective predetermined conditions. The function using such priority has the advantage of being able to perform appropriate processing even when a plurality of predetermined conditions are satisfied, particularly when a plurality of predetermined conditions are satisfied almost simultaneously. Moreover, probability may be used for such priority. For example, when the probability is determined by a pseudo-random number function or the like, and when the first predetermined condition and the second predetermined condition are satisfied, the pseudo-random number function value is the predetermined value. , a predetermined facial expression corresponding to the first predetermined condition is applied, and in the case of another predetermined value, a predetermined facial expression corresponding to the second predetermined condition is applied. you can In this case, there is a possibility that the variation of production will increase, and the viewer's interest will be more attractive.
なお、充足しうる複数の条件についての判定において、所定の時間の経過を待って判断することから、所定の時間をある時間以上に設定した場合、所定の条件の充足から所定の表情等の演出まで、タイムラグが生じる可能性がある。そのため、かかる優先度を設けずに、上述の複数の条件が成立する場合に、時間的に先行して充足された所定の条件に対応する所定の表情等を設定してもよい。ここで時間的に先行するとは、ネットワークや情報処理などの結果、実質的にはほぼ同時に所定の条件が成立した場合においても、処理部が所定の条件の充足を先に判定したものであってよい。この場合、所定の時間の経過を待たずに、先に充足した所定の条件に対応する所定の表情等を設定できる利点がある。なお、かかる場合において、後に充足した所定の条件に対応する所定の表情等を設定してもよいし、設定しなくともよい。設定する場合、先に充足された所定の条件に対応する所定の表情等は上書きされてしまうが、後に充足された所定の条件に対応する所定の表情等も視聴者に演出できる利点がある。他方、設定しない場合、先行した所定の表情等について、視聴者は十分楽しむことができる利点がある。なお、このように、第1の所定の条件と第2の所定の条件について、双方ともに充足する場合、第1の所定の条件が充足したタイミングと、第2の所定の条件が充足したタイミングに応じて、所定の表情等を設定してもよい。例えば、第1の所定の条件が充足した第1タイミングと、第2の所定の条件が充足した第2タイミングと、の間の時間が所定の時間よりも短い場合、第1の所定の条件に対応する第1の所定の表情等のみを演出し、第2の所定の条件に対応する第2の所定の表情等を演出しない処理としてよい。この場合、第1の所定の表情等の演出について、視聴者は、途中で変更されず、楽しむことができる利点がある。他の他方、前記第1タイミングと前記第2タイミングとの間の時間が所定の時間よりも長い場合、前記第2の所定の条件が充足したタイミングで、前記第2の所定の条件に対応する所定の表情等を設定してもよい。この場合、視聴者は、第1の所定の表情等に続き、第2の所定の表情等も両方の演出を楽しむことができる利点がある。 In addition, in the judgment of multiple conditions that can be satisfied, since the judgment is made after waiting for the passage of the predetermined time, if the predetermined time is set to a certain time or more, the predetermined expression etc. will be produced from the satisfaction of the predetermined condition A time lag may occur. Therefore, without setting such a priority, a predetermined facial expression or the like corresponding to a predetermined condition satisfied earlier in time may be set when the above-described plurality of conditions are satisfied. Here, "preceding in terms of time" means that even when a predetermined condition is substantially simultaneously established as a result of a network, information processing, etc., the processing unit first determines whether the predetermined condition is satisfied. good. In this case, there is an advantage that a predetermined facial expression or the like corresponding to the previously satisfied predetermined condition can be set without waiting for the passage of the predetermined time. In such a case, a predetermined facial expression or the like corresponding to a predetermined condition satisfied later may be set, or may not be set. When setting, the predetermined facial expression corresponding to the predetermined condition satisfied earlier is overwritten, but there is an advantage that the predetermined facial expression corresponding to the predetermined condition satisfied later can also be presented to the viewer. On the other hand, if it is not set, there is an advantage that the viewer can fully enjoy the preceding predetermined facial expressions. In this way, when both the first predetermined condition and the second predetermined condition are satisfied, the timing when the first predetermined condition is satisfied and the timing when the second predetermined condition is satisfied A predetermined facial expression or the like may be set accordingly. For example, if the time between the first timing when the first predetermined condition is satisfied and the second timing when the second predetermined condition is satisfied is shorter than the predetermined time, the first predetermined condition is met. The processing may be such that only the corresponding first predetermined facial expression or the like is produced, and the second predetermined facial expression or the like corresponding to the second prescribed condition is not produced. In this case, there is an advantage that viewers can enjoy the production of the first predetermined facial expression without changing it in the middle. On the other hand, if the time between the first timing and the second timing is longer than the predetermined time, the second predetermined condition is met at the timing when the second predetermined condition is satisfied. A predetermined facial expression or the like may be set. In this case, the viewer has the advantage of being able to enjoy the effects of both the first predetermined facial expression and the like, followed by the second predetermined facial expression and the like.
なお、かかる第1のタイミングと第2のタイミングとの間の時間について判定する上述の所定の時間は、充足される所定の条件の組に応じて設定されてもよい。例えば、第1の所定の条件が充足した場合に第1の所定の表情等が演出され、第2の所定の条件が充足した場合に第2の所定の表情等が演出され、第3の所定の条件が充足した場合に第3の所定の表情等が演出されたとする。また、第1の所定の条件が第1のタイミングで充足され、第2の所定の条件が第2のタイミングで充足され、第3の所定の条件が第3のタイミングで充足されたとする。この時、第1のタイミングと第2のタイミングとの間の時間が、第12所定の時間よりも短い場合に、第2の所定の表情等が演出されず、第12所定の時間以上の場合に第2の所定の表情等が演出されるとする。また、第1のタイミングと第3のタイミングとの間の時間が、第13所定の時間よりも短い場合に、第3の所定の表情等が演出されず、第13所定の時間以上の場合に第3の所定の表情等が演出されるとする。このとき、第12所定の時間と第13所定の時間は、同じであってもよいし、異なってもよい。同じである場合は、第1の所定の条件の充足の後に、第2の所定の条件が充足されても、第3の所定の条件が充足されても、第1の所定の表情等の演出時間に変わりがないことを意味する。他方、異なる場合は、第1の所定の条件の充足の後に、第2の所定の条件が充足する場合と、第3の所定の条件が充足する場合と、において、第1の所定の表情等の演出時間が変化することになる。この場合、演出のバリエーションが増加することになり、より視聴者の興味を引くことができる可能性がある。 Note that the above-described predetermined time period for determining the time period between the first timing and the second timing may be set according to a set of predetermined conditions to be satisfied. For example, when a first predetermined condition is satisfied, a first predetermined facial expression or the like is produced, when a second predetermined condition is satisfied, a second predetermined facial expression or the like is produced, and a third predetermined facial expression or the like is produced. Suppose that a third predetermined facial expression or the like is produced when the condition of (1) is satisfied. Also assume that the first predetermined condition is satisfied at the first timing, the second predetermined condition is satisfied at the second timing, and the third predetermined condition is satisfied at the third timing. At this time, if the time between the first timing and the second timing is shorter than the twelfth predetermined time, the second predetermined expression or the like is not produced, and if the time is longer than the twelfth predetermined time. It is assumed that a second predetermined facial expression or the like is produced at . Further, when the time between the first timing and the third timing is shorter than the thirteenth predetermined time, the third predetermined expression or the like is not produced, and when the time is longer than the thirteenth predetermined time. Assume that a third predetermined facial expression or the like is produced. At this time, the twelfth predetermined time and the thirteenth predetermined time may be the same or different. If they are the same, after satisfying the first predetermined condition, even if the second predetermined condition is satisfied or the third predetermined condition is satisfied, the first predetermined facial expression or the like is produced. It means that time does not change. On the other hand, if different, after the first predetermined condition is satisfied, the first predetermined facial expression, etc., when the second predetermined condition is satisfied and when the third predetermined condition is satisfied. The performance time of will change. In this case, there is a possibility that the variation of production will increase, and the viewer's interest will be more attractive.
なお、上述において、優先度は、所定の条件と関連付けられている、又は、充足される所定の条件についてのルールの例を説明したが、そのほか、優先度は、所定の条件内の物、イベント、状況、などと関連付けられていてもよい。例えば、所定の条件においてギフトが利用される場合において、ギフトと優先度が関連付けられていてもよい。 In the above description, priority is associated with a predetermined condition, or an example of a rule for a predetermined condition that is satisfied has been described. , status, etc. For example, when a gift is used under predetermined conditions, the gift may be associated with a priority.
所定の条件に係る物、イベント、状況(本願書類において、物等、ということもある)に係る優先度は、物等の表示される大きさ、物等の出現場所、物等の出現のタイミング、などを用いて生成されたものであってよい。 The priority of things, events, and situations (sometimes referred to as "things, etc." in this application document) related to predetermined conditions is the size of things, etc. displayed, the place where things, etc. appear, the timing of the appearance of things, etc. , or the like.
例えば、物等の表示される大きさ、については、第1の物等の大きさよりも、第2の物等の表示される大きさが大きい場合、かかる第2の物等に対して、かかる第1の物等よりも、高い優先度が設定されていてよい。この場合、表示される大きい方が、より視聴者の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。 For example, regarding the displayed size of an object, if the displayed size of a second object is larger than the size of the first object, such a second object may be A higher priority may be set than the first thing and the like. This is because, in this case, the larger displayed image attracts the viewer's attention more, and therefore, it is considered that prioritization is in line with the viewer's intention. On the other hand, the setting may be reversed. Conversely, if it is set, there is an advantage that unexpectedness appears.
また、物等の大きさの他に、物等に価格がある場合は価格であってもよいし、物等に消費ポイントが設定されている場合には消費ポイントであってもよい。例えば、第1の物等の価格よりも、第2の物等の価格が高い場合、かかる第2の物等に対して、かかる第1の物等よりも、高い優先度が設定されていてよい。この場合、価格が高い方が、より視聴者の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。また、同様に、消費ポイントについても、例えば、第1の物等の消費ポイントよりも、第2の物等の消費ポイントが高い場合、かかる第2の物等に対して、かかる第1の物等よりも、高い優先度が設定されていてよい。この場合、消費ポイントが高い方が、より視聴者の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。 In addition to the size of the item, the item may be the price if the item has a price, or the consumption point if the item has a consumption point. For example, if the price of the second item is higher than the price of the first item, etc., the second item is given higher priority than the first item. good. In this case, the higher the price, the higher the viewer's attention. On the other hand, the setting may be reversed. Conversely, if it is set, there is an advantage that unexpectedness appears. Similarly, with respect to consumption points, for example, if the consumption points of a second item or the like are higher than the consumption points of a first item or the like, the consumption points of the first item or the like are A higher priority may be set than the above. This is because, in this case, it is considered that priority is in line with viewers' intentions, since higher consumption points attract more attention from viewers. On the other hand, the setting may be reversed. Conversely, if it is set, there is an advantage that unexpectedness appears.
物等の仮想空間内の出現場所としては、例えば、仮想空間内の中央に出現した物等を、仮想空間内の左右などの端に出現した物等よりも、優先度を高く設定してよい。仮想空間内の目立ちやすい場所に出現した物等の優先度を高くした場合、視聴者は、目立ちやすい場所に出現した物等を視野に入れることができるため、視聴者は、所定の表情等の意味を理解しやすくなる利点がある。 As for the place where objects appear in the virtual space, for example, objects appearing in the center of the virtual space may be given higher priority than objects appearing at the left and right ends of the virtual space. . When objects appearing in conspicuous places in the virtual space are given a higher priority, the viewer can see the objects appearing in conspicuous places. This has the advantage of making the meaning easier to understand.
また、物等に係る優先度は、その物等に予め設定されている静的な情報であってもよいし、物等が提供された段階で初めて設定される動的な情報であってもよい。後者は、例えば、物等が出現された位置に応じて設定される情報であってよい。例えば、物等が仮想空間上で出現した位置と、アバターとの位置との関係に応じて設定された優先度であってよい。この場合、距離自体が優先度の役割を果たしてもよいし、距離が優先度を設定する一の情報として使用されてもよい。例えば、アバターと出現した第1の物に係る位置の距離が第1距離であり、アバターと出現した第2の物に係る位置の距離が第2距離である場合において、第1距離が第2距離より長い場合、第2の物に対して第1の物に優先度を高く設定してよい。また、そのほか、画面中央と第1の物に係る位置との距離の第1距離が、画面中央と第2の物に係る位置との距離の第2距離よりも短い場合、第1の物がより画面中央に出現していることから、第1の物の優先度を第2の物よりも高く設定してもよい。物等に係る優先度が動的に設定される場合、より適切かつダイナミックに、所定の表情等を設定されるギフトを選定できる利点がある。 In addition, the priority of an item may be static information that is preset for the item, or dynamic information that is set only when the item is provided. good. The latter may be, for example, information set according to the position where the object or the like appears. For example, the priority may be set according to the relationship between the position where the object appears in the virtual space and the position with respect to the avatar. In this case, the distance itself may play the role of priority, or the distance may be used as one piece of information for setting priority. For example, when the distance between the avatar and the position of the first object that appears is the first distance, and the distance between the avatar and the position of the second object that has appeared is the second distance, the first distance is the second distance. If it is greater than the distance, the first object may be given higher priority over the second object. In addition, when the first distance between the screen center and the position related to the first object is shorter than the second distance between the screen center and the position related to the second object, the first object Since it appears more in the center of the screen, the priority of the first object may be set higher than that of the second object. Dynamically setting the priority of objects has the advantage of being able to more appropriately and dynamically select a gift for which a predetermined facial expression or the like is set.
また、アバターに係る情報として、アバターが属するタイプを用いてもよい。例えば、所定の条件は、アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いてもよい。これは、ある情報を取得した場合、第1のアバターの種類においては所定の表情等となるが、第2のアバターの種類においては所定の表情等とならない、ものであってよい。例えば、あるタイプのアバターは、弱気の性格の設定であるとして、おばけキャラとアバターとの距離が第1の距離の範囲内の場合に、怖がる表情が出やすくなってよい。また、あるタイプのアバターは、陽気な性格の設定であるとして、所定の表情等として、笑顔を含む表情となる条件が、他のアバターよりも、緩いよう設定されていてよい。なお、この場合、アバターについて、弱気、陽気、強気、負けず嫌い、など性格という特性を備えさせ、かかる性格という特性を用いて、所定の条件の充足が判定されてよい。なお、性格は、アバターの属するタイプに応じて設定されているものでもよいし、アバターの属するタイプとは別に個々のアバターについて設定されているものであってもよい。 Also, the type to which the avatar belongs may be used as the information related to the avatar. For example, the predetermined condition may use the type to which the avatar belongs, which is one of a plurality of types to which the avatar belongs. This may be such that when certain information is acquired, the first avatar type will have a predetermined facial expression or the like, but the second avatar type will not have the predetermined facial expression or the like. For example, a certain type of avatar may be set to have a timid personality, and if the distance between the ghost character and the avatar is within the first distance range, a frightened expression may be likely to appear. Also, a certain type of avatar may be set to have a cheerful personality, and may be set such that the conditions for a facial expression including a smile are looser than other avatars as a predetermined facial expression. In this case, the avatar may be provided with character traits such as timid, cheerful, bullish, and a sore loser, and these character traits may be used to determine whether the predetermined condition is satisfied. The personality may be set according to the type to which the avatar belongs, or may be set for each avatar separately from the type to which the avatar belongs.
なお、所定の条件は、確率を含んでよい。すなわち、所定の条件は、疑似乱数関数等を含み、かかる関数値が所定の条件を充足した場合に、所定の表情等を生成してもよい。かかる確率を含む場合、常に、所定の表情等が生成されるわけではないため、視聴者の興味を継続的に引くことができる。また、例えば、その確率値を所定の値よりも低くする場合において、稀な表情とする場合、視聴者が貴重な表情を見ることができるという点において、視聴者の興味を引くことができる。 Note that the predetermined condition may include probability. That is, the predetermined condition may include a pseudo-random number function or the like, and a predetermined facial expression or the like may be generated when the function value satisfies the predetermined condition. When such a probability is included, a predetermined facial expression or the like is not always generated, so the viewer's interest can be continuously attracted. Also, for example, when the probability value is set to be lower than a predetermined value, a rare facial expression can attract the viewer's interest in that the viewer can see the valuable facial expression.
また、所定の条件として、物等の表示開始の情報、物等の表示変化の情報、及び/又は、物等の表示終了の情報、という個々の物等の表示のタイミングを用いて、所定の条件の充足を判定してもよい。この場合、物等の表示の開始、変化、終了という、物等の表示に対応して、アバターの表情やポーズに変化が生じることから、視聴者は、アバターの表情やポーズの変化の意味を、物等の状況と関連付けて、理解しやすくなる利点がある。 Further, as a predetermined condition, using the display timing of each object such as information on the start of display of the object, information on the change in the display of the object, and/or information on the end of the display of the object, etc., Satisfaction of conditions may be determined. In this case, since the expression and pose of the avatar change in response to the display of the object, such as the start, change, and end of the display of the object, etc., the viewer cannot understand the meaning of the change in the expression and pose of the avatar. There is an advantage that it becomes easier to understand by associating with the situation of things, etc.
また、所定の条件として、物等が属性として有する情報を用いてもよい。物等の属性は、物等の種類や、物等のレベル、などの物等が備える特性を含んでもよいし、含まなくともよい。また、物等が有する特定の特徴に応じて、所定の条件が充足されるよう所定の条件が設定されてよく、対応する所定の表情等が設定されてよい。 Also, information that an object or the like has as an attribute may be used as the predetermined condition. The attributes of an entity may or may not include characteristics of the entity, such as the type of the entity and the level of the entity. Further, a predetermined condition may be set so that the predetermined condition is satisfied, and a corresponding predetermined facial expression or the like may be set according to a specific feature of the object or the like.
また、所定の条件は、取得した情報についての順番やタイミングを規定してもよい。 Also, the predetermined condition may define the order or timing of the acquired information.
例えば、所定の条件と充足の場合の所定の表情等について、おばけキャラが画面に現れた後の所定の時間内にこうもりキャラが画面に現れた場合に所定の表情Aが設定され、こうもりキャラが画面に現れた後の所定の時間内におばけキャラが画面に現れた場合に、所定の表情Bが設定される、などとしてよい。 For example, with respect to a predetermined facial expression when predetermined conditions and satisfaction are satisfied, a predetermined facial expression A is set when a bat character appears on the screen within a predetermined time period after a ghost character appears on the screen. A predetermined facial expression B may be set when the ghost character appears on the screen within a predetermined time after it appears on the screen.
条件適用部は、所定の条件の充足によって特定された表情等を、前記ギフトが提供されたアバターについての表情等としてよい。より具体的には、所定の条件の充足によって特定された表情等を示す情報は、特定された表情等を示すIDや、特定された表情等を示す表情の一又は複数のパラメータであってよく、かかる特定された表情等を、かかるアバターの表情とできるように、かかる特定された表情等を示す情報を用いて、アバターの表情等を設定してよい。かかるIDやパラメータの情報は、条件適用部において特定又は生成された後、かかる情報が、映像やアニメーションの生成のためにサーバや端末に送信され、所定期間、利用されてよい。ここで、条件適用部は、各所定の条件と関連付けて、特定される表情等を示す情報を記憶してよく、かかる各所定の条件が充足された場合に、対応する特定される表情等を示す情報を特定できるよう構成されてよい。なお、所定の条件の充足によって適用される所定の表情等がアバターに、所定期間、設定された後は、元のアバターの動作に戻ってよい。すなわち、アバターは、配信者によって演じられていることから、所定期間の後、アバターの表情やポーズは、配信者の表情やポーズの情報に基づくものとなってよい。ここで、配信者の表情やポーズの情報に基づくとは、配信者の表情やポーズを光学センサや慣性センサで検出された情報によってアバターの動作が規定されてよい。 The condition application unit may use the facial expression or the like specified by satisfying the predetermined condition as the facial expression or the like of the avatar to whom the gift is provided. More specifically, the information indicating the facial expression or the like specified by satisfying a predetermined condition may be an ID indicating the specified facial expression or the like, or one or more parameters of the facial expression indicating the specified facial expression or the like. The facial expression or the like of the avatar may be set using information indicating the specified facial expression or the like so that the specified facial expression or the like can be used as the facial expression of the avatar. After the ID and parameter information are specified or generated by the condition application unit, the information may be transmitted to the server or the terminal for the generation of video or animation, and may be used for a predetermined period of time. Here, the condition application unit may store information indicating a specified facial expression or the like in association with each predetermined condition, and when each predetermined condition is satisfied, the corresponding specified facial expression or the like may be stored. It may be configured such that the information to be indicated can be specified. Note that after a predetermined facial expression or the like applied by satisfying a predetermined condition is set to the avatar for a predetermined period of time, the original action of the avatar may be restored. That is, since the avatar is played by the distributor, the facial expression and pose of the avatar may be based on information on the distributor's facial expression and pose after a predetermined period of time. Here, "based on information on the facial expression and pose of the broadcaster" may mean that the action of the avatar is defined by information obtained by detecting the facial expression and pose of the broadcaster by an optical sensor or an inertial sensor.
かかる処理において、条件適用部が実行される第1情報処理装置と、かかるアバターの表情等の設定を含む処理を行う第2情報処理装置と、が同じ場合、条件適用部は、条件適用部が所定の条件の充足によって特定した表情を用いて、前記アバターの表情等と設定するよう処理してよい。 In this process, if the first information processing device that executes the condition application unit is the same as the second information processing device that performs processing including setting of the facial expression of the avatar, the condition application unit performs A facial expression specified by satisfying a predetermined condition may be used to set the facial expression of the avatar.
また、条件適用部が実行される第1情報処理装置と、かかるアバターの表情の設定を含む処理を行う第2情報処理装置と、が異なる場合、条件適用部が所定の条件の充足によって特定した表情等を、第1情報処理装置は、第2情報処理装置に送信し、かかる第2情報処理装置において、特定された表情等を用いて、前記アバターの表情と設定するよう処理してよい。 In addition, when the first information processing device on which the condition application unit is executed is different from the second information processing device that performs processing including setting of the facial expression of the avatar, the condition application unit specified by satisfying the predetermined condition The first information processing device may transmit the facial expression or the like to the second information processing device, and the second information processing device may use the identified facial expression or the like to set the facial expression or the like of the avatar.
ここで、第1情報処理装置がサーバであって、第2情報処理装置がサーバである場合は、第1情報処理装置のサーバから、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処理装置が配信者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。 Here, when the first information processing device is a server and the second information processing device is a server, the server of the first information processing device transmits the specified facial expression, etc. to the server of the second information processing device. may be transmitted. Further, when the first information processing device is a server and the second information processing device is a viewer terminal, the server of the first information processing device sends the specified information to the viewer terminal of the second information processing device. Information indicating facial expressions and the like may be transmitted. Further, when the first information processing device is a server and the second information processing device is a distributor terminal, the server of the first information processing device sends the distributor terminal of the second information processing device to the specified Information indicating facial expressions and the like may be transmitted.
同様に、第1情報処理装置が視聴者端末であって、第2情報処理装置がサーバである場合は、第1情報処理装置の視聴者端末から、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の視聴者端末から、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって、第2情報処理装置が配信者端末である場合は、第1情報処理装置の視聴者端末から、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。 Similarly, when the first information processing device is a viewer terminal and the second information processing device is a server, the viewer terminal of the first information processing device sends the server of the second information processing device a specific Information indicating the facial expression or the like may be transmitted. Further, when the first information processing device is the viewer terminal and the second information processing device is the viewer terminal, the viewer terminal of the first information processing device is connected to the viewer terminal of the second information processing device. , information indicating the identified facial expression or the like may be transmitted. Further, when the first information processing device is the viewer terminal and the second information processing device is the distributor terminal, the viewer terminal of the first information processing device is sent to the distributor terminal of the second information processing device. , information indicating the identified facial expression or the like may be transmitted.
同様に、第1情報処理装置が配信者端末であって、第2情報処理装置がサーバである場合は、第1情報処理装置の配信者端末から、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって、第2情報処理装置が配信者端末である場合は、第1情報処理装置の配信者端末から、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の配信者端末から、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。 Similarly, when the first information processing device is a distributor terminal and the second information processing device is a server, the distributor terminal of the first information processing device sends the server of the second information processing device a specific Information indicating the facial expression or the like may be transmitted. Further, when the first information processing device is the distributor terminal and the second information processing device is the distributor terminal, from the distributor terminal of the first information processing device to the distributor terminal of the second information processing device , information indicating the identified facial expression or the like may be transmitted. Further, when the first information processing device is the distributor terminal and the second information processing device is the viewer terminal, from the distributor terminal of the first information processing device to the viewer terminal of the second information processing device, , information indicating the identified facial expression or the like may be transmitted.
上記では、条件適用部が、単一の情報処理装置において実行される態様を示しているが、複数の情報処理装置において条件適用部を分散して処理してもよい。 In the above description, the condition application unit is executed in a single information processing device, but the condition application unit may be distributed among a plurality of information processing devices.
また、条件適用部は、所定の表情等が設定されるタイミングを用いて、所定の表情等を設定してよい。タイミングは、例えば、上述のように、アバターと、アバター又はキャラクタとの視線が合ったタイミング、アバターが物と接触したタイミング、などであってよい。この場合、かかる所定の表情等を示す情報を含む情報が、表示される情報処理装置に送信されて、表示されてよい。この場合のタイミングのずれは、通信や処理のタイムラグが含まれてよい。 Also, the condition application unit may set the predetermined facial expression or the like using the timing at which the predetermined facial expression or the like is set. The timing may be, for example, the timing at which the line of sight of the avatar and the avatar or the character meet, the timing at which the avatar contacts an object, etc., as described above. In this case, information including information indicating such a predetermined facial expression may be transmitted to the displayed information processing device and displayed. The timing lag in this case may include a time lag in communication or processing.
他方、所定の条件が充足された上で、所定の表情等が設定されるタイミングは、別途設定されたものが使用されてもよい。例えば、所定の条件が設定されてから、2秒後に、所定の表情等になる、というものでもよい。一例としては、アバターが驚くような状況が生じて、その2秒後という故意に遅らせたタイミングで、所定の驚きの表情を設定するものなどでもよい。 On the other hand, when a predetermined condition is satisfied, the timing for setting a predetermined facial expression or the like may be set separately. For example, it may be possible that a predetermined facial expression or the like appears two seconds after a predetermined condition is set. As an example, it is possible to set a predetermined expression of surprise at a timing that is intentionally delayed two seconds after the occurrence of a situation that surprises the avatar.
図5は、所定の条件に対する所定の表情等の関係を示した一例である。取得した情報を、所定の条件として用いることにより、対応する、所定の表情等が特定されるものとなる。 FIG. 5 is an example showing the relationship between predetermined conditions and predetermined facial expressions. By using the acquired information as a predetermined condition, a corresponding predetermined facial expression or the like is specified.
上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所定の表情等が実現できることとなり、仮想空間内のアバターの表情やポーズにバリエーションを持たせることができる利点がある。また、演者がタブレットなどを用いてアバターの表情を自ら指定できる場合であっても、スタジオ配信においてオペレータによって装着ギフトが装着される場合、演者が装着されたことに気づかないこともあるため、そのような場合において演者が何ら操作しなくとも、ギフトに対応する表情又はポーズがアバターに適用できる利点がある。すなわち、所定の表情又はポーズとするための情報は、前記配信者からギフトを提供する以外の操作なしに、生成されてよい。 As described above, the function of the condition application unit enables a corresponding predetermined facial expression, etc., to be realized when a predetermined condition is satisfied, which is an advantage in that variations can be given to the facial expressions and poses of the avatar in the virtual space. There is In addition, even if the performer can specify the facial expression of the avatar by himself using a tablet or the like, when the operator wears the attached gift in the studio distribution, the performer may not be aware that it has been attached. In such a case, there is an advantage that the expression or pose corresponding to the gift can be applied to the avatar without any operation by the performer. That is, the information for making a predetermined facial expression or pose may be generated without any operation other than providing the gift from the distributor.
また、上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所定の表情等を自動的に実現できることとなり、視聴者端末からの操作なく、アバターの表情が変更する結果が生じる反応を楽しむことのできる利点がある。 In addition, as described above, when a predetermined condition is satisfied, the function of the condition application unit can automatically realize a corresponding predetermined facial expression, etc., and the facial expression of the avatar can be changed without any operation from the viewer terminal. It has the advantage of being able to enjoy the reaction that results in doing.
4.実施形態
4-1.実施形態1
実施形態1は、視聴者端末において、条件適用部が動作する例である。この場合、取得部は、視聴者端末において、動作してよい。本例について、図6を用いて説明する。なお、視聴者端末において、条件適用部が動作するため、視聴者端末に基づく情報を所定の条件として含めることにより、視聴者端末毎に、アバターの表現等を変更することも可能であってよい。
4. embodiment
4-1. Embodiment 1
Embodiment 1 is an example in which a condition application unit operates in a viewer terminal. In this case, the acquisition unit may operate in the viewer terminal. This example will be described with reference to FIG. In addition, since the condition application unit operates in the viewer terminal, it may be possible to change the expression of the avatar for each viewer terminal by including information based on the viewer terminal as a predetermined condition. .
ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。かかる所定の動作等の情報は、条件適用部が動作する視聴者端末において入力されたものでもよいし、他の視聴者端末において入力された情報や演出としてサーバ内で生成された情報が、サーバなどを介して、条件適用部が動作する視聴者端末が取得してもよい。
step one
An acquisition unit acquires information such as a predetermined action (step 001). Information such as the predetermined action may be input at the viewer terminal in which the condition application unit operates, or information input at another viewer terminal or information generated in the server as an effect may be sent to the server. The viewer terminal in which the condition application unit operates may acquire the information via, for example.
ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。このために、条件適用部は、少なくとも一部の所定の条件とかかる条件が充足した場合における所定の表情等を示す情報を有していてよい。
step 2
Next, the condition applying unit determines a predetermined condition using at least information such as a predetermined motion, and if it determines that the predetermined condition is satisfied, specifies the facial expression or the like corresponding to the satisfied predetermined condition ( step 002). For this reason, the condition applying section may have information indicating at least a part of the predetermined condition and a predetermined facial expression or the like when the condition is satisfied.
ステップ3
特定された表情等を、視聴者端末において、所定の条件の充足に使用されたアバターに係る表情等に設定する(ステップ003)。視聴者は、所定の動作等に対応して、アバターの表情等が変更される反応を視聴できる利点がある。
step 3
The specified facial expression or the like is set as the facial expression or the like of the avatar used to satisfy the predetermined condition at the viewer terminal (step 003). The viewer has the advantage of being able to view the reaction of the avatar's facial expression or the like being changed in response to a predetermined action or the like.
ステップ4
各視聴者端末において、アバターの所定の表情等が所定の期間表示された後、元のかかるアバターに係る配信者の表情等に基づく表情にアバターに係る表情等は戻る(ステップ004)。
step 4
After the predetermined facial expression etc. of the avatar is displayed for a predetermined period on each viewer terminal, the facial expression etc. of the avatar returns to the original facial expression etc. based on the distributor's facial expression etc. related to the avatar (step 004).
4-2.実施形態2
実施形態2は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は、サーバにおいて、動作してよい。なお、本例は、視聴者端末上において、アニメーションが生成される前提で、図7を用いて説明する。
4-2. Embodiment 2
Embodiment 2 is an example in which a condition application unit operates in a server. In this case, the acquisition unit may operate in the server. Note that this example will be described with reference to FIG. 7 on the premise that animation is generated on the viewer terminal.
ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
step one
An acquisition unit acquires information such as a predetermined action (step 001).
ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。
step 2
Next, the condition applying unit determines a predetermined condition using at least information such as a predetermined motion, and if it determines that the predetermined condition is satisfied, specifies the facial expression or the like corresponding to the satisfied predetermined condition ( step 002).
ステップ3
サーバは、特定された表情等を示す情報を、かかるアバターの配信を視聴している、各視聴者端末に送信する(ステップ003)。
step 3
The server transmits information indicating the specified facial expression and the like to each viewer terminal viewing the distribution of the avatar (step 003).
ステップ4
各視聴者端末において、サーバから取得した表情等を示す情報を用いて、アバターの表情等を設定する(ステップ004)。ここで、各視聴者端末において、かかる設定されたアバターの表情等を用いて、アニメーションが生成されてもよい。
step 4
At each viewer terminal, the information indicating the facial expression obtained from the server is used to set the facial expression of the avatar (step 004). Here, in each viewer terminal, an animation may be generated using the set facial expression of the avatar.
ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられたアバターの表情等が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情に設定される(ステップ005)。なお、アニメ―エションが生成された場合は、各アニメーション内に、所定の期間、かかる生成された表情等が用いられて表示され、その後は、アバターに係る配信者の表情等に基づきトラッキングによって得られた表情等がアバターの表情等として使用されてよい。
step 5
At each viewer terminal, the avatar's facial expression, etc., which uses information indicating facial expressions, etc. obtained from the server, is displayed for a predetermined period, and then the facial expression is set based on the original facial expression, etc. of the broadcaster associated with the avatar. (Step 005). In addition, when an animation is generated, it will be displayed using the generated facial expression, etc. for a predetermined period in each animation, and after that, it will be obtained by tracking based on the facial expression, etc. of the broadcaster related to the avatar. The facial expression or the like obtained by the user may be used as the facial expression or the like of the avatar.
4-3.実施形態3
実施形態3は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は、サーバにおいて、動作してよい。なお、本例は、サーバ上において、アバターの表情を含む映像が生成される前提で、図8を用いて説明する。
4-3. Embodiment 3
Embodiment 3 is an example in which a condition application unit operates in a server. In this case, the acquisition unit may operate in the server. Note that this example will be described with reference to FIG. 8 on the premise that an image including facial expressions of the avatar is generated on the server.
ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
step one
An acquisition unit acquires information such as a predetermined action (step 001).
ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。
step 2
Next, the condition applying unit determines a predetermined condition using at least information such as a predetermined motion, and if it determines that the predetermined condition is satisfied, specifies the facial expression or the like corresponding to the satisfied predetermined condition ( step 002).
ステップ3
サーバは、特定された表情等を示す情報等を用いて、かかるアバターの配信についての映像を生成する(ステップ003)。ここで、アバターの配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、同一のサーバの場合、条件適用部を実行するサーバにおいて、アバターの配信のための映像を生成してよい。他方、アバターの配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、異なるサーバの場合、条件適用部を実行するサーバから、かかる映像を生成するサーバに、かかる特定された表情等を示す情報が送信され、かかる映像生成するサーバにおいて、かかる特定された表情等を示す情報が用いられてよい。なお、かかるサーバにおいてアニメーションを生成する場合も同様に、映像と共に又は映像に代えて、かかるアバターの配信についてのアニメーションを生成してもよく、この場合は以降映像と共に又は映像に代えてアニメーションが使用されてよい。
step 3
The server uses the specified information indicating the facial expression and the like to generate a video regarding the distribution of the avatar (step 003). Here, if the server that generates the video for avatar distribution and the server that executes the condition application unit are the same server, the server that executes the condition application unit generates the video for avatar distribution. you can On the other hand, if the server that generates the video for the distribution of the avatar and the server that executes the condition application unit are different servers, the server that executes the condition application unit transfers the specified video to the server that generates the video. Information indicating the facial expression or the like may be transmitted, and the specified information indicating the facial expression or the like may be used in the server that generates the video. Similarly, when animation is generated on such a server, animation for distribution of such avatars may be generated together with or in place of the video, and in this case, the animation will be used together with or in place of the video thereafter. may be
ステップ4
特定された表情等を示す情報に基づいて特定された表情を用いて生成されたアバターの映像が、各視聴者端末に対して送信される(ステップ004)。
step 4
An image of the avatar generated using the facial expression specified based on the information indicating the specified facial expression is transmitted to each viewer terminal (step 004).
ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられた映像が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情等に基づくアバターの映像が表示される(ステップ005)。
step 5
On each viewer terminal, a video using information indicating facial expressions, etc. obtained from the server is displayed for a predetermined period, after which the video of the avatar based on the facial expressions, etc. of the distributor related to the original avatar is displayed. displayed (step 005).
4-4.様々な実施態様について
第1の態様によるコンピュータプログラムは、「コンピュータプログラムであって、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成しする 、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである。
4-4. Various Embodiments A computer program according to the first aspect is defined as "a computer program, which is executed by one or more processors to perform a predetermined action of an avatar performed by a distributor in a virtual space, the avatar the facial expression of the avatar, the facial color of the avatar, the voice of the avatar, or a predetermined situation that occurs with respect to the avatar, and obtains information on any one or more of them, and whether the obtained information satisfies a predetermined condition and if it is determined that the predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar of the distributor generated based on the facial expression or pose of the distributor is changed to the generating information for making a predetermined facial expression or pose corresponding to predetermined conditions the facial expression of the avatar; and displaying the avatar to which the predetermined facial expression or pose is applied.
第2の態様によるコンピュータプログラムは、上記第1の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A computer program according to a second aspect is the computer program according to the first aspect, wherein "the predetermined action of the avatar is a predetermined action perceived by the avatar with the five senses if the avatar is a living creature." .
第3の態様によるコンピュータプログラムは、上記第1の態様又は上記第2の態様において「前記アバターの所定の動作は、所定の対象を見る動作を含む」ものである。 A computer program according to a third aspect is the computer program according to the first aspect or the second aspect, wherein "the predetermined action of the avatar includes an action of looking at a predetermined target".
第4の態様によるコンピュータプログラムは、上記第1乃至上記第3のいずれか一の態様において「前記所定の対象が他のアバター又はキャラクタである場合、前記アバターの所定の動作は、前記アバターの視線と前記所定の対象に係る視線とが合うことを含む」ものである。 A computer program according to a fourth aspect is a computer program according to any one of the first to third aspects, wherein "when the predetermined target is another avatar or character, the predetermined action of the avatar is the line of sight of the avatar. and the line of sight of the predetermined object."
第5の態様によるコンピュータプログラムは、上記第1乃至上記第4のいずれか一の態様において「前記所定の動作が、前記所定の対象を見る動作を含む場合、前記所定の条件は、前記所定の対象が前記アバターの視線方向となるように前記アバターの視線を移動させること、又は、前記アバターの視線上において前記所定の対象が存在する こと、を含む」ものである。 A computer program according to a fifth aspect is a computer program according to any one of the first to fourth aspects, wherein "when the predetermined action includes an action of looking at the predetermined target, the predetermined condition is the predetermined condition. moving the line of sight of the avatar so that the target is in the direction of the line of sight of the avatar, or the predetermined target exists on the line of sight of the avatar.
第6の態様によるコンピュータプログラムは、上記第1乃至上記第5のいずれか一の態様において「前記アバターの所定の動作は、所定の対象に接触する動作を含む」ものである。 A computer program according to a sixth aspect is the computer program according to any one of the first to fifth aspects, wherein "the predetermined action of the avatar includes an action of contacting a predetermined target."
第7の態様によるコンピュータプログラムは、上記第1乃至上記第6のいずれか一の態様において「前記所定の動作が、前記所定の対象に接触する動作を含む場合、前記所定の条件は、前記アバターに係る位置と、前記所定の対象に係る位置と、の距離が所定の距離内であること、を含む」ものである。 A computer program according to a seventh aspect is a computer program according to any one of the first to sixth aspects, wherein "when the predetermined action includes an action of contacting the predetermined target, the predetermined condition is the avatar and that the distance between the position related to the object and the position related to the predetermined object is within a predetermined distance.
第8の態様によるコンピュータプログラムは、上記第1乃至上記第7のいずれか一の態様において「前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダーの位置、のいずれかである」ものである。 A computer program according to an eighth aspect is a computer program according to any one of the first to seventh aspects, wherein "the position related to the avatar includes the position of the avatar in the virtual space, the part that activates the predetermined facial expression, the It is either a predetermined part of the avatar or the position of the collider of said avatar.
第9の態様によるコンピュータプログラムは、上記第1乃至上記第8のいずれか一の態様において「前記アバターの所定の動作は、所定の対象の飲食動作を含む」ものである。 A computer program according to a ninth aspect is the computer program according to any one of the first to eighth aspects, wherein "the predetermined action of the avatar includes an eating action of a predetermined target."
第10の態様によるコンピュータプログラムは、上記第1乃至上記第9のいずれか一の態様において「前記アバターの所定の動作は、匂い又は臭いに対する所定のジェスチャーを含む」ものである。 A computer program according to a tenth aspect is the computer program according to any one of the first to ninth aspects, wherein "the predetermined action of the avatar includes an odor or a predetermined gesture with respect to the odor."
第11の態様によるコンピュータプログラムは、上記第1乃至上記第10のいずれか一の態様において「前記アバターの所定の動作は、音を聞く又は/聴くことについての所定のジェスチャーを含む」ものである。 A computer program according to an eleventh aspect is the computer program according to any one of the first to tenth aspects, wherein "the predetermined action of the avatar listens to a sound and/or includes a predetermined gesture of listening." .
第12の態様によるコンピュータプログラムは、上記第1乃至上記第11のいずれか一の態様において「前記所定の条件は、前記アバターの前記所定のジェスチャーの検知を用いる」ものである。 A computer program according to a twelfth aspect is the computer program according to any one of the first to eleventh aspects, wherein "the predetermined condition uses detection of the predetermined gesture of the avatar."
第13の態様によるコンピュータプログラムは、上記第1乃至上記第12のいずれか一の態様において「前記アバターに関して生じる所定の状況は、仮想空間内において所定の音が生じることを含む」ものである。 A computer program according to a thirteenth aspect is the computer program according to any one of the first to twelfth aspects, wherein "the predetermined situation occurring with respect to the avatar includes occurrence of a predetermined sound in the virtual space."
第14の態様によるコンピュータプログラムは、上記第1乃至上記第13のいずれか一の態様において「前記アバターに関して生じる所定の状況は、所定の物に係る位置と、前記アバターに係る位置と、の距離が所定の範囲内になることを含む」ものである。 A computer program according to a fourteenth aspect is a computer program according to any one of the first to thirteenth aspects, wherein "the predetermined situation occurring with respect to the avatar is the distance between the position of a predetermined object and the position of the avatar. is within a predetermined range."
第15の態様によるコンピュータプログラムは、上記第1乃至上記第14のいずれか一の態様において「前記アバターに関して生じる所定の状況は、所定の対象と、前記アバターの所定のポーズと、が所定の組み合わせとなることを含む」ものである。 A computer program according to a fifteenth aspect is a computer program according to any one of the first to fourteenth aspects, wherein "the predetermined situation occurring with respect to the avatar is a predetermined combination of a predetermined target and a predetermined pose of the avatar. “including becoming”.
第16の態様によるコンピュータプログラムは、上記第1乃至上記第15のいずれか一の態様において「前記アバターの顔色は、顔色の変化を含む」ものである。 A computer program according to a sixteenth aspect is the computer program according to any one of the first to fifteenth aspects, wherein "the facial color of the avatar includes a facial color change."
第17の態様によるコンピュータプログラムは、上記第1乃至上記第16のいずれか一の態様において「前記アバターの声は、前記アバターの声の音質が所定の範囲以上変化すること、又は、前記アバターの声の音量が所定の量以上変化すること、を含む」ものである。 A computer program according to a seventeenth aspect is a computer program according to any one of the first to sixteenth aspects, wherein "the voice of the avatar changes the sound quality of the voice of the avatar by a predetermined range or more, or "Voice volume changes by more than a predetermined amount."
第18の態様によるコンピュータプログラムは、上記第1乃至上記第17のいずれか一の態様において「所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用する」ものである。 The computer program according to the eighteenth aspect is a computer program according to any one of the first to seventeenth aspects, wherein "within a predetermined time, the first predetermined condition is satisfied and the second predetermined condition is satisfied If the first predetermined condition or the second predetermined condition, a predetermined condition set with a higher priority is satisfied, a predetermined facial expression or pose corresponding to the condition is satisfied." be.
第19の態様によるコンピュータプログラムは、上記第1乃至上記第18のいずれか一の態様において「前記所定の表情又はポーズとするための情報は、前記配信者端末から前記アバターを操作する情報を取得せずに、生成される」ものである。 A computer program according to a nineteenth aspect is a computer program according to any one of the first to eighteenth aspects, wherein "the information for making the predetermined facial expression or pose is acquired from the distributor terminal for operating the avatar. is generated without
第20の態様によるコンピュータプログラムは、「コンピュータプログラムであって、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、」ものである。 A computer program according to the twentieth aspect is a "computer program that, when executed by one or more processors, causes a given action of an avatar performed by a broadcaster, an expression of the avatar, an expression of the avatar, acquires information related to any one or more of the complexion of the avatar, the voice of the avatar, or a predetermined situation that occurs regarding the avatar, and determines whether the acquired information satisfies a predetermined condition; When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor is changed to a predetermined facial expression or pose corresponding to the predetermined condition. generating information for making a pose, and transmitting the information for making the predetermined facial expression or pose."
第21の態様によるコンピュータプログラムは、上記第20の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A computer program according to a twenty-first aspect is the computer program according to the twentieth aspect, wherein "the predetermined action of the avatar is a predetermined action perceived by the avatar with the five senses if the avatar is a living creature." .
第22の態様によるサーバ装置は、「一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する」ものである。 The server device according to the twenty-second aspect is "comprising one or more processors, the processors executing computer-readable instructions to perform a predetermined action of an avatar played by a distributor in a virtual space, Acquiring information related to any one or more of the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring with respect to the avatar, and the obtained information satisfies a predetermined condition. If it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar associated with the distributor, which has been generated based on the facial expression or pose associated with the distributor, is changed to the predetermined condition generates information for making a predetermined expression or pose corresponding to , and transmits the information for making the predetermined expression or pose.
第23の態様によるサーバ装置は、上記第22の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A server apparatus according to a twenty-third aspect is the one according to the twenty-second aspect, wherein "the predetermined action of the avatar is a predetermined action that is perceived by the avatar with the five senses if the avatar is a living creature." .
第24の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである。 A method according to the twenty-fourth aspect is defined as "a method executed by one or more processors executing computer-readable instructions, wherein, in a virtual space, a predetermined action of an avatar performed by a broadcaster, Acquiring information related to any one or more of facial expression, complexion of the avatar, voice of the avatar, or a predetermined situation occurring with respect to the avatar, and whether or not the acquired information satisfies a predetermined condition is determined, and if it is determined that a predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, is changed to the predetermined generating information for making a predetermined facial expression or pose corresponding to the conditions of (1) to be the facial expression of the avatar, and displaying the avatar to which the predetermined facial expression or pose is applied.
第25の態様による方法は、上記第24の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A method according to a twenty-fifth aspect is the method according to the twenty-fourth aspect, wherein "the predetermined motion of the avatar is a predetermined motion perceived by the avatar with the five senses if the avatar is a living creature."
第26の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する」ものである。 A method according to the twenty-sixth aspect is defined as "a method executed by one or more processors executing computer-readable instructions, wherein in a virtual space a predetermined action of an avatar performed by a broadcaster, Acquiring information related to any one or more of facial expression, complexion of the avatar, voice of the avatar, or a predetermined situation occurring with respect to the avatar, and whether or not the acquired information satisfies a predetermined condition and, if it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor corresponds to the predetermined condition. It generates information for making a predetermined facial expression or pose, and transmits the information for making the predetermined facial expression or pose.
第27の態様による方法は、上記第26の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A method according to a twenty-seventh aspect is the method according to the twenty-sixth aspect, wherein "the predetermined motion of the avatar is a predetermined motion perceived by the avatar with the five senses if the avatar is a living creature."
第28の態様による視聴者端末装置は、「一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである。 The viewer terminal device according to the twenty-eighth aspect is "comprising one or more processors, the processors executing computer-readable instructions to create a predetermined image of an avatar played by a broadcaster in a virtual space. acquiring information related to any one or more of a motion, facial expression of the avatar, complexion of the avatar, voice of the avatar, or a predetermined situation occurring with respect to the avatar, wherein the acquired information satisfies a predetermined condition; It is determined whether or not it is satisfied, and if it is determined that the predetermined condition related to the acquired information is satisfied, the facial expression or facial expression of the avatar of the distributor generated based on the facial expression or pose of the distributor generate information for making a pose a predetermined facial expression or pose corresponding to the predetermined condition as the facial expression of the avatar, and display the avatar to which the predetermined facial expression or pose is applied. .
第29の態様による視聴者端末装置は、上記第28の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A viewer terminal device according to a twenty-ninth aspect is the viewer terminal device according to the twenty-eighth aspect, wherein "the predetermined action of the avatar is a predetermined action that is perceived by the avatar with the five senses if the avatar is a living creature." is.
第30の態様による配信者端末装置は、「一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する」ものである。 The distributor terminal device according to the thirtieth aspect "includes one or more processors, and the processor executes computer-readable instructions to create a predetermined image of an avatar played by the distributor in a virtual space. acquiring information related to any one or more of a motion, facial expression of the avatar, complexion of the avatar, voice of the avatar, or a predetermined situation occurring with respect to the avatar, wherein the acquired information satisfies a predetermined condition; If it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor generated based on the facial expression or pose of the distributor is changed to the predetermined condition. generates information for making a predetermined facial expression or pose corresponding to the conditions of (1), and transmits the information for making the predetermined facial expression or pose.
第31の態様による配信者端末装置は、上記第30の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 A distributor terminal device according to a thirty-first aspect is the distributor terminal device according to the thirtieth aspect, wherein "the predetermined action of the avatar is a predetermined action that is perceived by the avatar with the five senses if the avatar is a living creature." is.
また、本願書類で説明されたシステム及び情報処理は、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実施されてよく、またかかるシステム及び情報処理の一部又は全部は、処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させられてよく、またこれらのコンピュータプログラムは、記憶媒体に記憶されてよい。また、これらのプログラムは、非一過性又は一時的な記憶媒体に記憶されてよい。 Further, the systems and information processing described in this document may be implemented by software, hardware, or a combination thereof, and some or all of such systems and information processing may implement processes and procedures as computer programs. These computer programs may be executed by various computers, and may be stored in a storage medium. Also, these programs may be stored in a non-transitory or temporary storage medium.
本願書類で説明したものは、本願書類で説明されたものに限られず、本願書類で説明された種々の技術上の利点や構成を有する種々の技術的思想の範囲内で、種々の例に適用できることはいうまでもない。 What is described in this document is not limited to what is described in this document, and can be applied to various examples within the scope of various technical ideas having various technical advantages and configurations described in this document. It goes without saying that we can.
1 システム
10 通信網
20(20A~20C) サーバ装置
30(30A~30C) 端末装置
21(31) 演算装置
22(32) 主記憶装置
23(33) 入出力インタフェイス
24(34) 入力装置
25(35) 補助記憶装置
26(36) 出力装置
41 取得部
42 条件適用部
1 system 10 communication network 20 (20A to 20C) server device 30 (30A to 30C) terminal device 21 (31) arithmetic device 22 (32) main storage device 23 (33) input/output interface 24 (34) input device 25 ( 35) Auxiliary storage device 26 (36) Output device 41 Acquisition unit 42 Condition application unit
Claims (27)
一又は複数のプロセッサにより実行されることにより、
仮想空間内において、配信者が演じるアバターの所定の動作に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズが適用された、前記アバターを表示し、
前記アバターの所定の動作は、
前記アバターの視線方向に所定の対象が入る動作、
匂い又は臭いに対する所定のジェスチャー、又は、
音を聞く又は聴くことについての所定のジェスチャー、
の少なくとも一つを含む、
ように前記一又は複数のプロセッサを機能させるコンピュータプログラム。 A computer program,
by being executed by one or more processors,
In the virtual space, obtain information related to the predetermined action of the avatar played by the distributor,
Determining whether the acquired information satisfies a predetermined condition,
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor is changed to a predetermined facial expression or pose corresponding to the predetermined condition. Generate information for posing,
displaying the avatar with the predetermined facial expression or pose applied;
The predetermined action of the avatar is
an action in which a predetermined target enters the line-of-sight direction of the avatar;
Smells or predetermined gestures for odors, or
Predetermined gestures about hearing or listening to sounds,
including at least one of
A computer program that causes the one or more processors to function as a computer program.
前記アバターの所定の動作は、前記アバターの視線と前記所定の対象に係る視線とが合うことを含む、
請求項1に記載のコンピュータプログラム。 When the predetermined target is another avatar or character,
The predetermined action of the avatar includes matching the line of sight of the avatar with the line of sight of the predetermined target,
2. A computer program as claimed in claim 1 .
前記所定の条件は、前記所定の対象が前記アバターの視線方向となるように前記アバターの視線を移動させること、又は、前記アバターの視線上において前記所定の対象が存在すること、を含む、
請求項1に記載のコンピュータプログラム。 When the predetermined action includes the action of looking at the predetermined target,
The predetermined condition includes moving the line of sight of the avatar so that the predetermined target is in the line-of-sight direction of the avatar, or that the predetermined target exists on the line of sight of the avatar.
2. A computer program as claimed in claim 1 .
前記所定の条件は、前記アバターに係る位置と、前記所定の対象に係る位置と、の距離が所定の距離内であること、を含む、
請求項1に記載のコンピュータプログラム。 the predetermined action includes an action of contacting a predetermined object;
The predetermined condition includes that the distance between the position of the avatar and the position of the predetermined target is within a predetermined distance,
2. A computer program as claimed in claim 1 .
請求項4に記載のコンピュータプログラム。 The position related to the avatar is either the position of the avatar in the virtual space, the part that activates the predetermined expression, the predetermined part of the avatar, or the position of the collider of the avatar.
5. Computer program according to claim 4 .
請求項1に記載のコンピュータプログラム。 the predetermined condition uses detection of the predetermined gesture of the avatar;
2. A computer program as claimed in claim 1 .
請求項1乃至6のいずれか1項に記載のコンピュータプログラム。 When a first predetermined condition is satisfied and a second predetermined condition is satisfied within a predetermined time, the priority of the first predetermined condition or the second predetermined condition is applying a predetermined facial expression or pose corresponding to the satisfaction of a predetermined condition set high;
7. A computer program according to any one of claims 1-6 .
請求項1乃至7のいずれか1項に記載のコンピュータプログラム。 The information for making the predetermined facial expression or pose is generated without obtaining information for operating the avatar from the terminal used by the distributor,
A computer program according to any one of claims 1-7 .
請求項1乃至8のいずれか一項に記載のコンピュータプログラム。 A memory that stores the operation result of the processor is used,
9. A computer program according to any one of claims 1-8.
請求項1乃至9のいずれか一項に記載のコンピュータプログラム。 wherein the processor is a central processing unit (CPU), microprocessor or graphics processing unit (GPU);
10. Computer program according to any one of claims 1-9.
請求項1乃至10のいずれか一項に記載のコンピュータプログラム。 the processor has computing capabilities,
Computer program according to any one of claims 1 to 10.
一又は複数のプロセッサにより実行されることにより、
仮想空間内において、配信者が演じるアバターの所定の動作に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズとするための情報を、送信し、
前記アバターの所定の動作は、
前記アバターの視線方向に所定の対象が入る動作、
匂い又は臭いに対する所定のジェスチャー、又は、
音を聞く又は聴くことについての所定のジェスチャー、
の少なくとも一つを含む、
ように前記一又は複数のプロセッサを機能させるコンピュータプログラム。 A computer program,
by being executed by one or more processors,
In the virtual space, obtain information related to the predetermined action of the avatar played by the distributor,
Determining whether the acquired information satisfies a predetermined condition,
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor is changed to a predetermined facial expression or pose corresponding to the predetermined condition. Generate information for posing,
Sending information for making the predetermined facial expression or pose,
The predetermined action of the avatar is
an action in which a predetermined target enters the line-of-sight direction of the avatar;
Smells or predetermined gestures for odors, or
Predetermined gestures about hearing or listening to sounds,
including at least one of
A computer program that causes the one or more processors to function as a computer program.
請求項12に記載のコンピュータプログラム。 A memory that stores the operation result of the processor is used,
13. Computer program according to claim 12.
請求項12又は13に記載のコンピュータプログラム。14. Computer program according to claim 12 or 13.
請求項12乃至14のいずれか一項に記載のコンピュータプログラム。 the processor has computing capabilities,
15. A computer program according to any one of claims 12-14.
前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
仮想空間内において、配信者が演じるアバターの所定の動作に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズとするための情報を、送信し、
前記アバターの所定の動作は、
前記アバターの視線方向に所定の対象が入る動作、
匂い又は臭いに対する所定のジェスチャー、又は、
音を聞く又は聴くことについての所定のジェスチャー、
の少なくとも一つを含む、
ことを特徴とするサーバ装置。 comprising one or more processors;
The processor executing computer readable instructions to
In the virtual space, obtain information related to the predetermined action of the avatar played by the distributor,
Determining whether the acquired information satisfies a predetermined condition,
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor is changed to a predetermined facial expression or pose corresponding to the predetermined condition. Generate information for posing,
Sending information for making the predetermined facial expression or pose,
The predetermined action of the avatar is
an action in which a predetermined target enters the line-of-sight direction of the avatar;
Smells or predetermined gestures for odors, or
Predetermined gestures about hearing or listening to sounds,
including at least one of
A server device characterized by:
請求項16に記載のサーバ装置。The server device according to claim 16.
請求項16又は17に記載のサーバ装置。The server device according to claim 16 or 17.
請求項16乃至18のいずれか一項に記載のサーバ装置。The server device according to any one of claims 16 to 18.
仮想空間内において、配信者が演じるアバターの所定の動作に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバター の表情 とするための情報を生成し、
前記所定の表情又はポーズが適用された、前記アバターを表示し、
前記アバターの所定の動作は、
前記アバターの視線方向に所定の対象が入る動作、
匂い又は臭いに対する所定のジェスチャー、又は、
音を聞く又は聴くことについての所定のジェスチャー、
の少なくとも一つを含む、
ことを特徴とする方法。 1. A method performed by one or more processors executing computer readable instructions, comprising:
In the virtual space, obtain information related to the predetermined action of the avatar played by the distributor,
Determining whether the acquired information satisfies a predetermined condition,
When it is determined that a predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar of the distributor generated based on the facial expression or pose of the distributor corresponds to the predetermined condition. generating information for making a predetermined facial expression or pose to be the facial expression of the avatar;
displaying the avatar with the predetermined facial expression or pose applied;
The predetermined action of the avatar is
an action in which a predetermined target enters the line-of-sight direction of the avatar;
Smells or predetermined gestures for odors, or
Predetermined gestures about hearing or listening to sounds,
including at least one of
A method characterized by:
請求項20に記載の方法。21. The method of claim 20.
請求項20又は21に記載の方法。22. A method according to claim 20 or 21.
請求項20乃至22のいずれか一項に記載の方法。23. A method according to any one of claims 20-22.
仮想空間内において、配信者が演じるアバターの所定の動作に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズとするための情報を、送信し、
前記アバターの所定の動作は、
前記アバターの視線方向に所定の対象が入る動作、
匂い又は臭いに対する所定のジェスチャー、又は、
音を聞く又は聴くことについての所定のジェスチャー、
の少なくとも一つを含む、
ことを特徴とする方法。 1. A method performed by one or more processors executing computer readable instructions, comprising:
In the virtual space, obtain information related to the predetermined action of the avatar played by the distributor,
Determining whether the acquired information satisfies a predetermined condition,
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar of the distributor that has been generated based on the facial expression or pose of the distributor is changed to a predetermined facial expression or pose corresponding to the predetermined condition. Generate information for posing,
Sending information for making the predetermined facial expression or pose,
The predetermined action of the avatar is
an action in which a predetermined target enters the line-of-sight direction of the avatar;
Smells or predetermined gestures for odors, or
Predetermined gestures about hearing or listening to sounds,
including at least one of
A method characterized by:
請求項24に記載の方法。25. The method of claim 24.
請求項24又は25に記載の方法。26. A method according to claim 24 or 25.
請求項24乃至26のいずれか一項に記載の方法。27. The method of any one of claims 24-26.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020078079A JP7329217B2 (en) | 2020-04-27 | 2020-04-27 | Computer program, server device, terminal device, and method |
PCT/JP2021/015347 WO2021210585A1 (en) | 2020-04-14 | 2021-04-13 | Computer program, server device, terminal device, and method |
JP2021208605A JP7611579B2 (en) | 2020-04-27 | 2021-12-22 | Computer program, server device, terminal device, and method |
US17/956,873 US20230023653A1 (en) | 2020-04-14 | 2022-09-30 | Computer program, server, terminal, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020078079A JP7329217B2 (en) | 2020-04-27 | 2020-04-27 | Computer program, server device, terminal device, and method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021208605A Division JP7611579B2 (en) | 2020-04-27 | 2021-12-22 | Computer program, server device, terminal device, and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174283A JP2021174283A (en) | 2021-11-01 |
JP7329217B2 true JP7329217B2 (en) | 2023-08-18 |
Family
ID=78279700
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020078079A Active JP7329217B2 (en) | 2020-04-14 | 2020-04-27 | Computer program, server device, terminal device, and method |
JP2021208605A Active JP7611579B2 (en) | 2020-04-27 | 2021-12-22 | Computer program, server device, terminal device, and method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021208605A Active JP7611579B2 (en) | 2020-04-27 | 2021-12-22 | Computer program, server device, terminal device, and method |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7329217B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114245155A (en) * | 2021-11-30 | 2022-03-25 | 北京百度网讯科技有限公司 | Live broadcast method and device and electronic equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986192A (en) | 2018-07-26 | 2018-12-11 | 北京运多多网络科技有限公司 | Data processing method and device for live streaming |
JP2020017244A (en) | 2018-07-25 | 2020-01-30 | 株式会社バーチャルキャスト | Server, method, program, and dynamic image broadcasting system |
JP2021064253A (en) | 2019-10-16 | 2021-04-22 | 株式会社Zizai | Live communication system using character |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4136341B2 (en) | 2001-08-28 | 2008-08-20 | 株式会社コナミデジタルエンタテインメント | Image processing apparatus and program thereof |
KR101006191B1 (en) * | 2002-08-06 | 2011-01-07 | 윤재민 | Emotion expression and action implementation of virtual personality |
EP3857520A4 (en) | 2018-09-24 | 2021-12-01 | Magic Leap, Inc. | Methods and systems for three-dimensional model sharing |
JP6644928B1 (en) | 2019-03-29 | 2020-02-12 | 株式会社ドワンゴ | Distribution server, viewer terminal, distributor terminal, distribution method, information processing method and program |
-
2020
- 2020-04-27 JP JP2020078079A patent/JP7329217B2/en active Active
-
2021
- 2021-12-22 JP JP2021208605A patent/JP7611579B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020017244A (en) | 2018-07-25 | 2020-01-30 | 株式会社バーチャルキャスト | Server, method, program, and dynamic image broadcasting system |
CN108986192A (en) | 2018-07-26 | 2018-12-11 | 北京运多多网络科技有限公司 | Data processing method and device for live streaming |
JP2021064253A (en) | 2019-10-16 | 2021-04-22 | 株式会社Zizai | Live communication system using character |
Non-Patent Citations (1)
Title |
---|
徳岡 正肇,[CEDEC 2019]「ギフトが当たると勝手に動くVTuberアバター」セッションレポート。2人のVTuberが握手し・肩をつかみ・抱き寄せる。物理エンジンを利用した演技サポートシステムを体験,4gamer,2019年09月04日,第1頁-第10頁,<URL:https://www.4gamer.net/games/999/G999905/20190904033/>,[検索日:2022年12月28日] |
Also Published As
Publication number | Publication date |
---|---|
JP2022033220A (en) | 2022-02-28 |
JP7611579B2 (en) | 2025-01-10 |
JP2021174283A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7109408B2 (en) | Wide range simultaneous remote digital presentation world | |
US10275121B1 (en) | Systems and methods for customized avatar distribution | |
US10877555B2 (en) | Information processing device and information processing method for controlling user immersion degree in a virtual reality environment | |
JP2024063117A (en) | Computer program, server device, terminal device, and method | |
JP7479618B2 (en) | Information processing program, information processing method, and information processing device | |
US20230023653A1 (en) | Computer program, server, terminal, and method | |
JP7509436B2 (en) | Computer program, server device, terminal device, and method | |
JP7329217B2 (en) | Computer program, server device, terminal device, and method | |
JP7496558B2 (en) | Computer program, server device, terminal device, and method | |
JP2023175784A (en) | computer program and method | |
JP7454166B2 (en) | Information processing system, information processing method, and storage medium | |
WO2024064529A1 (en) | Systems and methods for modifying user sentiment for playing a game | |
US12148102B2 (en) | Dynamic augmentation of stimuli based on profile of user | |
JP7296411B2 (en) | Computer program, server device, terminal device, and method | |
JP7531232B2 (en) | Computer program, server device, terminal device, and method | |
JP7418709B2 (en) | Computer programs, methods and server devices | |
US20240335737A1 (en) | Gesture translation with modification based on game context | |
US20240193838A1 (en) | Computer-implemented method for controlling a virtual avatar | |
WO2020235346A1 (en) | Computer program, server device, terminal device, system, and method | |
CN118244931A (en) | Display method, display device, electronic equipment and computer program product | |
WO2024050236A1 (en) | Ai streamer with feedback to ai streamer based on spectators | |
Nakagawa et al. | Model-Based Analysis of the Differences in Sensory Perception between Real and Virtual Space: Toward “Adaptive Virtual Reality” |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7329217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |