[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7398655B2 - Computer program, server device, terminal device, and method - Google Patents

Computer program, server device, terminal device, and method Download PDF

Info

Publication number
JP7398655B2
JP7398655B2 JP2020072287A JP2020072287A JP7398655B2 JP 7398655 B2 JP7398655 B2 JP 7398655B2 JP 2020072287 A JP2020072287 A JP 2020072287A JP 2020072287 A JP2020072287 A JP 2020072287A JP 7398655 B2 JP7398655 B2 JP 7398655B2
Authority
JP
Japan
Prior art keywords
gift
information
predetermined
information related
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020072287A
Other languages
Japanese (ja)
Other versions
JP2021170168A (en
Inventor
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020072287A priority Critical patent/JP7398655B2/en
Priority to PCT/JP2021/015347 priority patent/WO2021210585A1/en
Publication of JP2021170168A publication Critical patent/JP2021170168A/en
Priority to JP2021208607A priority patent/JP7509436B2/en
Priority to US17/956,873 priority patent/US20230023653A1/en
Application granted granted Critical
Publication of JP7398655B2 publication Critical patent/JP7398655B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本件出願に開示された技術は、コンピュータプログラム、サーバ装置、端末装置及び方法に関する。 The technology disclosed in this application relates to a computer program, a server device, a terminal device, and a method.

近年、配信者が演じるアバターを用いた技術が発展している。この種の技術においては、配信サービスを介して、配信者が演じるアバターを、視聴者が視聴可能なようにされている。 In recent years, technology using avatars played by broadcasters has been developed. In this type of technology, viewers can view an avatar played by a distributor via a distribution service.

また、アバターを用いたサービスに関連して、アバターオブジェクトの表情や動作を演者等の動作に基づいて制御する技術を利用したサービスとして、「カスタムキャスト」と称されるサービスが知られている(非特許文献1)。このサービスでは、演者は、スマートフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情や動作のうちのいずれかの表情又は動作を予め割り当てておき、所望する表情又は動作に対応する方向に沿って演者がスマートフォンの画面をフリックすることにより、その動画に表示されるアバターオブジェクトにその表情又は動作を表現させることができる。 Additionally, in relation to services using avatars, a service called "Custom Cast" is known as a service that uses technology to control the facial expressions and actions of avatar objects based on the actions of the performer, etc. Non-patent document 1). With this service, performers can pre-assign one of a number of prepared facial expressions or movements to each of multiple flick directions on the smartphone screen, and select the desired expression or movement. By flicking the screen of the smartphone along the corresponding direction, the performer can cause the avatar object displayed in the video to express its facial expression or action.

"カスタムキャスト"、[online]、Custom Cast Inc.、[2019年12月10日検索]、インターネット(URL: https://customcast.jp/)"Custom Cast", [online], Custom Cast Inc., [searched on December 10, 2019], Internet (URL: https://customcast.jp/)

しかしながら、非特許文献1に開示される技術においては、演者が発話しながらスマートフォンの画面をフリックしなければならず、演者にとっては当該フリックの操作を行う困難がある。 However, in the technique disclosed in Non-Patent Document 1, the performer has to flick the screen of the smartphone while speaking, making it difficult for the performer to perform the flick operation.

なお、上記非特許文献1は、引用によりその全体が本明細書に組み入れられる。 Note that the above Non-Patent Document 1 is incorporated herein by reference in its entirety.

本件出願において開示された幾つかの実施形態は、アバターをより適切に表現可能な、コンピュータプログラム、サーバ装置、端末装置、及び方法を提供する。 Some embodiments disclosed in this application provide a computer program, a server device, a terminal device, and a method that can more appropriately express an avatar.

一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されることにより、視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、ものである。 A computer program according to one aspect acquires information regarding a gift of an object provided from a viewer to a distributor by being executed by one or more processors, and the information regarding the acquired gift is It is determined whether or not a predetermined condition is satisfied using the information related to the gift, and if it is determined that the information related to the acquired gift satisfies the predetermined condition, the facial expression or pose related to the distributor is Information for changing the facial expression or pose of the avatar related to the broadcaster, which has been generated based on the above, to a predetermined facial expression or pose corresponding to the predetermined condition.

一態様に係るコンピュータプログラムにおいて、前記所定の条件は、前記アバターが前記ギフトを装着したタイミングで充足する条件を含む、ものである。 In one aspect of the computer program, the predetermined condition includes a condition that is satisfied at a timing when the avatar wears the gift.

一態様に係るコンピュータプログラムにおいて、前記所定の表情は、前記装着された前記ギフトと、同一のモチーフの表情である、ものである。 In one aspect of the computer program, the predetermined facial expression is a facial expression with the same motif as the attached gift.

一態様に係るコンピュータプログラムにおいて、前記所定の表情が発動する部位は、前記装着された前記ギフトの装着部位と、同一の部位である、ものである。 In one aspect of the computer program, the part where the predetermined facial expression is activated is the same part as the part to which the gift is attached.

一態様に係るコンピュータプログラムにおいて、前記所定の表情が発動する部位は、前記装着された前記ギフトの装着部位と、異なる部位である、ものである。 In one aspect of the computer program, the part where the predetermined facial expression is activated is different from the part where the gift is attached.

一態様に係るコンピュータプログラムにおいて、前記所定の条件は、前記アバターに係る位置と、前記ギフトに係る位置と、が所定距離の範囲内に入ることを含む、ものである。 In the computer program according to one embodiment, the predetermined condition includes that a position related to the avatar and a position related to the gift are within a predetermined distance.

一態様に係るコンピュータプログラムにおいて、前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダー、のいずれかである、ものである。 In the computer program according to one aspect, the position related to the avatar is any one of a position of the avatar in a virtual space, a part that activates the predetermined facial expression, a predetermined part of the avatar, or a collider of the avatar. is, is something.

一態様に係るコンピュータプログラムにおいて、前記所定の条件は、前記ギフトに係る優先度を用いる、ものである。 In the computer program according to one embodiment, the predetermined condition uses priority related to the gift.

一態様に係るコンピュータプログラムにおいて、前記ギフトに係る優先度は、前記ギフトの価格、前記ギフトの表示される大きさ、前記ギフトのレベル、及び/又は、前記ギフトの提供者に係る情報、が用いられる、ものである。 In the computer program according to one aspect, the priority regarding the gift is determined based on the price of the gift, the displayed size of the gift, the level of the gift, and/or information regarding the provider of the gift. It is something that can be done.

一態様に係るコンピュータプログラムにおいて、前記所定の条件は、アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いる、ものである。 In the computer program according to one embodiment, the predetermined condition is to use a type to which the avatar belongs, which is one of a plurality of types to which the avatar belongs.

一態様に係るコンピュータプログラムにおいて、前記所定の表情は、予め定められた表情のパラメータ、又は、配信者の表情に基づく表情のパラメータを所定のルールに基づいて補正された表情のパラメータ、を用いて表示される表情である、ものである。 In the computer program according to one aspect, the predetermined facial expression is obtained by using predetermined facial expression parameters or facial expression parameters that are based on a broadcaster's facial expression and are corrected based on a predetermined rule. It is the expression or thing that is displayed.

一態様に係るコンピュータプログラムにおいて、前記所定の表情は、前記ギフトが表示されている方向に連動して変化する、 ものである。 In one aspect of the computer program, the predetermined facial expression changes in conjunction with the direction in which the gift is displayed.

一態様に係るコンピュータプログラムにおいて、前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、前記ギフトが属性として有する情報、及び/又は、前記ギフトの表示終了の情報、を含む、ものである。 In the computer program according to one aspect, the information related to the gift includes information on the start of display of the gift, information on a change in display of the gift, information that the gift has as an attribute, and/or information on end of display of the gift. , including.

一態様に係るコンピュータプログラムにおいて、前記ギフトに係る情報は、第1ギフトに係る情報と、第2ギフトに係る情報と、を含み、前記所定の条件は、前記第1ギフトに係る情報と、前記第2ギフトに係る情報と、の組み合わせ、順番、及び/又は、前記第1ギフトと前記第2ギフトとの時間に係る情報 と、を用いる、ものである。 In the computer program according to one embodiment, the information related to the gift includes information related to the first gift and information related to the second gift, and the predetermined condition includes the information related to the first gift and the information related to the second gift. and information regarding the combination, order, and/or time between the first gift and the second gift.

一態様に係るコンピュータプログラムにおいて、前記所定の表情又はポーズとするための情報は、前記配信者端末から前記アバターを操作する情報を取得せずに、生成される、ものである。 In the computer program according to one aspect, the information for making the predetermined facial expression or pose is generated without acquiring information for operating the avatar from the distributor terminal.

一態様に係るコンピュータプログラムにおいて、前記ギフトに係る情報を、前記視聴者端末から取得する、ものである。 In one aspect of the computer program, information related to the gift is acquired from the viewer terminal.

一態様に係るコンピュータプログラムにおいて、前記一又は複数のプロセッサは、視聴者端末内に備えられる、ものである。 In one aspect of the computer program, the one or more processors are included in a viewer terminal.

一態様に係るコンピュータプログラムにおいて、前記一又は複数のプロセッサは、配信者端末内に備えられ、
前記生成された情報を用いて、前記アバターの表情又はポーズに設定する、ものである。
In the computer program according to one aspect, the one or more processors are provided in a distributor terminal,
The generated information is used to set the facial expression or pose of the avatar.

一態様に係るコンピュータプログラムにおいて、前記一又は複数のプロセッサは、配信者端末内に備えられ、
前記生成された情報を用いて、前記アバターの表情又はポーズに設定してアニメーションを生成する、ものである。
In the computer program according to one aspect, the one or more processors are provided in a distributor terminal,
The generated information is used to set the facial expression or pose of the avatar to generate an animation.

一態様に係るコンピュータプログラムにおいて、前記一又は複数のプロセッサは、サーバ内に備えられ、 前記生成された情報を用いて、前記アバターの表情又はポーズに設定する、ものである。 In one aspect of the computer program, the one or more processors are provided in a server, and use the generated information to set the facial expression or pose of the avatar.

一態様に係るコンピュータプログラムにおいて、前記一又は複数のプロセッサは、サーバ内に備えられる、前記生成された情報を用いて、前記アバターの表情又はポーズに設定して、映像を生成する、ものである。 In the computer program according to one aspect, the one or more processors are provided in a server and use the generated information to set the facial expression or pose of the avatar and generate a video. .

一態様に係るコンピュータプログラムにおいて、前記複数のプロセッサは、サーバ、視聴者端末、配信者端末、のいずれか一部又は全部に備えられる、ものである。 In the computer program according to one embodiment, the plurality of processors are included in some or all of a server, a viewer terminal, and a distributor terminal.

一態様に係るコンピュータプログラムにおいて、前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、ものである。 In one aspect of the computer program product, the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU).

一態様に係るサーバ装置は、一又は複数のプロセッサを具備し、前記一又は複数のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、ものである。 A server device according to one embodiment includes one or more processors, and the one or more processors execute computer-readable instructions to generate objects that are provided from a viewer to a distributor. information related to the gift is acquired, it is determined whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift, and the information related to the acquired gift satisfies the predetermined condition. When it is determined that the condition is satisfied, the expression or pose of the avatar associated with the distributor, which has been generated based on the expression or pose associated with the distributor, is changed to a predetermined expression or pose corresponding to the predetermined condition. It is something that generates information.

一態様に係るサーバ装置において、前記所定の条件は、前記アバターが前記ギフトを装着したタイミングで充足する条件を含む、ものである。 In the server device according to one embodiment, the predetermined condition includes a condition that is satisfied at a timing when the avatar wears the gift.

一態様に係る方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、 前記プロセッサが、前記命令を実行することにより、視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、ものである。 A method according to one embodiment is a method executed by one or more processors that execute computer-readable instructions, and the processor executes the instructions to send a message from a viewer to a broadcaster. Information related to the gift of the provided object is acquired, it is determined whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift, and the information related to the acquired gift is When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the broadcaster that has been generated based on the facial expression or pose related to the broadcaster is changed to a predetermined facial expression corresponding to the predetermined condition. Or, it generates information for posing.

一態様に係る方法において、前記所定の条件は、前記アバターが前記ギフトを装着したタイミングで充足する条件を含む、ものである。 In the method according to one aspect, the predetermined condition includes a condition that is satisfied at the timing when the avatar wears the gift.

図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a system according to an embodiment. 図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the server device 20 (terminal device 30) shown in FIG. 図3は、一実施形態に係るシステムの機能の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of the functions of the system according to one embodiment. 図4は、一実施形態に係るシステムが有するデータの一例である。FIG. 4 is an example of data possessed by the system according to one embodiment. 図5は、一実施形態に係るシステムが有するデータの一例である。FIG. 5 is an example of data possessed by the system according to one embodiment. 図6は、一実施形態に係るシステムが有するデータの一例である。FIG. 6 is an example of data possessed by the system according to one embodiment. 図7は、一実施形態に係るシステムが処理するフローの一例である。FIG. 7 is an example of a flow processed by the system according to one embodiment. 図8は、一実施形態に係るシステムが処理するフローの一例である。FIG. 8 is an example of a flow processed by the system according to one embodiment. 図9は、一実施形態に係るシステムが処理するフローの一例である。FIG. 9 is an example of a flow processed by the system according to one embodiment.

以下、添付図面を参照して本発明の様々な実施形態を説明する。或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面は、本願発明の一実施形態を開示するものではあるものの、必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。また、本願書類において、アプリケーションという用語が示す対象は、ソフトウェア、又はプログラムと呼ばれるものであってよく、コンピュータに対する指令であって、結果を得ることができるように組み合わされたものであればよい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that components depicted in one drawing may be omitted from another drawing for convenience of explanation. Furthermore, it should be noted that the accompanying drawings, while disclosing one embodiment of the present invention, are not necessarily drawn to scale. In addition, in the present document, the object indicated by the term application may be something called software or a program, as long as it is an instruction to a computer and is combined so as to obtain a result.

1.システムの例
図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。図1に示すように、システム1は、通信網10に接続される1又はそれ以上のサーバ装置20と、通信網10に接続される1又はそれ以上の端末装置30と、を含んでよい。なお、図1には、サーバ装置20の例として、3つのサーバ装置20A~20Cが例示され、端末装置30の例として、3つの端末装置30A~30Cが例示されているが、サーバ装置20として、これら以外の1又はそれ以上のサーバ装置20が通信網10に接続され得るし、端末装置30として、これら以外の1又はそれ以上の端末装置30が通信網10に接続され得る。なお、本出願書類において、システムという用語を、サーバと端末装置の両方を含む場合もあれば、サーバのみ、又は、端末装置のみ、を示す用語としても用いる。すなわち、システムは、サ―バのみ、端末装置のみ、サーバ及び端末装置の両方、のいずれの態様であってもよい。
1. System Example FIG. 1 is a block diagram showing an example of a system configuration according to an embodiment. As shown in FIG. 1, the system 1 may include one or more server devices 20 connected to the communication network 10 and one or more terminal devices 30 connected to the communication network 10. Note that in FIG. 1, three server devices 20A to 20C are illustrated as examples of the server device 20, and three terminal devices 30A to 30C are illustrated as an example of the terminal device 30. , one or more server devices 20 other than these may be connected to the communication network 10, and one or more terminal devices 30 other than these may be connected to the communication network 10 as the terminal device 30. Note that in the present application documents, the term "system" may include both a server and a terminal device, and may also be used to indicate only a server or only a terminal device. That is, the system may be a server only, a terminal device only, or both a server and a terminal device.

また、システムは、クラウド上の情報処理装置であってもよい。また、システムは、仮想的な情報処理装置を構成するものであって、論理的に一の情報処理装置と構成されるものであってもよい。また、システムの所有者と管理者は異なってもよい。 Further, the system may be an information processing device on a cloud. Further, the system constitutes a virtual information processing device, and may be logically configured as one information processing device. Additionally, the system owner and administrator may be different.

通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット、イーサネット(登録商標)、及び/又はこれらの組み合わせ等であってよく、また、これらに限定されない。通信網10においては、本願書類で開示された種々のデータが通信されてよい。 The communication network 10 may be, but is not limited to, a mobile phone network, a wireless LAN, a fixed telephone network, the Internet, an intranet, an Ethernet (registered trademark), and/or a combination thereof. In the communication network 10, various data disclosed in the present document may be communicated.

サーバ装置20は、インストールされた特定のアプリケーションを実行することにより、視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、
前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等を実行できてよい。
The server device 20 executes the installed specific application to acquire information regarding the object gift provided from the viewer to the distributor,
Determining whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift, and when it is determined that the information related to the acquired gift satisfies the predetermined condition, An operation of generating information for changing the facial expression or pose of the avatar related to the broadcaster, which has been generated based on the facial expression or pose related to the broadcaster, to a predetermined facial expression or pose corresponding to the predetermined condition. It is good to be able to execute the following.

或いはまた、端末装置30は、インストールされたウェブブラウザまたは特定のアプリケーションを実行することにより、視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、
前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等を実行できてよい。
Alternatively, the terminal device 30 acquires information regarding the object gift provided from the viewer to the broadcaster by executing an installed web browser or a specific application,
Determining whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift, and when it is determined that the information related to the acquired gift satisfies the predetermined condition, An operation of generating information for changing the facial expression or pose of the avatar related to the broadcaster, which has been generated based on the facial expression or pose related to the broadcaster, to a predetermined facial expression or pose corresponding to the predetermined condition. It is good to be able to execute the following.

端末装置30は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等であってよく、これらに限定されない。 The terminal device 30 is any terminal device capable of performing such operations, and may be, but is not limited to, a smartphone, a tablet, a mobile phone (feature phone), a personal computer, or the like.

2.各装置のハードウェア構成
次に、サーバ装置20が有するハードウェア構成の一例について説明する。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of the server device 20 will be described.

2-1.サーバ装置20のハードウェア構成
サーバ装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するように各端末装置30に関連して記載されたものである。)
2-1. Hardware Configuration of Server Device 20 An example of the hardware configuration of the server device 20 will be described with reference to FIG. 2. FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the server device 20 (terminal device 30) shown in FIG. (This is written in relation to each terminal device 30.)

図2に示すように、サーバ装置20は、主に、演算装置21と、主記憶装置22と、入出力インタフェイス装置23を備えることができる。サーバ装置20は、更に、入力装置24と、補助出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されていてよい。 As shown in FIG. 2, the server device 20 can mainly include a calculation device 21, a main storage device 22, and an input/output interface device 23. Server device 20 can further include an input device 24 and an auxiliary output device 26. These devices may be connected by a data bus and/or a control bus.

演算装置21は、主記憶装置22に記憶されている命令及びデータを用いて演算を行い、その演算の結果を主記憶装置22に記憶させるものである。さらに、演算装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。サーバ装置20は、1以上の演算装置21を含んでよい。演算装置21は、1又はそれ以上の、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでよい。 The arithmetic unit 21 performs arithmetic operations using instructions and data stored in the main memory device 22 and stores the results of the arithmetic operations in the main memory device 22 . Furthermore, the arithmetic device 21 can control the input device 24, the auxiliary storage device 25, the output device 26, etc. via the input/output interface device 23. The server device 20 may include one or more computing devices 21. Computing device 21 may include one or more central processing units (CPUs), microprocessors, and/or graphics processing units (GPUs).

主記憶装置22は、記憶機能を有し、入力装置24、補助記憶装置25及び通信網10等(サーバ装置20等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、演算装置21の演算結果を記憶するものである。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 22 has a storage function, and stores commands and data received from the input device 24, the auxiliary storage device 25, the communication network 10, etc. (server device 20, etc.) via the input/output interface device 23, and It stores the calculation results of the calculation device 21. The main storage device 22 can include, but is not limited to, RAM (random access memory), ROM (read only memory), and/or flash memory.

補助記憶装置25は、記憶装置である。上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶してよく、演算装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)は入出力インタフェイス装置23を介して主記憶装置22にロードされてよい。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置、ファイルサーバ等であってよく、これらに限定されない。 The auxiliary storage device 25 is a storage device. Instructions and data (computer programs) constituting the above-mentioned specific applications, web browsers, etc. may be stored, and these instructions and data (computer programs) may be stored in the input/output interface device 23 by being controlled by the arithmetic unit 21. may be loaded into the main storage device 22 via the . The auxiliary storage device 25 may be a magnetic disk device, an optical disk device, a file server, etc., but is not limited to these.

入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等であってよい。 The input device 24 is a device that takes in data from the outside, and may be a touch panel, a button, a keyboard, a mouse, a sensor, or the like.

出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができてよい。また、入力装置24と出力装置26とが一体化されたものであってもよい。 The output device 26 may include, but is not limited to, a display device, a touch panel, a printer device, and the like. Further, the input device 24 and the output device 26 may be integrated.

このようなハードウェア構成にあっては、演算装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置20及び他の端末装置30等)との間で様々な情報の送受信を行うことができてよい。 In such a hardware configuration, the arithmetic unit 21 sequentially loads instructions and data (computer program) constituting a specific application stored in the auxiliary storage device 25 into the main storage device 22, and loads the loaded instructions into the main storage device 22. and data, the output device 26 is controlled via the input/output interface device 23, or other devices (for example, the server device 20 and It may be possible to transmit and receive various information with other terminal devices 30, etc.).

サーバ装置20がかかる構成を備え、インストールされた特定のアプリケーションを実行することにより、以下で定義される、視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述する様々な動作を含む)の一部又は全部を実行できてよい。また、かかる動作等は、ユーザーが、入力装置24又は後述する端末装置30に係る入力装置34を用いて、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラムが演算装置21上で実行されている場合にはユーザーの利用するシステムとしてのサーバ装置20の出力装置26によって表示されてよく、又はユーザーの利用するシステムとしての端末装置30の出力装置36に表示させる構成であってよい。 The server device 20 has such a configuration, and by executing a specific installed application, acquires information related to a gift of an object provided from a viewer to a distributor, defined below, and performs the acquisition. It is determined whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift, and if it is determined that the information related to the acquired gift satisfies the predetermined condition, the distribution the operation of generating information for changing the facial expression or pose of the avatar related to the broadcaster, which has been generated based on the facial expression or pose related to the broadcaster, to a predetermined facial expression or pose corresponding to the predetermined condition, etc. (including various operations detailed below). Further, such operations may be performed by the user giving instructions to the system of the example of the invention disclosed in the present document using the input device 24 or the input device 34 related to the terminal device 30 described later. Further, when the program is executed on the computing device 21, it may be displayed on the output device 26 of the server device 20 as a system used by the user, or on the output device 26 of the terminal device 30 as the system used by the user. 36 may be displayed.

2-2.端末装置30のハードウェア構成
端末装置30のハードウェア構成例について同じく図2を参照して説明する。各端末装置30のハードウェア構成としては、例えば、上述した各サーバ装置20のハードウェア構成と同一のものを用いることが可能である。したがって、各端末装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Terminal Device 30 An example of the hardware configuration of the terminal device 30 will be described with reference to FIG. 2 as well. As the hardware configuration of each terminal device 30, it is possible to use, for example, the same hardware configuration as that of each server device 20 described above. Therefore, reference numerals for components included in each terminal device 30 are shown in parentheses in FIG. 2.

図2に示すように、各端末装置30は、主に、演算装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each terminal device 30 mainly includes a calculation device 31, a main storage device 32, an input/output interface device 33, an input device 34, an auxiliary storage device 35, and an output device 36. , can be included. These devices are connected to each other by a data bus and/or a control bus.

演算装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各サーバ装置20に含まれる、演算装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であってもよいし、異なるものであってもよい。また、演算装置や記憶装置の容量や能力は、異なっていてよい。特に入力装置34及び出力装置36については、以下で詳述する。 The arithmetic device 31, the main storage device 32, the input/output interface device 33, the input device 34, the auxiliary storage device 35, and the output device 36 are the arithmetic device 21 and the main storage device 22 included in each of the above-mentioned server devices 20, respectively. , the input/output interface device 23, the input device 24, the auxiliary storage device 25, and the output device 26, or they may be substantially the same or different. Furthermore, the capacities and capabilities of the computing devices and storage devices may be different. In particular, input device 34 and output device 36 will be described in detail below.

このようなハードウェア構成にあっては、演算装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各サーバ装置20等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the arithmetic unit 31 sequentially loads instructions and data (computer program) constituting a specific application stored in the auxiliary storage device 35 into the main storage device 32, and loads the loaded instructions into the main storage device 32. and data to control the output device 36 via the input/output interface device 33, or to control the output device 36 via the input/output interface device 33 and the communication network 10 to other devices (for example, each server device 20). etc.), various information can be sent and received between them.

端末装置30がかかる構成を備え、被写体と前記被写体を撮像するカメラとの間の仮想空間上の透明な物体によって少なくとも一つのギフトの位置を移動し、前記ギフトの位置の移動により、前記カメラによって撮像される前記被写体の表示の面積を増加させる、 という動作等(後に詳述する様々な動作を含む)の一部又は全部を実行できてよい。また、インストールされたウェブブラウザを実行することにより、サーバ装置20からウェブページを受信及び表示して、同様の動作を実行できる。また、かかる動作等は、ユーザーが、入力装置34を用いて、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラムが演算装置31上で実行されている場合にはユーザーの利用するシステムとしての端末装置30の出力装置36に表示する構成であってよい。 The terminal device 30 is provided with such a configuration, and the position of at least one gift is moved by a transparent object in a virtual space between a subject and a camera that images the subject, and the position of at least one gift is moved by the camera. It may be possible to perform some or all of the following operations (including various operations described in detail later), such as increasing the display area of the subject to be imaged. Furthermore, by executing the installed web browser, it is possible to receive and display web pages from the server device 20 and perform similar operations. Further, such operations may be performed by the user using the input device 34 to give instructions to the system of the example of the invention disclosed in the present document. Furthermore, when the program is being executed on the arithmetic device 31, it may be configured to be displayed on the output device 36 of the terminal device 30 as a system used by the user.

端末装置は、本願書類において、「配信者端末」と「視聴者端末」の2種類の端末装置があってよい。これらは端末の役割に対して付与された名称であってよく、一の端末装置が、視聴者端末であることもあれば、配信者端末であることもあり、また、視聴者端末であると同時に配信者端末であってもよい。配信者端末は、配信されるものにアバターなどの被写体として登場する者である配信者が利用する端末であってよい。他方、視聴者端末は、主に、配信されているものを視聴する者である視聴者が利用する端末であってよい。なお、視聴者も、アバターなどの被写体に対してギフトを提供するギフティング行為によって、配信されるものにギフトが登場するような形で、視聴者が配信されるものに一定の影響をあたえてもよい。同様に、視聴者は、音声、コメント、等の形で、配信されるものに、一定の影響を与えてよい。配信されるものは、動画であってもよいし、映像であってもよいし、アニメーションであってもよく、これらの一部に配信者が演じるアバターなどの被写体が登場する者であればよい。なお、上述の説明は、本願発明の一実施形態が適用される例にすぎず、かかる前提のない被写体が登場する仮想空間においても、本願発明に係る各実施形態は適用されてよい。 In the present document, there may be two types of terminal devices: a "broadcaster terminal" and a "viewer terminal." These may be names given to the role of the terminal, and one terminal device may be a viewer terminal, a distributor terminal, or a viewer terminal and a distributor at the same time. The terminal may be a personal terminal. The distributor terminal may be a terminal used by a distributor who appears as a subject such as an avatar in the distributed content. On the other hand, the viewer terminal may be a terminal mainly used by a viewer who views what is being distributed. Furthermore, viewers can also exert a certain amount of influence on what is being broadcast, such as by giving a gift to a subject such as an avatar, so that the gift appears in the broadcast. Good too. Similarly, viewers may have some influence on what is delivered in the form of audio, comments, and the like. The content to be distributed may be a video, a video, or an animation, as long as the subject, such as an avatar played by the broadcaster, appears in a part of it. . Note that the above description is merely an example to which one embodiment of the present invention is applied, and each embodiment of the present invention may be applied even in a virtual space where a subject appears without such a premise.

視聴者端末は、上述のように、音声の入力、コメントの入力、ギフティングなどが可能に構成されてよい。例えば、利用者端末は、入力装置34として、コメントを入力可能であり、テキスト情報たるコメントを取得可能なキーボード、タッチパネル、などを有してよい。また、利用者端末は、演算装置34により、一定のコメントを生成する機能を有してもよい。これらの取得されたコメントは、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 As described above, the viewer terminal may be configured to allow voice input, comment input, gifting, and the like. For example, the user terminal may include, as the input device 34, a keyboard, a touch panel, etc., which can input comments and can acquire comments as text information. Further, the user terminal may have a function of generating certain comments using the computing device 34. These obtained comments may similarly be transmitted to the communication network 10 via the input/output interface device 23.

なお、本願発明に係るコメントは、利用者端末によって入力されるコメント以外に、システムが自動的に生成するものであってよい。かかるコメントは、利用者端末に向けて送信され、利用者端末において表示されてよい。 Note that the comments according to the present invention may be automatically generated by the system, in addition to comments input by the user terminal. Such comments may be transmitted to the user terminal and displayed on the user terminal.

また、端末は、入力装置34として、音を取得可能なマイクを含んでよい。なお、人の音声は、入力装置34としてのマイクによって取得され、音として扱ってもよいし、入力装置34としてのマイクによって取得された後、演算装置31による音声認識によりテキスト化して、コメントとして扱ってもよい。なお、利用者端末は、演算装置31によって音を生成してもよい。これらの取得された音又はコメントは、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 Further, the terminal may include a microphone capable of acquiring sound as the input device 34. Note that the human voice may be acquired by a microphone as the input device 34 and treated as sound, or it can be acquired by the microphone as the input device 34 and converted into text by voice recognition by the arithmetic device 31 and then treated as a comment. You can handle it. Note that the user terminal may generate sound using the arithmetic device 31. These captured sounds or comments may similarly be transmitted to the communication network 10 via the input/output interface device 23.

他方、配信者端末は、入力装置34として、人の動きを検知可能なモーションセンサーを含んでよい。モーションセンサーは、配信者の身体に装着し、身体の各部の動きを検知可能な機能を有してよい。身体の各部としては、頭部、顔面、上腕、前腕、手、大腿、下腿、足、体幹、など種々の箇所が挙げられうるが、これらの一部又は全部に限られず、身体の動きを検出可能な位置に装着できるものであってよい。かかるセンサーによって、配信者の表情やポーズをトラッキングし、情報として生成可能であってよい。モーションセンサーは、加速度センサ、ジャイロセンサ、地磁気センサなどを有してよい。これらの取得された情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 On the other hand, the distributor terminal may include, as the input device 34, a motion sensor capable of detecting human movement. The motion sensor may have a function of being attached to the body of the broadcaster and capable of detecting movements of various parts of the body. Various parts of the body include the head, face, upper arm, forearm, hand, thigh, lower leg, foot, trunk, etc.; It may be something that can be attached to a position where it can be detected. Such a sensor may be able to track the broadcaster's facial expressions and poses and generate information. The motion sensor may include an acceleration sensor, a gyro sensor, a geomagnetic sensor, and the like. These acquired information may similarly be transmitted to the communication network 10 via the input/output interface device 23.

また、配信者端末は、入力装置34として、動画を撮像可能なカメラを含んでよい。カメラは、配信者の、頭、顔面、目、身体の一部、全身、などを撮像してよい。カメラが、頭や顔面を撮像する場合顔の方向を検知することが可能であり、顔面を撮像する場合表情を検知することが可能であり、目を撮像する場合視線を検知することが可能であり、身体の一部又は全身を撮像する場合上述のモーションセンサーと共に又は代えて身体の動きを検知することが可能であってよい。これらの撮像情報に基づいた、顔方向、視線、表情、身体の動きについて取得された情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 Further, the distributor terminal may include, as the input device 34, a camera capable of capturing moving images. The camera may image the head, face, eyes, part of the body, whole body, etc. of the broadcaster. When a camera images the head or face, it is possible to detect the direction of the face, when the camera images the face, it is possible to detect facial expressions, and when the camera images the eyes, it is possible to detect the line of sight. If a part of the body or the whole body is to be imaged, it may be possible to detect the movement of the body together with or in place of the above-mentioned motion sensor. Information acquired regarding the facial direction, line of sight, facial expression, and body movement based on these imaging information may similarly be transmitted to the communication network 10 via the input/output interface device 23.

また、視聴者端末及び配信者端末における出力装置36は、表示装置、音発生装置であってよい。表示装置は、表示可能な機能であれば種々の装置であってよく、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、マイクロLEDディスプレイ、ヘッドマウントディスプレイなどが挙げられるが、これらに限らず種々の装置であってよい。音発生装置は、スピーカー、ヘッドフォン、イヤホンなどであってよい。出力装置36で出力される情報は、演算装置31において生成された情報であってもよいし、通信網10から受信した情報であってもよい。 Further, the output device 36 in the viewer terminal and the distributor terminal may be a display device or a sound generating device. The display device may be any type of device as long as it has a display function, such as a liquid crystal display, plasma display, organic EL display, micro LED display, head-mounted display, etc., but is not limited to these. It may be a device. The sound generating device may be a speaker, headphones, earphones, etc. The information output by the output device 36 may be information generated by the arithmetic device 31 or may be information received from the communication network 10.

3.各装置の機能
次に、サーバ装置20及び端末装置30の各々が有する機能の一例について、図3を参考に、説明する。図3は、図1に示したシステムの機能の一例を模式的に示すブロック図である。図3に示すように、一例のシステムは、物体を生成するのに使用できる情報を取得する取得部と、取得された情報を用いて物体を生成する生成部と、を有してよい。
3. Functions of Each Device Next, an example of the functions each of the server device 20 and the terminal device 30 have will be described with reference to FIG. 3. FIG. 3 is a block diagram schematically showing an example of the functions of the system shown in FIG. As shown in FIG. 3, an example system may include an acquisition unit that acquires information that can be used to generate an object, and a generation unit that generates an object using the acquired information.

2.1.取得部
取得部は、後述する所定の条件の適用の可否を判断するのに使用できる情報を取得する機能を有する。
2.1. Acquisition Unit The acquisition unit has a function of acquiring information that can be used to determine whether or not a predetermined condition, which will be described later, is applicable.

取得部の取得する情報は、視聴者から配信者に対して提供されるオブジェクトのギフトについての、一又は複数のギフトに係る情報、及び/又は、アバターに係る情報、を用いてよい。 The information acquired by the acquisition unit may be information related to one or more gifts of objects provided from viewers to distributors, and/or information related to avatars.

ギフトに係る情報は、ギフトに係る優先度、ギフトに係る位置、ギフトの属性、ギフトが提供されたアバターを特定する情報、及び/又は、複数のギフトに係る情報を含んでよい。 The information related to the gift may include priority related to the gift, location related to the gift, attributes of the gift, information specifying the avatar to whom the gift was provided, and/or information related to multiple gifts.

また、アバターに係る情報は、上述の通り、アバターに係る位置、アバターの種類、アバターに係る表情のパラメータ、アバターに係る動作、及び/又は、アバターに係る状況、を含んでよい。ここで、ギフトが提供されたアバターが特定されている場合、アバターに係る情報は、かかるギフトが提供されて特定されたアバターに係る情報であってよい。他方、ギフトが提供されるアバターが特定されていない場合には、仮想空間内の全ての一又は複数のアバターであってもよいし、仮想空間内に登場しているアバターの一部である一又は複数のアバターであってもよい。 Furthermore, as described above, the information related to the avatar may include the position related to the avatar, the type of avatar, facial expression parameters related to the avatar, actions related to the avatar, and/or situations related to the avatar. Here, if the avatar to whom the gift was provided is specified, the information related to the avatar may be information related to the avatar specified by the gift. On the other hand, if the avatar to whom the gift is provided is not specified, it may be all one or more avatars in the virtual space, or one of the avatars appearing in the virtual space. Or it may be multiple avatars.

これらの、ギフトに係る情報や、アバターに係る情報については、条件適用部において、その具体的な内容を説明する。 The specific contents of the gift-related information and avatar-related information will be explained in the condition application section.

また、取得部は、ギフトが、特定のアバターに対して提供された場合は、かかるギフトが提供された相手であるアバターを特定する情報を、取得してよい。 Furthermore, when a gift is provided to a specific avatar, the acquisition unit may acquire information that identifies the avatar to whom the gift was provided.

なお、取得部が情報を取得する元となる情報処理装置は、取得部の機能を有する情報処理装置と同じであってもよいし、異なってもよい。また、取得という用語は、情報を、他の情報処理装置から受信する意味の上位概念であってよく、また、情報を記憶装置から情報を読み取る意味の上位概念であってよく、また、他のプログラムから記憶装置を介して情報を受け取る意味の上位概念であってよい。 Note that the information processing device from which the acquisition unit acquires information may be the same as or different from the information processing device having the function of the acquisition unit. Furthermore, the term "acquisition" may be a general concept of receiving information from another information processing device, or may be a general concept of reading information from a storage device, and may also be a general concept of receiving information from another information processing device. It may be a general concept of receiving information from a program via a storage device.

2.2.条件適用部
条件適用部は、前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、機能を有する。
2.2. Condition Application Unit The condition application unit determines whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift, and determines whether the information related to the acquired gift satisfies the predetermined condition. When it is determined that the condition is satisfied, the expression or pose of the avatar associated with the distributor, which has been generated based on the expression or pose associated with the distributor, is changed to a predetermined expression or pose corresponding to the predetermined condition. It has the function of generating information.

ここで、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成するとは、かかる所定の条件が充足された場合において、前記配信者に係る表情に基づいて生成されていた前記配信者に係るアバターの表情を、前記所定の条件に対応する所定の表情とするための情報のみを生成してもよいし、前記配信者に係るポーズに基づいて生成されていた前記配信者に係るアバターのポーズを、前記所定の条件に対応する所定のポーズとするための情報のみを生成してもよいし、前記配信者に係る表情及びポーズに基づいて各々生成されていた前記配信者に係るアバターの表情及びポーズを、前記所定の条件に対応する所定の表情及びポーズとするための情報を生成してもよい。なお、本願書類において、所定の条件に対応して特定される、所定の表情及び/又はポーズについて、所定の表情等ということがあり、また、表情及び/又はポーズを、表情等ということがある。 Here, if information is generated for changing the facial expression or pose of the avatar related to the broadcaster, which has been generated based on the facial expression or pose related to the broadcaster, to a predetermined facial expression or pose corresponding to the predetermined condition. is for changing the facial expression of the avatar related to the broadcaster that has been generated based on the facial expression related to the broadcaster to a predetermined facial expression corresponding to the predetermined condition when the predetermined condition is satisfied. Only information may be generated, or only information for changing the pose of the avatar related to the streamer that has been generated based on the pose related to the streamer to a predetermined pose corresponding to the predetermined condition. or to change the facial expressions and poses of avatars related to the broadcaster, which have been generated based on the facial expressions and poses related to the broadcaster, to predetermined facial expressions and poses corresponding to the predetermined conditions. information may be generated. In addition, in the application documents, a predetermined facial expression and/or pose that is specified in response to a predetermined condition is sometimes referred to as a predetermined facial expression, etc., and a facial expression and/or pose is sometimes referred to as a facial expression, etc. .

また、所定の表情等は、予め定められた表情のパラメータ、又は、配信者の表情に基づく表情のパラメータを所定のルールに基づいて補正された表情のパラメータ、を用いて表示される表情であってもよいし、予め定められた形状又は動きの設定により表示される表情であってもよいし、予め定められたポーズのパラメータ、又は、配信者のポーズに基づくポーズのパラメータを所定のルールに基づいて補正されたポーズのパラメータ、を用いて表示されるポーズであってもよいし、予め定められた形状又は動きの設定により表示されるポーズであってもよい。ここで、予め定められた表情のパラメータとは、顔の各部位の動きに影響を与える複数のパラメータを示し、かかる複数のパラメータを各々所定の値に設定することにより、一の表情を示すものであってよい。かかる一又は複数のパラメータは、顔の各部位の動きに影響を与えるパラメータであればよく、各パラメータが、顔の特定の部位についてのものでもよいし、顔全体(又は顔の一部)についてのものであるがパラメータ毎に顔全体(又は顔の一部)の形状が異なるものでもよい。後者は、同じ面積であるが形状が異なるものを複数用意して、それらの一部又は複数の合成によって、一の表情を表現する技術である。後者の例としては、例えば、ブランドシェイプが挙げられ、かかる技術では、予め形状が異なる複数の顔全体の形状のものを用意しそれらの複数の形状の合成によって一の表情を生成するものである。なお、本技術においては、通常の顔の要素に加えて、予め所定の形状のものを用意しておくことにより、特殊な表情をさせてもよい。例えば、予め顔の縦線を示す形状を用意しておく場合には、かかる顔の縦線の演出が可能となり、予め目がバツの演出の要素を用意しておく場合には、かかる目がバツの演出が可能となる。この場合、パラメータが予め設定されることから、配信者の表情等を問わず、再現される表情等となるため、表情等を示す適切なパラメータが選択される場合には常に分かりやすい表情等を再現できる利点がある。なお、この場合においても、アバターに応じて、所定の表情等が異なるよう設定されてもよい。すなわち、アバターAとアバターBについて、同一の所定の条件が充足された場合において適用される所定の表情等が、アバターAとアバターBにおいて、異なってもよい。この場合において、個々のアバターに対して設定されてもよいし、アバターの種類に応じて、設定されてもよい。 Further, the predetermined facial expression, etc. is a facial expression displayed using predetermined facial expression parameters, or facial expression parameters based on the broadcaster's facial expression that are corrected based on predetermined rules. It may be a facial expression displayed based on a predetermined shape or movement setting, or a predetermined pose parameter or a pose parameter based on the pose of the broadcaster according to a predetermined rule. The pose may be displayed using pose parameters corrected based on the pose parameters, or the pose may be displayed using predetermined shape or movement settings. Here, the predetermined expression parameters refer to a plurality of parameters that influence the movement of each part of the face, and by setting each of the plurality of parameters to predetermined values, one expression is indicated. It may be. The one or more parameters may be parameters that affect the movement of each part of the face, and each parameter may be related to a specific part of the face or may be related to the entire face (or part of the face). However, the shape of the entire face (or part of the face) may differ depending on the parameter. The latter is a technique in which a plurality of objects with the same area but different shapes are prepared and a single facial expression is expressed by combining some or more of them. An example of the latter is brand shape, in which a plurality of different overall face shapes are prepared in advance and a single facial expression is generated by combining the plurality of shapes. . Note that in the present technology, in addition to normal facial elements, a special facial expression may be created by preparing elements of a predetermined shape in advance. For example, if you prepare in advance a shape that shows the vertical lines of the face, you can create the vertical lines of the face, and if you prepare the elements of the eyes with crosses in advance, you can It becomes possible to produce a cross. In this case, since the parameters are set in advance, the facial expression, etc. that will be reproduced will be the same regardless of the broadcaster's facial expression, etc., so if the appropriate parameter indicating the facial expression, etc. is selected, the facial expression, etc. that is easy to understand will always be reproduced. It has the advantage of being reproducible. Note that even in this case, the predetermined facial expressions etc. may be set to be different depending on the avatar. That is, the predetermined facial expressions and the like that are applied when the same predetermined conditions are satisfied for avatars A and avatars B may be different. In this case, it may be set for each avatar or may be set depending on the type of avatar.

他方、所定の表情等が、配信者の表情等に基づく表情等のパラメータを所定のルールに基づいて補正された表情等のパラメータである場合は、所定の表情等が、配信者の表情等に基づいた表情等となってよい。例えば、配信者が何らかのギフトに対して、驚いた表情をするとする。このとき、配信者の表情の検知に対応してアバターの表情が一又は複数のパラメータによって驚きに対応する表情に設定されるが、所定の条件に対応する所定の表情として驚きに係る複数のパラメータの値を所定の値分増加させたり減少させることにより、より驚きの表情を強調するようにする場合を示す。上述の技術を所定の表情として一又は複数のパラメータが決定される点において絶対値的なものであるのに対し、本技術は、いわば、現在の配信者の表情から得られた情報に対する相対的なパラメータを用いるものであってよい。そのため、同一の配信者が演じる同一のアバターが、同一の所定の条件が適用された場合においても、かかる配信者自身がその時点で有している表情等に基づく表情等のパラメータは同じ場合もあれば、異なる可能性もあることから、かかる異なりうるパラメータに応じた表情等が、所定の表情等となる場合がある。そのため、より表情等のバリエーションをもたせることができる可能性がある。 On the other hand, if the predetermined facial expression, etc. is a facial expression, etc. that has been corrected based on a predetermined rule based on the facial expression, etc., based on the broadcaster's facial expression, etc., then the predetermined facial expression, etc. It may be a facial expression based on the expression. For example, let's say that the distributor makes a surprised expression in response to some kind of gift. At this time, in response to the detection of the broadcaster's facial expression, the avatar's facial expression is set to an expression corresponding to surprise using one or more parameters, but multiple parameters related to surprise are set as a predetermined expression corresponding to a predetermined condition. A case is shown in which the expression of surprise is further emphasized by increasing or decreasing the value of by a predetermined value. While the above technology is based on absolute values in that one or more parameters are determined as a predetermined facial expression, this technology is based on relative values to information obtained from the current broadcaster's facial expression. It may be possible to use various parameters. Therefore, even if the same predetermined conditions are applied to the same avatar played by the same broadcaster, the parameters such as facial expressions based on the facial expressions, etc. that the broadcaster himself/herself has at that time may be the same. If there is, there is a possibility that the expression may be different, and therefore, a facial expression or the like corresponding to such potentially different parameters may become a predetermined facial expression or the like. Therefore, it may be possible to provide more variations in facial expressions, etc.

また、予め定められた形状又は動きの設定により表示される表情は、表情として、お面のように予め定められた形状そのものを、所定の表情とするものを示し、かかるものであってもよい。 Furthermore, the facial expression displayed by setting a predetermined shape or movement may be a facial expression that uses a predetermined shape itself, such as a mask, as a predetermined facial expression. .

なお、以上においては、いずれも所定の表情について説明したが、同様に、所定のポーズについても、対応する技術が用いられてよい。 Note that although the above description has been made regarding predetermined facial expressions, the corresponding technique may be similarly used for predetermined poses.

また、所定の表情等は、提供されるギフトと関連する表情等であってよい。この場合、視聴者は、所定の表情等が表現される理由を、ギフトと関連付けて、容易に理解できる利点がある。 Further, the predetermined expression or the like may be an expression or the like related to the gift to be provided. In this case, there is an advantage that the viewer can easily understand the reason why a predetermined facial expression or the like is expressed in association with the gift.

関連する表情等としては、例えば、ギフトと同一のモチーフの表情等であってよい。例えば、顔出しの犬のパネルを顔に装着して所定の時間内に口が犬口になったり、猫耳を装着すると装着して所定の時間内に猫口になる、などが挙げられる。同一のモチーフの表情等とは、与えられたギフトに対し、所定の表情等がされることでギフトをより効果的にする表情等を含んでよい。なお、ギフトと同一のモチーフの表情等である場合、ギフトの装着から所定の時間内に、アバターの表情等が所定の表情等となってよい。すなわち、前記所定の条件は、前記アバターが前記ギフトを装着したタイミングで充足する条件を含んでよい。なお、上述の所定の時間内は、同時又はほぼ同時であってもよいし、ギフトの装着に伴って所定の表情等に変更になるものでもよい。また、ほぼ同時は、視聴者からの視点でギフトの装着と同じようなタイミングで所定の表情等に変更されたと感じられる程度の時間的差分を含んでよい。 The related expression etc. may be, for example, an expression with the same motif as the gift. For example, if you wear a dog panel with a face showing on your face, your mouth will become a dog's mouth within a predetermined time, or if you put on cat ears, your mouth will become a cat's mouth within a predetermined time. The facial expressions with the same motif may include facial expressions that make the given gift more effective by making a predetermined facial expression or the like in response to the gift. Note that if the facial expression has the same motif as the gift, the avatar's facial expression may change to the predetermined facial expression within a predetermined time after the gift is worn. That is, the predetermined condition may include a condition that is satisfied at the timing when the avatar wears the gift. Note that the above-mentioned predetermined time period may be simultaneous or almost simultaneous, or may change to a predetermined facial expression as the gift is worn. Further, "almost simultaneously" may include a time difference such that from the viewer's perspective, it is felt that the facial expression has been changed to a predetermined expression at the same timing as when the gift is being put on.

この場合、所定の条件は、与えられたギフトに対して、予め定められたギフトとかかるギフトに対する同一のモチーフの所定の表情等とするルールであってよい。条件適用部は、かかる所定のルールを用いて、与えられたギフトに対して、かかるルールを適用し、所定の表情等を特定してよい。なお、かかるルールは、個々のギフトに対して適用されるルールとしてもよいし、個々のギフトの属するギフトの種類に対して適用されるルールとしてもよい。以降、記載を省略するが、以下の種々の条件について、同様に、所定のルールを用いることで、対応する表情等を特定する情報を生成してよい。 In this case, the predetermined condition may be a rule that a given gift has a predetermined facial expression with the same motif as a predetermined gift. The condition application unit may use the predetermined rule to apply the rule to the given gift and specify a predetermined facial expression or the like. Note that this rule may be applied to each gift, or may be applied to the type of gift to which each gift belongs. Although the description will be omitted hereafter, information specifying the corresponding facial expression etc. may be generated by similarly using predetermined rules for the following various conditions.

また、関連する表情等としては、例えば、ギフトが与えられた時の予定調和的な表情等であってもよい。予定調和的な表情等とは、アニメや漫画などにおいて、生じた状況において生じる表情等を含んでよい。例えば、お肉のギフトについて、お肉のギフトが口に近づく所定の時間内に、よだれが出る表情等となったり、お肉のギフトを手で取ろうとする所定の時間内によだれが出る表情等となったり、お肉ギフトが目の前に現れたと同時に、よだれが出る表情となったりしてもよい。所定の時間内は、上述と同様であってよい。 Further, the related facial expression may be, for example, a predetermined and harmonious facial expression when a gift is given. Predetermined facial expressions, etc. may include facial expressions that occur in situations such as anime and manga. For example, regarding a gift of meat, a facial expression such as drooling may appear within a specified time when the gift of meat approaches the mouth, or an expression of drooling within a specified period of time when the gift of meat is attempted to be picked up. etc., or the person may start drooling as soon as the meat gift appears in front of them. The predetermined time may be the same as described above.

他方、所定の表情等は、提供されるギフトのモチーフと正反対の表情等であってもよい。この場合、視聴者は、違和感が生じる可能性があるが、かかる違和感が新たな刺激になる利点がある。 On the other hand, the predetermined facial expression or the like may be a facial expression that is completely opposite to the motif of the gift being provided. In this case, the viewer may feel a sense of discomfort, but this sense of discomfort has the advantage of providing new stimulation.

また、所定の表情等は、表情等を構成する全ての個所(部位)についてのパラメータに作用してもよいし、その一部のパラメータに作用してもよい。例えば、所定の表情等は、口についてのパラメータのみに作用し、口以外の個所についてのパラメータは、配信者の表情に連動するパラメータであってもよい。 Further, the predetermined facial expression etc. may act on the parameters of all parts (parts) that make up the facial expression etc., or may act on some of the parameters. For example, the predetermined facial expression or the like may affect only the parameters regarding the mouth, and the parameters regarding parts other than the mouth may be parameters linked to the broadcaster's facial expression.

また、所定の表情等が発動する部位は、前記装着された前記ギフトの装着部位と、同一の部位であってよい。例えば、口に装着される風船のギフトに対しては、かかる口がすぼむ、などの表情であってよい。この場合、風船を膨らませるのに適切な表情としての口の表現となることから、視聴者は、風船のギフトに対する違和感を生じない利点がある。 Further, the part where the predetermined facial expression or the like is activated may be the same part as the part where the gift is attached. For example, for a gift of a balloon that is attached to the mouth, the expression may be such that the mouth is pursed. In this case, since the expression of the mouth is appropriate for inflating the balloon, there is an advantage that the viewer does not feel uncomfortable about the gift of the balloon.

また、所定の表情等が発動する部位は、前記装着された前記ギフトの装着部位と、異なる部位であってよい。例えば、温泉タオルのギフトについて、頭の上に温泉タオルを置く状態によるギフトの装着と同時に、頭とは異なる部位である目について、目が横線になる、などの表情であってよい。また、指に装着する指輪のギフトについて、指輪を装着に伴い、指と異なる部位である目について、目がハートになる、などの表情であってよい。また、ポッキーのギフトについて、ポッキーを食べる状態による口への装着に伴い、口とは異なる部位である目および頬の部位について、目をつむる、頬が赤くなる、などの表情であってよい。 Further, the part where the predetermined facial expression or the like is activated may be different from the part where the gift is attached. For example, regarding a gift of a hot spring towel, at the same time when the gift is worn by placing the hot spring towel on the head, the eyes, which are a different part from the head, may have an expression such as the eyes becoming horizontal lines. Further, regarding a gift of a ring to be worn on a finger, as the ring is worn, the eyes, which are a different part from the finger, may have an expression such as the eyes becoming hearts. In addition, regarding the Pocky gift, when the Pocky is placed in the mouth in the state of eating, the eyes and cheeks, which are different parts from the mouth, may have an expression such as closing the eyes or blushing the cheeks.

また、所定の表情等は、ギフトが表示されている方向に連動して変化する、ものであってよい。仮想空間内において、ギフトがどの場所に出現するか、配信者には分からない場合がある。このとき、ギフトが提供されていても、配信者は気づかず、結果として、配信者に係るアバターも、そのギフトに反応ができないことがある。そこで、アバターに係る表情が、ギフトが表示されている方向に連動して変化することにより、ギフトを提供した視聴者は、アバターが反応したと理解し、よりコミュニケーションが活発化できる利点がある。ここで、ギフトが表示されている方向に連動して変化する所定の表情等の設定の態様としては、種々のものがあってよい。また、ギフトが表示されている方向に連動して変化する所定の表情等内の部位は、一つでもよいし、複数でもよい。例えば、所定の表情等は、ギフトが表示されている方向に視線を向ける目を含んでもよいし、ギフトが表示されている方向に対して口や眉毛が変化する態様を含んでもよいし、ギフトが表示されている方向に顔を向けてもよいし、手のひらを眉の前方に位置させて遠方を見るようなポーズをしてもよい。また、その他の態様の例としては、お肉のギフトが提供された場合に、所定の表情として、かかるお肉のギフトの表示側にもぐもぐした口を寄せた表情としてもよい。また、タワーギフトが提供された場合、かかるタワーギフトが表示された方向を向いて、所定の表情として、驚いて目を寄せた表情としてもよい。なお、かかる場合において、ギフトの位置に係る情報は、ギフトの回転情報を用いてもよい。 Further, the predetermined expression or the like may change in conjunction with the direction in which the gift is displayed. The distributor may not know where the gift will appear in the virtual space. At this time, even if a gift is provided, the distributor may not be aware of it, and as a result, the avatar associated with the distributor may not be able to react to the gift. Therefore, by changing the facial expression of the avatar in conjunction with the direction in which the gift is displayed, the viewer who gave the gift understands that the avatar has responded, and this has the advantage of making communication more active. Here, there may be various ways of setting a predetermined facial expression that changes in conjunction with the direction in which the gift is displayed. Further, the number of parts within the predetermined expression etc. that changes in conjunction with the direction in which the gift is displayed may be one or more. For example, the predetermined facial expression etc. may include eyes that look in the direction in which the gift is displayed, may include a manner in which the mouth or eyebrows change with respect to the direction in which the gift is displayed, or may include a manner in which the mouth or eyebrows change in relation to the direction in which the gift is You can turn your face in the direction where is displayed, or you can pose with your palms in front of your eyebrows to look into the distance. As another example, when a gift of meat is provided, the predetermined facial expression may be a facial expression in which the person's mouth is mumbled toward the display side of the gift of meat. Furthermore, when a tower gift is provided, the user may face the direction in which the tower gift is displayed and look in surprise as the predetermined expression. Note that in such a case, the information regarding the position of the gift may be the rotation information of the gift.

所定のポーズは、種々のポーズであってよい。ポーズは、アバターの体の一部のみであってもよいし、アバターの体の全体であってもよい。例えば、首をかしげるポーズとして頭部周辺のみのポーズや、ガッツポーズのように上半身のみのポーズであってもよいし、銃を構えるポーズのような全体のポーズでもよい。 The predetermined pose may be various poses. The pose may be of only a part of the avatar's body or may be of the entire avatar's body. For example, it may be a pose of only the head area such as a pose of tilting the head, a pose of only the upper body such as a fist pump, or a pose of the entire body such as a pose of holding a gun.

また、ギフトに係る情報が、ギフトが提供されたアバターを特定する情報を含む場合、条件が適用された場合に所定の表情等とするアバターは、係る特定されたアバターに対しての処理であってよい。 In addition, if the information related to the gift includes information that specifies the avatar to whom the gift was provided, the avatar that makes a predetermined facial expression etc. when the condition is applied is not processed for the specified avatar. It's fine.

所定の条件は、ギフトに係る情報、及び/又は、アバターに係る情報、を用いてよい。 The predetermined conditions may include information related to gifts and/or information related to avatars.

ギフトに係る情報は、上述の通り、ギフトの属性、ギフトに係る優先度、ギフトに係る位置、ギフトの表示開始、ギフトの表示変化、ギフトの表示終了、及び/又は、複数のギフトに係る情報を含んでよい。 As mentioned above, information related to a gift includes gift attributes, gift priority, gift location, gift display start, gift display change, gift display end, and/or information related to multiple gifts. may include.

アバターに係る情報は、上述の通り、アバターに係る位置、アバターの種類、アバターに係る表情のパラメータ、アバターに係る動作、及び/又は、アバターに係る状況、を含んでよい。 As described above, the information related to the avatar may include the location related to the avatar, the type of avatar, facial expression parameters related to the avatar, actions related to the avatar, and/or situations related to the avatar.

ギフトに係る優先度は、所定時間内に、複数のギフトが提供された場合において、それらの複数のギフトのうちの一部のギフトを用いて、所定の表情等が適用される場合に、どの一部のギフトに基づいて所定の表情等を設定するか、に用いられてよい。この場合、一部のギフトとして、一つのギフトに係る情報を用いてもよいし、複数のギフトに係る情報を用いてもよい。ギフトに係る優先度を設定することにより、所定時間内に提供されたギフトについての処理を適切に対応できる利点がある。 Priority regarding gifts is defined as the priority of gifts when multiple gifts are provided within a predetermined time and when a predetermined facial expression etc. is applied using some of the gifts. It may be used to set a predetermined facial expression or the like based on some gifts. In this case, information related to one gift or information related to a plurality of gifts may be used as some of the gifts. By setting priorities regarding gifts, there is an advantage that gifts provided within a predetermined time can be appropriately processed.

例えば、所定の時間内に、5つのギフトが提供された場合、この5つのギフトの中で優先度の最も高い一のギフトのみについてのギフトに係る情報に対し所定の条件が適用されてもよいし、最も優先度の高い一のギフト及び次に優先度の高い他のギフトのみについてのギフトに係る情報に対し所定の条件が適用されてもよいし、優先度が所定順位以内の他のギフトについてのギフトに係る情報に対し所定の条件が適用されてもよい。この場合、ギフトに係る優先度は、所定の条件が適用される対象を選択するという意味において、所定の条件の適用の事前条件としての機能を有してよい。 For example, if five gifts are provided within a predetermined time, predetermined conditions may be applied to information related to only the gift with the highest priority among the five gifts. However, predetermined conditions may be applied to information related to only the gift with the highest priority and other gifts with the next highest priority, or other gifts whose priorities are within a predetermined order. Predetermined conditions may be applied to information regarding a gift. In this case, the priority related to the gift may function as a precondition for application of the predetermined condition in the sense of selecting an object to which the predetermined condition is applied.

なお、所定の条件として、ギフトに係る優先度を用いない場合、ギフトに係る情報を取得したギフトについて、ギフトに係る情報を取得した時間順に所定の条件を適用してもよい。ここで取得した時間順とは、ネットワークの混雑具合や情報処理の進み方などに応じて最終的に取得したギフトに係る情報の取得の時間順でもよいし、視聴者端末や配信者端末やサーバにおいてギフトの提供の指示を取得した時間順でもよい。後者は、例えば、端末やサーバにおいて指示を取得した時間順に時間情報と関連付けて、かかる時間順を決定してもよい。この場合、次のギフトに係る情報を取得した場合、前のギフトに係る情報に基づく所定の表情等の設定を次のギフトに係る情報に基づく所定の表情等に置き換えて設定し前の所定の表情等の情報を削除してもよいし、前の所定の表情等の情報を継続して次のギフトに係る情報についての所定の表情等は設定しないとしてもよい。前者の場合、与えられたギフトに対応する所定の表情等をアバターに表示できる利点がある。他方、後者の場合、設定しない所定の表情等があるとしても、一旦設定された所定の表情等を視聴者が理解できるよう継続して表示できる利点がある。なお、かかる場合、所定の条件は、第1ギフトが提供された時間と第2ギフトが提供された時間間隔である第1ギフトと第2ギフトとの時間に係る情報 とを用いて、所定の表情等を特定してよい。 In addition, when the priority level related to gifts is not used as the predetermined condition, the predetermined condition may be applied to gifts for which information related to gifts was acquired in the order of time when information related to gifts was acquired. Here, the acquired time order may be the time order of the acquisition of information related to the gift that was finally acquired depending on the congestion level of the network, the progress of information processing, etc., or the time order of acquisition of information related to the gift that was finally acquired, or The order may be in the chronological order in which the gift provision instructions were acquired. For the latter, for example, the chronological order may be determined by associating the instructions with time information in the chronological order in which the instructions were acquired at the terminal or server. In this case, when information related to the next gift is obtained, the settings for the predetermined facial expressions, etc. based on the information related to the previous gift are replaced with the predetermined facial expressions, etc. based on the information related to the next gift. Information such as facial expressions may be deleted, or the previous predetermined information such as facial expressions may be continued and the predetermined facial expressions etc. for the information regarding the next gift may not be set. In the former case, there is an advantage that a predetermined facial expression or the like corresponding to the given gift can be displayed on the avatar. On the other hand, in the latter case, even if there are predetermined facial expressions that are not set, there is an advantage that the predetermined facial expressions that have been set can be continuously displayed so that the viewer can understand them. In addition, in such a case, the predetermined condition is determined by using information regarding the time between the first gift and the second gift, which is the time when the first gift was provided and the time interval between when the second gift was provided. You may specify facial expressions, etc.

ギフトに係る優先度は、ギフトの価格、ギフトの表示される大きさ、ギフトのレベル、ギフトの仮想空間内の出現場所、ギフトの種類、ギフトの提供者に係る情報、及び/又は、ギフトの提供されたタイミング、などを用いて生成されたものであってよい。 The priority of a gift may include the price of the gift, the displayed size of the gift, the level of the gift, the location where the gift appears in the virtual space, the type of gift, information about the gift provider, and/or the gift's display size. It may be generated using the provided timing, etc.

ギフトの価格(消費するポイント)、ギフトの表示される大きさ、ギフトのレベルについては、価格、大きさ、レベル数の大きいギフトが、価格、大きさ、レベル数の小さいギフトよりも、高い優先度が設定されていてよい。この場合、価格、大きさ、レベル数、の大きいギフトが提供された場合の方が、所定の表情等に影響を与え、より活性化させる機能を有してよい。また、これとは逆に設定してもよい。 Regarding gift price (points consumed), gift display size, and gift level, gifts with larger price, size, and number of levels have higher priority than gifts with smaller price, size, and number of levels. The degree may be set. In this case, if a gift with a large price, size, and number of levels is provided, it may have a function of influencing and activating a predetermined facial expression. Alternatively, the setting may be reversed.

ギフトの仮想空間内の出現場所としては、例えば、仮想空間内の中央に出現したギフトを、仮想空間内の左右などの端に出現したギフトよりも、優先度を高く設定してよい。仮想空間内の目立ちやすい場所に出現したギフトの優先度を高くした場合、視聴者は、目立ちやすい場所に出現したギフトを視野に入れることができるため、視聴者は、所定の表情等の意味を理解しやすくなる利点がある。 As for the appearance location of the gift in the virtual space, for example, a gift that appears in the center of the virtual space may be given a higher priority than a gift that appears at the left and right edges of the virtual space. If a gift that appears in a conspicuous place in the virtual space is given a high priority, the viewer can see the gift that has appeared in a conspicuous place, so the viewer can understand the meaning of a predetermined facial expression, etc. It has the advantage of being easier to understand.

また、ギフトに係る優先度は、そのギフトに予め設定されている静的な情報であってもよいし、ギフトが提供された段階で初めて設定される動的な情報であってもよい。前者は、例えば、ギフトの価格、ギフトの表示される大きさ、ギフトの種類などがあってよい。後者は、ギフトの仮想空間内の出現場所、ギフトの提供者、ギフトの提供されたタイミング、などであってよい。また、ギフトの価格については、オークション形式などの動的に設定される情報であってもよい。ギフトに係る優先度が動的に設定される場合、より適切かつダイナミックに、所定の表情等を設定されるギフトを選定できる利点がある。 Furthermore, the priority regarding a gift may be static information that is preset for the gift, or may be dynamic information that is set for the first time when the gift is provided. The former may include, for example, the price of the gift, the displayed size of the gift, the type of gift, etc. The latter may include the appearance location of the gift in the virtual space, the gift giver, the timing at which the gift was given, and the like. Furthermore, the price of the gift may be dynamically set information such as in an auction format. When the priorities related to gifts are dynamically set, there is an advantage that gifts to which predetermined facial expressions and the like are set can be selected more appropriately and dynamically.

ギフトの種類は、ギフトの具体的な内容であって良く、種々のものであってよい。ギフトの提供されたタイミングは、先に提供されたギフトを、後に提供されたギフトよりも高い優先度を設定してもよい。 The type of gift may be the specific content of the gift, and may be of various types. Regarding the timing at which gifts are provided, a gift that is provided first may be given a higher priority than a gift that is provided later.

また、ギフトに係る優先度としてギフトの提供者に係る情報を用いる例としては、ギフトを提供者に応じて、ギフトに係る優先度を異なる設定とすることが考えられる。例えば、ある視聴者が所定の配信において特定の地位を有している場合、かかる地位を有していない者のギフトよりも、かかる地位を有している者のギフトの優先度を高く設定してもよい。かかる地位はその配信において視聴者が特定の会員であったり、特定の優待的な立場などに基づいてもよい。また、提供されたギフトの提供者についての、配信の視聴の頻度や、配信の視聴の合計時間、ギフトが提供されるアバターについての配信の視聴の頻度や視聴の合計時間、ギフトが提供されるアバターに係る配信者の配信についての視聴の頻度や視聴の合計時間、現在視聴中の配信において提供したギフトの数、ギフトの合計金額、及び/又は、ギフトの頻度、などに基づいて設定されたものでもよい。また、ギフトの提供者が、アバターに係る配信者との間の応援ランキングに係る情報や、ギフトの提供者がアバターに係る配信者と相互フォロワーである場合等は、かかる情報に基づいて、対応する優先度を設定してよい。応援ランキングに係る情報は例えば、視聴者のアクティビティに係る情報から算出されるランキングの情報を含んでよい。視聴者のアクティビティに係る情報としては、例えば、視聴者の提供したギフトの合計数、ギフトの価格の合計額、ギフトのレベルの合計値、ギフトに係る情報を用いた評価値、視聴者のコメント数、視聴者のいいね数、またはこれらを用いた情報など、を含んでよい。 Further, as an example of using information related to the gift provider as the priority related to the gift, it is conceivable to set the priority related to the gift differently depending on the provider of the gift. For example, if a viewer has a particular status in a given stream, gifts from those who do not have that status may be given higher priority than gifts from those who do not have that status. It's okay. Such status may be based on whether the viewer is a specific member of the distribution, or based on a specific preferential status. In addition, the frequency of viewing the distribution and the total viewing time of the distribution for the gift giver, the frequency of viewing the distribution and the total viewing time of the avatar to whom the gift is provided, and the gift being provided. It is set based on the viewing frequency and total viewing time of the broadcaster's distribution related to avatars, the number of gifts provided in the currently viewed distribution, the total amount of gifts, and/or the frequency of gifts, etc. It can be anything. In addition, if there is information related to the support ranking between the gift giver and the avatar's distributor, or if the gift giver is a mutual follower of the avatar's distributor, we will respond based on such information. You can set the priority to The information related to the support ranking may include, for example, information on the ranking calculated from information related to the viewer's activities. Information related to viewer activities includes, for example, the total number of gifts provided by viewers, the total price of gifts, the total value of gift levels, evaluation values using information related to gifts, and comments from viewers. It may include the number of likes, the number of likes by viewers, or information using these.

特定の配信者のアバターの配信について、より熱烈な視聴者であるほど、その提供するギフトに対して所定の表情等が適用できる可能性が高く設定される場合、視聴者の熱中度を向上する作用が働く可能性がある。 Regarding the delivery of a specific broadcaster's avatar, if it is set that the more enthusiastic the viewer is, the higher the possibility that a predetermined expression, etc. can be applied to the gift provided by the viewer, the viewer's enthusiasm level will be improved. There is a possibility that it will work.

なお、上述のギフトに係る優先度は、所定の条件の一部として複数のギフトのうちの一部のギフトを選択するために使用されてもよいし、優先度に対応した所定の表情等を設定するのに使用されてもよいし、その両方である複数のギフトのうちの一部のギフトを選択するために使用されかつ係る優先度に対応する所定の表情等を特定するのに使用されてもよい。例えば、ギフトのレベルが5のギフトに係る情報を取得した場合に適用される所定の表情等と、同一のギフトのレベルが3のギフトに係る情報を取得した場合に適用される所定の表情等とが、異なってもよい。例えば、あるギフトについて、ギフトのレベル3の場合の所定の表情等は、口と口ひげのみを規定した所定の表情等が設定されるのに対し、ギフトのレベルが5の場合の所定の表情等は、口と口ひげに加えて眉毛を規定した所定の表情等が設定されるものであってよい。なお後者における所定の表情等は、口ひげと、眉毛と、目の態様を規定した所定の表情が設定される(口についての設定がなくなる)というように、ギフトのレベルが高い場合、低いレベルの表情を包含する表情であってもよい。また、その他の態様として、例えば、あるギフトについて、ギフトのレベル3の場合の所定の表情等は、口と口ひげのみを規定した所定の表情等が設定されるのに対し、ギフトのレベルが5の場合の所定の表情等は、口の規定はなく、口ひげと眉毛を規定した所定の表情等が設定されるもの、というように、ギフトのレベルが高い場合の所定の表情等が、ギフトのレベルが低い場合の所定の表情等を包含しなくてもよい。上述のギフトのレベル3と5に対応する各表情のように、所定の条件が段階的なものを含み、対応する所定の表情等についても、対応して、段階的なものであって、その各所定の表情等を異なるものとしてもよい。 Note that the above-mentioned priority regarding gifts may be used to select some gifts from among multiple gifts as part of a predetermined condition, or a predetermined facial expression, etc. corresponding to the priority may be used. It may be used to select some gifts from a plurality of gifts, and may be used to specify a predetermined facial expression, etc. that corresponds to such priority. It's okay. For example, a predetermined expression, etc. that is applied when information related to a gift whose level is 5 is acquired, and a predetermined expression, etc. that is applied when information related to the same gift whose level is 3 is acquired. may be different. For example, for a certain gift, if the gift is level 3, the predetermined facial expression etc. is set as a predetermined facial expression that specifies only the mouth and mustache, whereas if the gift is level 5, the predetermined facial expression etc. is set. may be set with a predetermined facial expression that defines eyebrows in addition to the mouth and mustache. In the latter case, the predetermined facial expressions, etc. that specify the appearance of the mustache, eyebrows, and eyes are set (there are no settings for the mouth). It may be a facial expression including facial expressions. In addition, as another aspect, for example, for a certain gift, if the gift is level 3, a predetermined expression etc. that defines only the mouth and mustache is set, whereas if the gift is level 5 For example, the predetermined facial expression, etc. in the case of a gift with a high level is a predetermined facial expression, etc. that does not specify the mouth, but specifies the mustache and eyebrows. It is not necessary to include a predetermined facial expression etc. when the level is low. Like the facial expressions corresponding to levels 3 and 5 of the gifts mentioned above, the predetermined conditions include graded expressions, and the corresponding predetermined facial expressions, etc. are also graded. Each predetermined facial expression etc. may be different.

また、所定の条件は、ギフトに係る情報と、アバターに係る情報と、の両方を用いてもよい。 Furthermore, the predetermined conditions may use both information related to gifts and information related to avatars.

例えば、所定の条件は、前記アバターに係る位置と、前記ギフトに係る位置と、が所定距離の範囲内に入ることを含むものであってよい。ここで、ギフトに係る位置は、ギフトに予め設定された箇所の位置でもよいし、ギフトが表示された場合の外円や多角形に係る位置でもよいし、ギフトが表示された場合の重心の位置でもよい。外円に係る位置は、外円の中心や外円の接線を用いて特定される位置でもよい。また、多角形に係る位置は、多角形の中心や多角形の頂点や辺などを用いて特定される位置でもよい。前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情等を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダー、のいずれかであってよい。 For example, the predetermined condition may include that a position related to the avatar and a position related to the gift are within a predetermined distance. Here, the position related to the gift may be a preset position on the gift, a position related to the outer circle or polygon when the gift is displayed, or a position related to the center of gravity when the gift is displayed. It can also be the location. The position related to the outer circle may be a position specified using the center of the outer circle or a tangent to the outer circle. Further, the position related to the polygon may be a position specified using the center of the polygon, the apex or side of the polygon, or the like. The position related to the avatar may be any one of a position of the avatar in a virtual space, a part that activates the predetermined facial expression, a predetermined part of the avatar, or a collider of the avatar.

所定の条件において、前記アバターに係る位置と、前記ギフトに係る位置と、が所定距離の範囲内に入ることを含むことを用いることにより、視聴者は、所定の表情等がされたことの意味を理解しやすい利点がある。 By using the fact that the position related to the avatar and the position related to the gift are within a predetermined distance under a predetermined condition, the viewer can understand the meaning of a predetermined facial expression, etc. It has the advantage of being easy to understand.

なお、上記とは逆に、所定の条件において、前記アバターに係る位置と、前記ギフトに係る位置と、が所定距離の範囲外となることを含んでもよい。特に、前記アバターに係る位置と、前記ギフトに係る位置と、が所定時間内に所定距離離れたことを含んでもよい。この場合、ギフトとアバターとが離れる方向に相対的に移動する状況が示されているが、例えば、アバターの所定の表情として涙が出てくる、などの表情が設定されてもよい。 In addition, contrary to the above, it may include that the position related to the avatar and the position related to the gift are outside the range of a predetermined distance under a predetermined condition. In particular, the position related to the avatar and the position related to the gift may be separated by a predetermined distance within a predetermined time. In this case, a situation is shown in which the gift and the avatar move relative to each other in the direction of separation, but for example, an expression such as tears coming out of the eyes may be set as the predetermined expression of the avatar.

また、アバターに係る情報として、アバターが属するタイプを用いてもよい。例えば、所定の条件は、アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いてもよい。これは、あるギフトに係る情報を取得した場合、第1のアバターの種類においては所定の表情等となるが、第2のアバターの種類においては所定の表情等とならない、ものであってよい。例えば、あるタイプのアバターは、弱気な性格の設定であるとして、おばけギフトが提供された場合に、怖がる表情が出やすくなってよい。また、あるタイプのアバターは、陽気な性格の設定であるとして、所定の表情等として、笑顔を含む表情となる条件が、他のアバターよりも、緩いよう設定されていてよい。なお、この場合、アバターについて、弱気、陽気、強気、負けず嫌い、など性格という特性を備えさせ、かかる性格という特性を用いて、所定の条件の充足が判定されてよい。なお、性格は、アバターの属するタイプに応じて設定されているものでもよいし、アバターの属するタイプとは別に個々のアバターについて設定されているものであってもよい。 Furthermore, the type to which the avatar belongs may be used as information related to the avatar. For example, the predetermined condition may be the type to which the avatar belongs, which is one of a plurality of types to which the avatar belongs. This may be such that when information related to a certain gift is acquired, the first avatar type has a predetermined facial expression, but the second avatar type does not have a predetermined facial expression. For example, a certain type of avatar may be set to have a timid personality, so that when a ghost gift is provided, the avatar is more likely to show a frightened expression. Further, a certain type of avatar may be set to have a cheerful personality, and the conditions for a certain type of avatar to have a facial expression including a smile as a predetermined facial expression etc. may be set to be less strict than for other avatars. In this case, the avatar may be provided with personality characteristics such as timid, cheerful, bullish, competitive, etc., and the satisfaction of the predetermined condition may be determined using such personality characteristics. Note that the personality may be set according to the type to which the avatar belongs, or may be set for each avatar separately from the type to which the avatar belongs.

なお、所定の条件は、確率を含んでよい。すなわち、所定の条件は、疑似乱数関数等を含み、かかる関数値が所定の条件を充足した場合に、所定の表情等を生成してもよい。かかる確率を含む場合、常に、所定の表情等が生成されるわけではないため、視聴者の興味を継続的に引くことができる。また、例えば、その確率値を所定の値よりも低くする場合において、稀な表情とする場合、視聴者が貴重な表情を見ることができるという点において、視聴者の興味を引くことができる。 Note that the predetermined condition may include probability. That is, the predetermined condition may include a pseudo-random number function or the like, and when the function value satisfies the predetermined condition, a predetermined facial expression or the like may be generated. When such a probability is included, a predetermined facial expression or the like is not always generated, so it is possible to continuously attract the viewer's interest. Further, for example, if the probability value is set lower than a predetermined value, and if the expression is a rare expression, it is possible to attract the viewer's interest in that the viewer can see a valuable expression.

また、アバターに係る情報として、アバターの動作を含んでもよい。例えば、拳銃のギフトに係る情報と、銃を撃つ動作のアバターの動作がされた場合、拳銃を狙う勇ましい顔になってよい。なお、かかる場合において、銃の種類に応じて、異なる表情になってもよい。例えば、バズーカ砲と、狙撃銃と、拳銃と、機関銃と、はその一部の組み合わせにおいて、同じ表情であってもよいし、異なる表情であってもよい。 Further, the information related to the avatar may include the actions of the avatar. For example, if information regarding a gift of a handgun and an avatar's action of shooting a gun are made, the avatar may display a brave face aiming a handgun. Note that in such a case, the facial expression may differ depending on the type of gun. For example, a bazooka, a sniper rifle, a handgun, and a machine gun may have the same or different facial expressions in some combinations.

また、アバターに係る情報として、アバターに係る状況を含んでもよい。例えば、アバターが、特定の穴に落ちて出られない状況になっている場合において、縄梯子のギフトが提供された場合、所定の表情として、満面の笑顔を示す所定の表情を設定してもよい。 Further, the information related to the avatar may include the situation related to the avatar. For example, if the avatar falls into a specific hole and is unable to get out, and a gift of a rope ladder is provided, the predetermined expression may be set as a predetermined expression showing a big smile. .

また、所定の条件として、ギフトの表示開始の情報、ギフトの表示変化の情報、及び/又は、ギフトの表示終了の情報、という個々のギフトの表示のタイミングを用いて、所定の条件の充足を判定してもよい。この場合、ギフトの表示の開始、変化、終了という、ギフトの表示に対応して、アバターの表情やポーズに変化が生じることから、視聴者は、アバターの表情やポーズの変化の意味を、ギフトと関連付けて、理解しやすくなる利点がある。 In addition, as a predetermined condition, the timing of the display of each gift, such as information on the start of gift display, information on gift display change, and/or information on the end of gift display, is used to check that the predetermined condition is satisfied. You may judge. In this case, the expression and pose of the avatar change in response to the display of the gift, such as the start, change, and end of the display of the gift. This has the advantage of making it easier to understand by relating it to

また、所定の条件として、ギフトが属性として有する情報を用いてもよい。ギフトの属性は、ギフトの種類や、ギフトのレベル、などのギフトが備える特性を含んでもよいし、含まなくともよい。また、ギフトが有する特定の特徴に応じて、所定の条件が充足されるよう所定の条件が設定されてよく、対応する所定の表情等が設定されてよい。 Furthermore, information that the gift has as an attribute may be used as the predetermined condition. The gift attributes may or may not include characteristics of the gift, such as the type of gift and the level of the gift. Also, depending on the specific characteristics of the gift, predetermined conditions may be set so that the predetermined conditions are satisfied, and a corresponding predetermined facial expression or the like may be set.

ギフトの種類は、例えば、ギフトが提供される時期的情報、ギフトの分類の情報、ギフトが装着される部位、などがあってよい。ギフトが提供される時期的情報は、新規にリリースされたもの、リリース後所定期間内のもの、ハロウィーン限定のように所定の時期的なイベントに対応したもの、などであってよい。ギフトの分類の情報としては、無料のギフト、アクセサリーのもの、応援グッズ、などであってよい。また、ギフトが装着される部位は、目、口、鼻、おでこ、耳、手、足など、又はこれらの組み合わせ、などであってよい。 The type of gift may include, for example, information on when the gift is provided, information on the classification of the gift, and the part on which the gift is worn. The timing information on which a gift is provided may be a newly released gift, a gift within a predetermined period of time after release, a gift corresponding to a predetermined seasonal event such as Halloween, etc. Information on gift classification may include free gifts, accessories, support goods, and the like. Further, the part to which the gift is attached may be the eyes, mouth, nose, forehead, ears, hands, feet, etc., or a combination thereof.

ギフトのレベルは、同じ又は異なる他のギフトと組み合わせることにより、レベルアップすることができてよい。そして、同じギフトであるとしても、第1のレベルのギフトと、第2のレベルのギフトと、を取得した場合、レベルの高いギフトの場合の方が、豪華な所定の表情等が設定されてよい。例えば、第1の所定の表情等が、第2の所定の表情等よりも、豪華であるとは、例えば、所定の表情等として設定されるパラメータが多い場合、所定の表情等によって影響される部位が多い、などが挙げられる。 The level of a gift may be increased by combining it with other gifts of the same or different nature. Even if they are the same gift, if you obtain a first level gift and a second level gift, the higher level gift will have a more luxurious predetermined expression, etc. good. For example, if the first predetermined facial expression etc. is more gorgeous than the second predetermined facial expression etc., for example, if there are many parameters set as the predetermined facial expression etc., it may be influenced by the predetermined facial expression etc. There are many parts, etc.

また、前記ギフトに係る情報は、第1ギフトに係る情報と、第2ギフトに係る情報と、を含み、前記所定の条件は、前記第1ギフトに係る情報と、前記第2ギフトに係る情報と、の組み合わせ、順番、及び/又は、前記第1ギフトと前記第2ギフトの時間に係る情報と、を用いる、ものでもよい。 Further, the information related to the gift includes information related to the first gift and information related to the second gift, and the predetermined condition is the information related to the first gift and the information related to the second gift. and/or information regarding the time of the first gift and the second gift.

例えば、アバターが所定の組み合わせのギフトを与えられた場合、かかるアバターの表情を所定の表情等としてもよい。より具体的には、例えば、アバターが、RPGのギフトとして、勇者の盾、勇者の剣、勇者のマント、の3種のギフトが提供された場合、かかるアバターの表情として、勇者の勇ましい顔に設定されてよい。なお、かかる場合において設定される所定の表情等は、与えられたギフトの組み合わせから、示唆されるものであってよい。一例を挙げれば、カエルの盾、カエルの件、カエルのマントであれば、カエルのような顔になってよい。 For example, when an avatar is given a predetermined combination of gifts, the avatar's expression may be a predetermined expression. More specifically, for example, if an avatar is provided with three types of gifts in an RPG: a hero's shield, a hero's sword, and a hero's cloak, the avatar's facial expression will be the hero's brave face. May be set. Note that the predetermined expression etc. set in such a case may be suggested from the combination of gifts given. For example, if you have a frog shield, a frog case, or a frog cloak, you can have a frog-like face.

また、ギフトに係る情報が所定の順序で取得した場合に限り、所定の条件が充足されるよう設定されてもよい。例えば、ギフトとして、はちまきが与えられた段階で目が燃えているようなメラメラする表情が設定されるとし、更にギフトとして、サングラスが与えられると、サングラスをしていても目がメラメラしている様子が分かる程度に、単にハチマキだけを装着した時の目がメラメラした表示よりも、目がメラメラした表示が大きい表情が設定されてもよい。かかる大きな目のメラメラした表示の表情は、サングラスの後にハチマキが与えられた場合には適用されないとしてもよいし、同一の表情になるよう設定してもよい。 Further, a predetermined condition may be set to be satisfied only when information related to gifts is acquired in a predetermined order. For example, if you are given a headband as a gift, your eyes will look as if they are on fire, and if you are given sunglasses as a gift, your eyes will be shiny even if you are wearing sunglasses. To the extent that the situation can be seen, an expression may be set in which the eyes are brighter than the bright eyes when only the headband is worn. Such a facial expression with big eyes flashing may not be applied when a headband is given after sunglasses, or the facial expression may be set to be the same.

条件適用部は、所定の条件の充足によって特定された表情を、前記ギフトが提供されたアバターについての表情としてよい。より具体的には、所定の条件の充足によって特定された表情を示す情報は、特定された表情を示すIDや、特定された表情を示す表情の一又は複数のパラメータであってよく、かかる特定された表情を、かかるアバターの表情とできるように、かかる特定された表情を示す情報を用いて、アバターの表情を設定してよい。かかるIDやパラメータの情報は、条件適用部において特定又は生成された後、かかる情報が、映像やアニメーションの生成のためにサーバや端末に送信され、所定期間、利用されてよい。ここで、条件適用部は、各所定の条件と関連付けて、特定される表情を示す情報を記憶してよく、かかる各所定の条件が充足された場合に、対応する特定される表情を示す情報を特定できるよう構成されてよい。 The condition application unit may set the facial expression specified by satisfaction of a predetermined condition as the facial expression of the avatar to whom the gift was provided. More specifically, the information indicating the facial expression specified by satisfying a predetermined condition may be an ID indicating the specified facial expression, or one or more parameters of the facial expression indicating the specified facial expression, and The avatar's facial expression may be set using information indicating the specified facial expression so that the specified facial expression can be used as the facial expression of the avatar. After the information on the ID and parameters is specified or generated in the condition application section, the information may be transmitted to a server or terminal to generate a video or animation, and may be used for a predetermined period of time. Here, the condition application unit may store information indicating the specified facial expression in association with each predetermined condition, and when each of the predetermined conditions is satisfied, information indicating the corresponding specified facial expression. may be configured so that it can be specified.

かかる処理において、条件適用部が実行される第1情報処理装置と、かかるアバターの表情の設定を含む処理を行う第2情報処理装置と、が同じ場合、条件適用部は、条件適用部が所定の条件の充足によって特定した表情を用いて、前記アバターの表情と設定するよう処理してよい。 In such processing, if the first information processing device on which the condition application section is executed and the second information processing device that performs the processing including setting the facial expression of the avatar are the same, the condition application section may Processing may be performed to set the facial expression of the avatar using the facial expression specified by satisfying the condition.

また、条件適用部が実行される第1情報処理装置と、かかるアバターの表情の設定を含む処理を行う第2情報処理装置と、が異なる場合、条件適用部が所定の条件の充足によって特定した表情を、第1情報処理装置は、第2情報処理装置に送信し、かかる第2情報処理装置において、特定された表情を用いて、前記アバターの表情と設定するよう処理してよい。 In addition, if the first information processing device on which the condition application unit is executed and the second information processing device that performs the process including setting the facial expression of the avatar are different, the condition application unit may perform the processing specified by the fulfillment of a predetermined condition. The first information processing device may transmit the facial expression to a second information processing device, and the second information processing device may process the facial expression to set it as the facial expression of the avatar using the specified facial expression.

ここで、第1情報処理装置がサーバであって、第2情報処理装置がサーバである場合は、第1情報処理装置のサーバから、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処理装置が配信者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。 Here, if the first information processing device is a server and the second information processing device is a server, the specified facial expressions, etc. are sent from the server of the first information processing device to the server of the second information processing device. Information indicating the information may be transmitted. Further, if the first information processing device is a server and the second information processing device is a viewer terminal, such specified information is sent from the server of the first information processing device to the viewer terminal of the second information processing device. Information indicating a facial expression, etc. may be transmitted. Further, if the first information processing device is a server and the second information processing device is a distributor terminal, such specified information is sent from the server of the first information processing device to the distributor terminal of the second information processing device. Information indicating a facial expression, etc. may be transmitted.

同様に、第1情報処理装置が視聴者端末であって、第2情報処理装置がサーバである場合は、第1情報処理装置の視聴者端末から、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の視聴者端末から、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって、第2情報処理装置が配信者端末である場合は、第1情報処理装置の視聴者端末から、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。 Similarly, if the first information processing device is a viewer terminal and the second information processing device is a server, the specified information is sent from the viewer terminal of the first information processing device to the server of the second information processing device. Information indicating the facial expression and the like may be transmitted. In addition, if the first information processing device is a viewer terminal and the second information processing device is a viewer terminal, the viewer terminal of the first information processing device may be connected to the viewer terminal of the second information processing device. , information indicating such specified facial expressions, etc. may be transmitted. In addition, if the first information processing device is a viewer terminal and the second information processing device is a distributor terminal, the viewer terminal of the first information processing device is connected to the distributor terminal of the second information processing device. , information indicating such specified facial expressions, etc. may be transmitted.

同様に、第1情報処理装置が配信者端末であって、第2情報処理装置がサーバである場合は、第1情報処理装置の配信者端末から、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。第1情報処理装置が配信者端末であって、第2情報処理装置が配信者端末である場合は、第1情報処理装置の配信者端末から、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の配信者端末から、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。 Similarly, if the first information processing device is a distributor terminal and the second information processing device is a server, the specific information is sent from the distributor terminal of the first information processing device to the server of the second information processing device. Information indicating the facial expression and the like may be transmitted. If the first information processing device is a distributor terminal and the second information processing device is a distributor terminal, the following information is transmitted from the distributor terminal of the first information processing device to the distributor terminal of the second information processing device. Information indicating the specified facial expression etc. may be transmitted. In addition, if the first information processing device is a distributor terminal and the second information processing device is a viewer terminal, from the distributor terminal of the first information processing device to the viewer terminal of the second information processing device. , information indicating such specified facial expressions, etc. may be transmitted.

上記では、条件適用部が、単一の情報処理装置において実行される態様を示しているが、複数の情報処理装置において条件適用部を分散して処理してもよい。 Although the condition application unit is executed in a single information processing device in the above example, the condition application unit may be distributed and processed in a plurality of information processing devices.

また、所定の条件は、所定の表情等が設定されるタイミングを含んでよい。上述の種々の条件において、アバターに係る位置とギフトに係る位置とが所定の距離の範囲内になったタイミングによって、所定の表情等が設定され、かかる所定の表情等の情報を含む情報が、表示される情報処理装置に送信されて、表示されてよい。この場合のタイミングのずれは、通信や処理のタイムラグが含まれてよい。 Furthermore, the predetermined conditions may include timing at which a predetermined facial expression or the like is set. Under the various conditions described above, a predetermined facial expression, etc. is set depending on the timing when the position related to the avatar and the position related to the gift are within a predetermined distance, and information including information such as the predetermined facial expression, etc. The information may be transmitted to and displayed on the information processing device to be displayed. The timing shift in this case may include a time lag in communication and processing.

他方、所定の条件が充足された上で、所定の表情等が設定されるタイミングは、別途設定されたものが使用されてもよい。例えば、所定の条件が設定されてから、2秒後に、所定の表情等になる、というものでもよい。一例としては、アバターが驚くような状況が生じて、その2秒後という故意に遅らせたタイミングで、所定の驚きの表情を設定するものなどでもよい。 On the other hand, the timing at which a predetermined facial expression or the like is set after a predetermined condition is satisfied may be set separately. For example, after a predetermined condition is set, a predetermined facial expression or the like may be displayed two seconds later. For example, a predetermined expression of surprise may be set at an intentionally delayed timing of two seconds after a situation in which the avatar is surprised occurs.

図5及び図6は、所定の条件のルールの一例である。ギフトに係る情報のみ、及び/又は、アバターに係る情報を、所定の条件として用いることにより、対応する、所定の表情等が特定されるものとなる。 5 and 6 are examples of rules with predetermined conditions. By using only the information related to the gift and/or the information related to the avatar as a predetermined condition, a corresponding predetermined facial expression etc. can be specified.

上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所定の表情等が実現できることとなり、仮想空間内のアバターの表情やポーズにバリエーションを持たせることができる利点がある。また、演者がタブレットなどを用いてバターの表情を自ら指定できる場合であっても、スタジオ配信においてオペレータによって装着ギフトが装着される場合、演者が装着されたことに気づかないこともあるため、そのような場合において演者が何ら操作しなくとも、ギフトに対応する表情又はポーズがアバターに適用できる利点がある。すなわち、所定の表情又はポーズとするための情報は、前記配信者からギフトを提供する以外の操作なしに、生成されてよい。 As mentioned above, the function of the condition application section allows a corresponding predetermined facial expression etc. to be realized when a predetermined condition is satisfied, which has the advantage of allowing variation in the facial expressions and poses of the avatar in the virtual space. There is. Furthermore, even if performers are able to specify Butter's facial expressions using a tablet or the like, when a wearable gift is worn by an operator during studio distribution, the performer may not notice that it has been worn. In such a case, there is an advantage that the facial expression or pose corresponding to the gift can be applied to the avatar without any operation by the performer. That is, information for making a predetermined facial expression or pose may be generated without any operation other than providing a gift from the distributor.

また、上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所定の表情等を自動的に実現できることとなり、視聴者端末から、ギフトの提供のみで、その他の視聴者端末からの操作なく、アバターの表情が変更する結果が生じる反応を楽しむことのできる利点がある。 In addition, as mentioned above, the function of the condition application section makes it possible to automatically realize a corresponding predetermined facial expression, etc. when a predetermined condition is satisfied, so that by only providing a gift from the viewer terminal, other There is an advantage in that the user can enjoy the reaction that results in the avatar's facial expression changing without any operation from the viewer's terminal.

4.実施形態
4-1.実施形態1
実施形態1は、視聴者端末において、条件適用部が動作する例である。この場合、取得部は、視聴者端末において、動作してよい。本例について、図7を用いて説明する。なお、視聴者端末において、条件適用部が動作するため、視聴者端末に基づく情報を所定の条件として含めることにより、視聴者端末毎に、アバターの表現等を変更することも可能であってよい。
4. Embodiment
4-1. Embodiment 1
Embodiment 1 is an example in which a condition application unit operates in a viewer terminal. In this case, the acquisition unit may operate on the viewer terminal. This example will be explained using FIG. 7. Note that since the condition application unit operates on the viewer terminal, it may be possible to change the avatar's expression etc. for each viewer terminal by including information based on the viewer terminal as a predetermined condition. .

ステップ1
取得部が、ギフトに係る情報を取得する(ステップ001)。かかるギフトに係る情報は、条件適用部が動作する視聴者端末において入力されたものでもよいし、他の視聴者端末において入力されたギフトに係る情報が、サーバなどを介して、条件適用部が動作する視聴者端末が取得してもよい。なお、取得部は、他のアバターに係る情報を取得してもよい。
Step 1
The acquisition unit acquires information related to the gift (step 001). Information related to such a gift may be input on the viewer terminal where the condition application section operates, or information related to the gift input on another viewer terminal may be transmitted to the condition application section via a server or the like. It may also be acquired by an operating viewer terminal. Note that the acquisition unit may acquire information regarding other avatars.

ステップ2
次に、条件適用部が、少なくともギフトに係る情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。このために、条件適用部は、少なくとも一部の所定の条件とかかる条件が充足した場合における所定の表情等を示す情報を有していてよい。
Step 2
Next, the condition application unit determines a predetermined condition using at least the information related to the gift, and when determining that the predetermined condition is satisfied, specifies an expression etc. corresponding to the satisfied predetermined condition (step 002 ). For this purpose, the condition application unit may have information indicating at least some predetermined conditions and a predetermined facial expression etc. when the conditions are satisfied.

ステップ3
特定された表情等を、視聴者端末において、所定の条件の充足に使用されたアバターに係る表情等に設定する(ステップ003)。視聴者は、ギフトの提供に対応して、アバターの表情等が変更される反応を視聴できる利点がある。
Step 3
The specified facial expression etc. are set as the facial expression etc. related to the avatar used to satisfy the predetermined condition on the viewer terminal (step 003). The viewer has the advantage of being able to watch the reaction of the avatar's facial expression etc. changing in response to the provision of the gift.

4-2.実施形態2
実施形態2は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は、サーバにおいて、動作してよい。なお、本例は、視聴者端末上において、アニメーションが生成される前提で、図8を用いて説明する。
4-2. Embodiment 2
Embodiment 2 is an example in which a condition application unit operates in a server. In this case, the acquisition unit may operate in the server. Note that this example will be described with reference to FIG. 8 on the premise that the animation is generated on the viewer terminal.

ステップ1
取得部が、ギフトに係る情報を取得する(ステップ001)。なお、取得部は、他のアバターに係る情報を取得してもよい。
Step 1
The acquisition unit acquires information related to the gift (step 001). Note that the acquisition unit may acquire information regarding other avatars.

ステップ2
次に、条件適用部が、少なくともギフトに係る情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。
Step 2
Next, the condition application unit determines a predetermined condition using at least the information related to the gift, and when determining that the predetermined condition is satisfied, specifies an expression etc. corresponding to the satisfied predetermined condition (step 002 ).

ステップ3
サーバは、特定された表情を示す情報を、かかるアバターの配信を視聴している、各視聴者端末に送信する(ステップ003)。
Step 3
The server transmits information indicating the specified facial expression to each viewer terminal viewing the distribution of the avatar (step 003).

ステップ4
各視聴者端末において、サーバから取得した表情等を示す情報を用いて、アバターの表情等を設定する(ステップ004)。ここで、各視聴者端末において、かかる設定されたアバターの表情等を用いて、アニメーションが生成されてもよい。
Step 4
At each viewer terminal, the avatar's facial expressions and the like are set using the information indicating the facial expressions and the like obtained from the server (step 004). Here, an animation may be generated at each viewer terminal using the set avatar's facial expression and the like.

ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられたアバターの表情等が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情に設定される(ステップ005)。なお、アニメ―ションが生成された場合は、各アニメーション内に、所定の期間、かかる生成された表情等が用いられて表示され、その後は、アバターに係る配信者の表情等に基づきトラッキングによって得られた表情等がアバターの表情等として使用されてよい。
Step 5
On each viewer terminal, the avatar's facial expression, etc., using the information indicating the facial expression, etc. obtained from the server, is displayed for a predetermined period of time, and then the facial expression is set to the facial expression, etc. based on the broadcaster's facial expression, etc. related to the original avatar. (Step 005). In addition, when animations are generated, such generated facial expressions, etc. are used and displayed within each animation for a predetermined period, and after that, gains are made by tracking based on the broadcaster's facial expressions related to the avatar. The facial expression etc. that are displayed may be used as the facial expression etc. of the avatar.

4-3.実施形態3
実施形態3は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は、サーバにおいて、動作してよい。なお、本例は、サーバ上において、アバターの表情を含む映像が生成される前提で、図9を用いて説明する。
4-3. Embodiment 3
Embodiment 3 is an example in which a condition application unit operates in a server. In this case, the acquisition unit may operate in the server. Note that this example will be described with reference to FIG. 9 on the premise that a video including an avatar's facial expression is generated on the server.

ステップ1
取得部が、ギフトに係る情報を取得する(ステップ001)。なお、取得部は、他のアバターに係る情報を取得してもよい。
Step 1
The acquisition unit acquires information related to the gift (step 001). Note that the acquisition unit may acquire information regarding other avatars.

ステップ2
次に、条件適用部が、少なくともギフトに係る情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。
Step 2
Next, the condition application unit determines a predetermined condition using at least the information related to the gift, and when determining that the predetermined condition is satisfied, specifies an expression etc. corresponding to the satisfied predetermined condition (step 002 ).

ステップ3
サーバは、特定された表情を示す情報等を用いて、かかるアバターの配信についての映像を生成する(ステップ003)。ここで、アバターの配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、同一のサーバの場合、条件適用部を実行するサーバにおいて、アバターの配信のための映像を生成してよい。他方、アバターの配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、異なるサーバの場合、条件適用部を実行するサーバから、かかる映像を生成するサーバに、かかる特定された表情を示す情報が送信され、かかる映像生成するサーバにおいて、かかる特定された表情を示す情報が用いられてよい。なお、かかるサーバにおいてアニメーションを生成する場合も同様に、映像と共に又は映像に代えて、かかるアバターの配信についてのアニメーションを生成してもよく、この場合は以降映像と共に又は映像に代えてアニメーションが使用されてよい。
Step 3
The server generates a video regarding the delivery of the avatar using information indicating the specified facial expression, etc. (step 003). Here, if the server that generates the video for avatar distribution and the server that executes the condition application section are the same server, the server that executes the condition application section generates the video for avatar distribution. It's fine. On the other hand, if the server that generates the video regarding avatar distribution and the server that executes the condition application section are different servers, the server that executes the condition application section transfers the specified Information indicating the facial expression is transmitted, and the information indicating the specified facial expression may be used in the server that generates the image. Similarly, when generating animation on such a server, an animation for distributing such an avatar may be generated together with or in place of the video, and in this case, the animation may be used together with or in place of the video. It's okay to be.

ステップ4
特定された表情を示す情報に基づいて特定された表情を用いて生成されたアバターの映像が、各視聴者端末に対して送信される(ステップ004)。
Step 4
An image of the avatar generated using the specified facial expression based on the information indicating the specified facial expression is transmitted to each viewer terminal (step 004).

ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられた映像が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情等に基づくアバターの映像が表示される(ステップ005)。
Step 5
On each viewer terminal, a video using information indicating facial expressions obtained from the server is displayed for a predetermined period of time, and then an avatar video based on the facial expressions, etc. based on the broadcaster's facial expressions related to the original avatar is displayed. is displayed (step 005).

また、本願書類で説明されたシステム及び情報処理は、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実施されてよく、またかかるシステム及び情報処理の一部又は全部は、処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させられてよく、またこれらのコンピュータプログラムは、記憶媒体に記憶されてよい。また、これらのプログラムは、非一過性又は一時的な記憶媒体に記憶されてよい。 Furthermore, the systems and information processing described in this document may be implemented by software, hardware, or a combination thereof, and some or all of such systems and information processing may be implemented by implementing the processing/procedures as computer programs. However, these computer programs may be executed by various computers, and these computer programs may be stored in a storage medium. Additionally, these programs may be stored on non-transitory or temporary storage media.

本願書類で説明したものは、本願書類で説明されたものに限られず、本願書類で説明された種々の技術上の利点や構成を有する種々の技術的思想の範囲内で、種々の例に適用できることはいうまでもない。 What is explained in the application documents is not limited to what is explained in the application documents, but may be applied to various examples within the scope of various technical ideas having various technical advantages and configurations explained in the application documents. It goes without saying that it can be done.

1 システム
10 通信網
20(20A~20C) サーバ装置
30(30A~30C) 端末装置
21(31) 演算装置
22(32) 主記憶装置
23(33) 入出力インタフェイス
24(34) 入力装置
25(35) 補助記憶装置
26(36) 出力装置
41 取得部
42 条件適用部
1 System 10 Communication network 20 (20A to 20C) Server device 30 (30A to 30C) Terminal device 21 (31) Arithmetic device 22 (32) Main storage device 23 (33) Input/output interface 24 (34) Input device 25 ( 35) Auxiliary storage device 26 (36) Output device 41 Acquisition unit 42 Condition application unit

Claims (27)

コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、
前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、
前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
次のギフトに係る情報を取得し、前記ギフトに係る情報及び前記次のギフトに係る情報に含まれる時間に係る情報を用いて、前記ギフトに係る所定の表情又はポーズを継続して設定し、
前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、又は、前記ギフトの表示終了の情報、の少なくとも一つを含み、
前記所定の条件は、前記ギフトに係る情報に含まれるギフトの表示に係るタイミングを用いる、
ように前記プロセッサを機能させるコンピュータプログラム。
A computer program,
By being executed by one or more processors,
Obtain information related to object gifts provided by viewers to broadcasters,
Determining whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift,
When it is determined that the information related to the acquired gift satisfies the predetermined condition, the expression or pose of the avatar related to the distributor that has been generated based on the expression or pose related to the distributor is changed to the predetermined condition. generate information for a predetermined facial expression or pose that corresponds to the conditions;
acquiring information related to the next gift, and continuously setting a predetermined facial expression or pose related to the gift using the information related to the gift and the information related to the time included in the information related to the next gift;
The information related to the gift includes at least one of information on the start of display of the gift, information on change in display of the gift, or information on end of display of the gift,
The predetermined condition uses timing related to the display of the gift included in the information related to the gift,
A computer program that causes the processor to function as described above.
前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、及び、前記ギフトの表示終了の情報、含む、
請求項1に記載のコンピュータプログラム。
The information related to the gift includes information on the start of display of the gift, information on change in display of the gift, and information on end of display of the gift.
The computer program according to claim 1.
前記所定の条件は、前記ギフトに係る優先度を用いており、
前記ギフトに係る優先度は、前記ギフトの提供者の特定の地位に係る情報、が用いられる、
請求項1又は2に記載のコンピュータプログラム。
The predetermined condition uses the priority related to the gift,
The priority related to the gift uses information related to a specific status of the gift provider,
The computer program according to claim 1 or 2.
前記所定の表情が発動する部位は、前記ギフトの装着部位と、同一の部位である、
請求項1乃至3のいずれか一項に記載のコンピュータプログラム。
The part where the predetermined facial expression is activated is the same part as the part where the gift is attached.
A computer program according to any one of claims 1 to 3.
前記所定の表情が発動する部位は、前記ギフトの装着部位と、異なる部位である、
請求項1乃至3のいずれか一項に記載のコンピュータプログラム。
The part where the predetermined facial expression is activated is a part different from the part where the gift is attached.
A computer program according to any one of claims 1 to 3.
前記所定の条件は、前記アバターに係る位置と、前記ギフトに係る位置と、が所定距離の範囲内に入ることを含む、
請求項1乃至5のいずれか一項に記載のコンピュータプログラム。
The predetermined condition includes that a position related to the avatar and a position related to the gift are within a predetermined distance.
A computer program according to any one of claims 1 to 5.
前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダー、のいずれかである、
請求項6に記載のコンピュータプログラム。
The position related to the avatar is either a position of the avatar in a virtual space, a part that activates the predetermined facial expression, a predetermined part of the avatar, or a collider of the avatar.
The computer program according to claim 6.
前記所定の条件は、アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いる、
請求項1乃至7のいずれか1項に記載のコンピュータプログラム。
The predetermined condition uses a type to which the avatar belongs, which is one of a plurality of types to which the avatar belongs;
A computer program according to any one of claims 1 to 7.
前記所定の表情は、前記ギフトが表示されている方向に連動して変化する、
請求項1乃至8のいずれか1項に記載のコンピュータプログラム。
the predetermined facial expression changes in conjunction with the direction in which the gift is displayed;
A computer program according to any one of claims 1 to 8.
前記所定の表情又はポーズとするための情報は、前記配信者に係る端末から前記アバターを操作する情報を取得せずに、生成される、
請求項1乃至9のいずれか1項に記載のコンピュータプログラム。
The information for making the predetermined facial expression or pose is generated without acquiring information for operating the avatar from a terminal related to the distributor,
A computer program according to any one of claims 1 to 9.
前記ギフトに係る情報は、ギフトの種類を含み、
前記ギフトの種類に応じた所定の発動部位に係る所定の表情又はポーズとするための情報を生成する、
請求項1乃至10のいずれか1項に記載のコンピュータプログラム。
The information related to the gift includes the type of gift,
generating information for a predetermined facial expression or pose related to a predetermined activation part according to the type of gift;
A computer program according to any one of claims 1 to 10.
前記所定の条件は、確率を利用した条件である、
請求項1乃至11のいずれか1項に記載のコンピュータプログラム。
The predetermined condition is a condition using probability;
A computer program according to any one of claims 1 to 11.
前記所定の条件は、前記ギフトに係る情報、及び、前記アバターの動作、の両方を利用した条件である、
請求項1乃至12のいずれか1項に記載のコンピュータプログラム。
The predetermined condition is a condition that uses both information related to the gift and the behavior of the avatar.
A computer program according to any one of claims 1 to 12.
前記所定の条件は、前記ギフトに係る情報、及び、前記アバターに係る状況、の両方を利用した条件である、
請求項1乃至13のいずれか1項に記載のコンピュータプログラム。
The predetermined condition is a condition that uses both information related to the gift and the situation related to the avatar.
A computer program according to any one of claims 1 to 13.
前記所定の条件は、前記ギフトに係る情報を取得した時間順に適用される、
請求項1乃至14のいずれか1項に記載のコンピュータプログラム。
The predetermined condition is applied in the chronological order in which the information regarding the gift is acquired.
A computer program according to any one of claims 1 to 14.
前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項1乃至15のいずれか1項に記載のコンピュータプログラム。
the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU);
A computer program according to any one of claims 1 to 15.
前記プロセッサが、演算機能を有する、
請求項1乃至16のいずれか1項に記載のコンピュータプログラム。
the processor has an arithmetic function;
A computer program according to any one of claims 1 to 16.
一又は複数のプロセッサを具備し、
前記一又は複数のプロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、
前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、
前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
次のギフトに係る情報を取得し、前記ギフトに係る情報及び前記次のギフトに係る情報に含まれる時間に係る情報を用いて、前記ギフトに係る所定の表情又はポーズを継続して設定し、
前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、又は、前記ギフトの表示終了の情報、の少なくとも一つを含み、
前記所定の条件は、前記ギフトに係る情報に含まれるギフトの表示に係るタイミングを用いる、
ことを特徴とするサーバ装置。
comprising one or more processors,
the one or more processors executing computer readable instructions,
Obtain information related to object gifts provided by viewers to broadcasters,
Determining whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift,
When it is determined that the information related to the acquired gift satisfies the predetermined condition, the expression or pose of the avatar related to the distributor that has been generated based on the expression or pose related to the distributor is changed to the predetermined condition. generate information for a predetermined facial expression or pose that corresponds to the conditions;
acquiring information related to the next gift, and continuously setting a predetermined facial expression or pose related to the gift using the information related to the gift and the information related to the time included in the information related to the next gift;
The information related to the gift includes at least one of information on the start of display of the gift, information on change in display of the gift, or information on end of display of the gift,
The predetermined condition uses timing related to the display of the gift included in the information related to the gift,
A server device characterized by:
前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、及び、前記ギフトの表示終了の情報、含む、
請求項18に記載のサーバ装置。
The information related to the gift includes information on the start of display of the gift, information on change in display of the gift, and information on end of display of the gift.
The server device according to claim 18.
前記所定の条件は、前記ギフトに係る優先度を用いており、
前記ギフトに係る優先度は、前記ギフトの提供者の特定の地位に係る情報、が用いられる、
請求項18又は19に記載のサーバ装置。
The predetermined condition uses the priority related to the gift,
The priority related to the gift uses information related to a specific status of the gift provider,
The server device according to claim 18 or 19.
前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項18乃至20のいずれか1項に記載のサーバ装置。
the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU);
The server device according to any one of claims 18 to 20.
前記プロセッサが、演算機能を有する、
請求項18乃至21のいずれか1項に記載のサーバ装置。
the processor has an arithmetic function;
The server device according to any one of claims 18 to 21.
コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
前記プロセッサが、前記命令を実行することにより、
視聴者から配信者に対して提供されるオブジェクトのギフトに係る情報を取得し、
前記取得したギフトに係る情報が前記ギフトに係る情報を用いた所定の条件を充足するか否かを判定し、
前記取得したギフトに係る情報が前記所定の条件を充足すると判定された場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
次のギフトに係る情報を取得し、前記ギフトに係る情報及び前記次のギフトに係る情報に含まれる時間に係る情報を用いて、前記ギフトに係る所定の表情又はポーズを継続して設定し、
前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、又は、前記ギフトの表示終了の情報、の少なくとも一つを含み、
前記所定の条件は、前記ギフトに係る情報に含まれるギフトの表示に係るタイミングを用いる、
ことを特徴とする方法。
A method performed by one or more processors executing computer readable instructions, the method comprising:
By the processor executing the instructions,
Obtain information related to object gifts provided by viewers to broadcasters,
Determining whether the information related to the acquired gift satisfies a predetermined condition using the information related to the gift,
When it is determined that the information related to the acquired gift satisfies the predetermined condition, the expression or pose of the avatar related to the distributor that has been generated based on the expression or pose related to the distributor is changed to the predetermined condition. generate information for a predetermined facial expression or pose that corresponds to the conditions;
acquiring information related to the next gift, and continuously setting a predetermined facial expression or pose related to the gift using the information related to the gift and the information related to the time included in the information related to the next gift;
The information related to the gift includes at least one of information on the start of display of the gift, information on change in display of the gift, or information on end of display of the gift,
The predetermined condition uses timing related to the display of the gift included in the information related to the gift,
A method characterized by:
前記ギフトに係る情報は、前記ギフトの表示開始の情報、前記ギフトの表示変化の情報、及び、前記ギフトの表示終了の情報、含む、
請求項23に記載の方法。
The information related to the gift includes information on the start of display of the gift, information on change in display of the gift, and information on end of display of the gift.
24. The method according to claim 23.
前記所定の条件は、前記ギフトに係る優先度を用いており、
前記ギフトに係る優先度は、前記ギフトの提供者の特定の地位に係る情報、が用いられる、
請求項23又は24に記載の方法。
The predetermined condition uses the priority related to the gift,
The priority related to the gift uses information related to a specific status of the gift provider,
25. The method according to claim 23 or 24.
前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、
請求項23乃至25のいずれか一項に記載の方法。
the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU);
26. A method according to any one of claims 23 to 25.
前記プロセッサが、演算機能を有する、
請求項23乃至26のいずれか1項に記載の方法。
the processor has an arithmetic function;
27. A method according to any one of claims 23 to 26.
JP2020072287A 2020-04-14 2020-04-14 Computer program, server device, terminal device, and method Active JP7398655B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020072287A JP7398655B2 (en) 2020-04-14 2020-04-14 Computer program, server device, terminal device, and method
PCT/JP2021/015347 WO2021210585A1 (en) 2020-04-14 2021-04-13 Computer program, server device, terminal device, and method
JP2021208607A JP7509436B2 (en) 2020-04-14 2021-12-22 Computer program, server device, terminal device, and method
US17/956,873 US20230023653A1 (en) 2020-04-14 2022-09-30 Computer program, server, terminal, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020072287A JP7398655B2 (en) 2020-04-14 2020-04-14 Computer program, server device, terminal device, and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021208607A Division JP7509436B2 (en) 2020-04-14 2021-12-22 Computer program, server device, terminal device, and method

Publications (2)

Publication Number Publication Date
JP2021170168A JP2021170168A (en) 2021-10-28
JP7398655B2 true JP7398655B2 (en) 2023-12-15

Family

ID=78119615

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020072287A Active JP7398655B2 (en) 2020-04-14 2020-04-14 Computer program, server device, terminal device, and method
JP2021208607A Active JP7509436B2 (en) 2020-04-14 2021-12-22 Computer program, server device, terminal device, and method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021208607A Active JP7509436B2 (en) 2020-04-14 2021-12-22 Computer program, server device, terminal device, and method

Country Status (1)

Country Link
JP (2) JP7398655B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7204984B1 (en) 2022-06-29 2023-01-16 カバー株式会社 program, method, information processing device
JP7527700B1 (en) 2024-05-13 2024-08-05 株式会社Kazaori Support equipment for artists' activities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986192A (en) 2018-07-26 2018-12-11 北京运多多网络科技有限公司 Data processing method and device for live streaming
JP2020017244A (en) 2018-07-25 2020-01-30 株式会社バーチャルキャスト Server, method, program, and dynamic image broadcasting system
JP6644928B1 (en) 2019-03-29 2020-02-12 株式会社ドワンゴ Distribution server, viewer terminal, distributor terminal, distribution method, information processing method and program
JP2020057207A (en) 2018-10-02 2020-04-09 株式会社スクウェア・エニックス Drawing program, recording medium, drawing control device, and drawing control method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6668549B1 (en) 2019-09-25 2020-03-18 グリー株式会社 Information processing system, information processing method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017244A (en) 2018-07-25 2020-01-30 株式会社バーチャルキャスト Server, method, program, and dynamic image broadcasting system
CN108986192A (en) 2018-07-26 2018-12-11 北京运多多网络科技有限公司 Data processing method and device for live streaming
JP2020057207A (en) 2018-10-02 2020-04-09 株式会社スクウェア・エニックス Drawing program, recording medium, drawing control device, and drawing control method
JP6644928B1 (en) 2019-03-29 2020-02-12 株式会社ドワンゴ Distribution server, viewer terminal, distributor terminal, distribution method, information processing method and program

Also Published As

Publication number Publication date
JP7509436B2 (en) 2024-07-02
JP2022050452A (en) 2022-03-30
JP2021170168A (en) 2021-10-28

Similar Documents

Publication Publication Date Title
US10275121B1 (en) Systems and methods for customized avatar distribution
JP6646620B2 (en) Wide-ranging simultaneous remote digital presentation world
WO2019234879A1 (en) Information processing system, information processing method and computer program
WO2019154339A1 (en) Method and device for generating special effect program file package, method and device for generating special effect, and electronic device
JP7080212B2 (en) Computer programs, server devices and methods
JP7509436B2 (en) Computer program, server device, terminal device, and method
JP7479618B2 (en) Information processing program, information processing method, and information processing device
JP7366821B2 (en) Video display program
JP2024063117A (en) Computer program, server apparatus, terminal device, and method
US20230023653A1 (en) Computer program, server, terminal, and method
JP7329217B2 (en) Computer program, server device, terminal device, and method
US20240257409A1 (en) Computer program, server device, terminal device, and method for moving gift in virtual space
JP7240355B2 (en) Information processing program and information processing method
JP7560835B2 (en) Program and information processing method
US12039673B2 (en) Augmented reality artificial intelligence enhance ways user perceive themselves
JP2023038207A (en) Video distribution system, video distribution method, video distribution program, and server
JP7356662B2 (en) computer program and method
US20210158589A1 (en) Animating body language for avatars
US12148102B2 (en) Dynamic augmentation of stimuli based on profile of user
US11986731B2 (en) Dynamic adjustment of in-game theme presentation based on context of game activity
US20240066413A1 (en) Ai streamer with feedback to ai streamer based on spectators
US20230063681A1 (en) Dynamic augmentation of stimuli based on profile of user
JP7418709B2 (en) Computer programs, methods and server devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7398655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150