[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020043578A - Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor - Google Patents

Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor Download PDF

Info

Publication number
JP2020043578A
JP2020043578A JP2019203861A JP2019203861A JP2020043578A JP 2020043578 A JP2020043578 A JP 2020043578A JP 2019203861 A JP2019203861 A JP 2019203861A JP 2019203861 A JP2019203861 A JP 2019203861A JP 2020043578 A JP2020043578 A JP 2020043578A
Authority
JP
Japan
Prior art keywords
moving image
display
displayed
decoration
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019203861A
Other languages
Japanese (ja)
Inventor
匡志 渡邊
Masashi Watanabe
匡志 渡邊
健悟 栗田
Kengo Kurita
健悟 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019203861A priority Critical patent/JP2020043578A/en
Publication of JP2020043578A publication Critical patent/JP2020043578A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a moving image distribution system for distributing a moving image including an animation of a character object generated on the basis of a movement of an actor.SOLUTION: The moving image distribution system for distributing a moving image including an animation of a character object generated on the basis of a movement of an actor, includes one or more computer processors. The one or more computer processors execute computer readable instructions to display a decorative object on the moving image on the basis of a first display request from a viewing user viewing the moving image and display the first object on the moving image on the basis of a second display request from the viewing user.SELECTED DRAWING: Figure 1

Description

本明細書における開示は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラムに関する。   The present disclosure relates to a moving image distribution system, a moving image distribution method, and a moving image distribution program that distribute a moving image including an animation of a character object generated based on the movement of an actor.

従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015−184689号公報(特許文献1)に開示されている。   2. Description of the Related Art A moving image distribution system that generates an animation of a character object based on the movement of an actor and distributes a moving image including the animation of the character object has been known. Such a moving image distribution system is disclosed, for example, in Japanese Patent Application Laid-Open No. 2015-184689 (Patent Document 1).

コンテンツを視聴する視聴ユーザからの要求に応じて、当該視聴ユーザが購入したアイテムに対応するギフトオブジェクトを表示画面に表示させるコンテンツ配信システムも知られている。例えば、特開2012−120098号公報(特許文献2)に開示されている動画配信システムでは、視聴ユーザは、ギフトアイテムを購入し、この購入したギフトアイテムをパフォーマー(コンテンツ配信者)に対してギフトとして提供することができる。同公報では、ギフトオブジェクトは、動画と干渉しないように配信画面の背景領域に表示されることが望ましいとされている。   There is also known a content distribution system that displays a gift object corresponding to an item purchased by a viewing user on a display screen in response to a request from a viewing user viewing the content. For example, in the moving image distribution system disclosed in Japanese Patent Application Laid-Open No. 2012-120098 (Patent Document 2), a viewing user purchases a gift item and gives the purchased gift item to a performer (content distributor). Can be provided as According to the publication, it is desirable that the gift object be displayed in the background area of the distribution screen so as not to interfere with the moving image.

特開2015−184689号公報JP 2015-184689 A 特開2012−120098号公報JP 2012-120098 A

ギフトオブジェクトを動画と重複して表示すると、視聴ユーザの視聴体験の劣化につながるおそれがある。例えば、動画の主要部分がギフトオブジェクトで隠されると、視聴者が動画の視聴を妨げられたと感じるおそれがある。特に、動画と重複して大量のギフトオブジェクトが表示されると、かかる問題は深刻化するおそれがある。このため、上記特許文献2では、ギフトオブジェクトは、動画が表示されるコンテンツ表示領域には表示されず、コンテンツ表示領域外の背景領域に表示されている。   Displaying the gift object overlapping with the moving image may lead to a deterioration in the viewing experience of the viewing user. For example, if the main part of the moving image is hidden by the gift object, the viewer may feel obstructed from watching the moving image. In particular, if a large number of gift objects are displayed overlapping with the moving image, such a problem may be exacerbated. Therefore, in Patent Literature 2, the gift object is not displayed in the content display area where the moving image is displayed, but is displayed in the background area outside the content display area.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、視聴ユーザの視聴体験を劣化させることなく、ギフトオブジェクトを動画と重複して表示できる動画配信システム、動画配信方法及び動画配信プログラムを提供することである。   It is an object of the present disclosure to provide a technical improvement that solves or alleviates at least some of the problems of the prior art described above. One of more specific objects of the present disclosure is to provide a moving image distribution system, a moving image distribution method, and a moving image distribution program that can display a gift object overlapping a moving image without deteriorating the viewing experience of the viewing user. is there.

一態様による動画配信システムは、一態様による動画配信システムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、一又は複数のコンピュータプロセッサを備え、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させ、前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる。   A video distribution system according to an aspect is a video distribution system that distributes a video including an animation of a character object generated based on the movement of an actor, and includes one or a plurality of computer processors. The one or more computer processors execute a computer-readable instruction to display the decorative object in the moving image based on a first display request from a viewing user viewing the moving image, The first object is displayed on the moving image based on a second display request from the user.

一態様において、前記第1オブジェクトは、前記キャラクタオブジェクトと接しないように前記動画に表示される通常オブジェクトである。   In one aspect, the first object is a normal object displayed on the moving image so as not to contact the character object.

一態様において、前記装飾オブジェクトは、前記キャラクタオブジェクトの特定の部位と関連付けられて前記動画に表示される一方で、前記第1オブジェクトは前記キャラクタオブジェクトの特定の部位と関連付けられない。   In one aspect, the decorative object is displayed in the moving image in association with a specific part of the character object, while the first object is not associated with a specific part of the character object.

一態様において、前記装飾オブジェクトは、前記キャラクタオブジェクトに関連付けられて当該キャラクタオブジェクトの動作に合わせて移動して表示される一方で、前記第1オブジェクトは指定された表示位置に表示される。   In one aspect, the decorative object is associated with the character object and moved and displayed according to the motion of the character object, while the first object is displayed at a specified display position.

一態様において、前記装飾オブジェクトの選択は、前記動画の配信をサポートするサポーターによってなされる。   In one aspect, the selection of the decorative object is made by a supporter supporting distribution of the moving image.

一態様において、前記装飾オブジェクトの選択は、前記動画の配信をサポートするサポーターによってなされる。   In one aspect, the selection of the decorative object is made by a supporter supporting distribution of the moving image.

一態様において、前記装飾オブジェクトの選択は、前記アクターによってなされる。   In one aspect, the selection of the decorative object is made by the actor.

一態様において、前記一又は複数のコンピュータプロセッサは、前記動画を視聴する視聴ユーザから前記装飾オブジェクトとは異なる第1オブジェクトの表示を要求する第2表示要求を受け付けたことに応じて、前記動画に前記第1オブジェクトを表示させる。   In one aspect, the one or more computer processors respond to a second display request for requesting display of a first object different from the decorative object from a viewing user viewing the moving image, and The first object is displayed.

一態様において、前記第1オブジェクトは、前記キャラクタオブジェクトと接しないように前記動画に表示される。   In one aspect, the first object is displayed on the moving image so as not to contact the character object.

一態様において、前記第2表示要求には、前記第1オブジェクトの表示位置を指定する表示位置指定パラメータが含まれており、前記第1オブジェクトは、前記動画において、前記表示位置指定パラメータによって指定された位置に表示される。   In one aspect, the second display request includes a display position specification parameter that specifies a display position of the first object, and the first object is specified by the display position specification parameter in the moving image. Will be displayed at the position

一態様において、前記第2表示要求には、前記第1オブジェクトの移動方向を指定する移動方向パラメータが含まれており、前記第1オブジェクトは、前記動画において、前記移動方向パラメータによって指定された方向に移動するように表示される。   In one aspect, the second display request includes a moving direction parameter that specifies a moving direction of the first object, and the first object includes, in the moving image, a direction specified by the moving direction parameter. It is displayed to move to.

一態様において、前記第2表示要求には、前記第1オブジェクトの軌道を指定する軌道パラメータが含まれており、前記第1オブジェクトは、前記動画において、前記軌道パラメータによって指定された軌道上を移動するように表示される。   In one aspect, the second display request includes a trajectory parameter specifying a trajectory of the first object, and the first object moves on a trajectory specified by the trajectory parameter in the moving image. Will be displayed.

一態様において、前記動画の配信期間内にオブジェクト表示禁止期間が設定され、
前記第1オブジェクト及び前記装飾オブジェクトは、前記動画の配信期間における前記オブジェクト表示禁止期間以外のタイミングで前記動画に表示される。
In one aspect, an object display prohibition period is set within the distribution period of the moving image,
The first object and the decoration object are displayed on the moving image at a timing other than the object display prohibition period during the distribution period of the moving image.

一態様において、前記オブジェクト表示禁止期間に前記第2表示要求が受け付けられた場合には、前記第1オブジェクトは、前記オブジェクト表示禁止期間の経過後に前記動画に表示される。   In one aspect, when the second display request is received during the object display prohibition period, the first object is displayed on the moving image after the elapse of the object display prohibition period.

一態様において、前記一又は複数のコンピュータプロセッサは、前記視聴ユーザから前記装飾オブジェクトを購入する購入要求を受け付け、前記購入要求に応じて決済処理を行い、前記装飾オブジェクトが前記動画の配信終了時までに選択されなかった場合、前記決済処理を取り消す。   In one aspect, the one or more computer processors receive a purchase request to purchase the decorative object from the viewing user, perform a payment process in accordance with the purchase request, and the decorative object is processed until the end of the distribution of the moving image. If not selected, the payment processing is canceled.

一態様において、前記一又は複数のコンピュータプロセッサは、前記視聴ユーザから前記装飾オブジェクトを購入する購入要求を受け付け、前記購入要求に応じて決済処理を行い、前記装飾オブジェクトが前記動画の配信終了時までに選択されなかった場合、前記視聴ユーザにポイントを付与する。   In one aspect, the one or more computer processors receive a purchase request to purchase the decorative object from the viewing user, perform a payment process in accordance with the purchase request, and the decorative object is processed until the end of the distribution of the moving image. Is not selected, points are given to the viewing user.

一態様において、前記一又は複数のコンピュータプロセッサは、前記視聴ユーザから前記装飾オブジェクトを購入する購入要求を受け付け、前記購入要求に応じて前記視聴ユーザが保有するオブジェクトのリストである保有リストに前記装飾オブジェクトを追加し、前記視聴ユーザから前記装飾オブジェクトの表示を要求する前記第1表示要求を受け付けたことに応じて、前記保有リストから前記装飾オブジェクトを削除し、前記装飾オブジェクトが前記動画の配信終了時までに選択されなかった場合に、前記保有リストへ前記装飾オブジェクトを追加する。   In one aspect, the one or more computer processors receive a purchase request to purchase the decorative object from the viewing user, and display the decoration in a holding list that is a list of objects held by the viewing user in response to the purchase request. Adding an object, deleting the decorative object from the holding list in response to receiving the first display request for displaying the decorative object from the viewing user, and terminating the distribution of the moving image. If not selected by time, add the decorative object to the holding list.

一態様において、前記一又は複数のコンピュータプロセッサは、前記動画に関連して購入可能なギフトオブジェクトを購入するための購入情報を前記視聴ユーザに提供し、前記ギフトオブジェクトは、前記装飾オブジェクトを含み、前記ギフトオブジェクトは、前記動画においてのみ購入可能な固有ギフトオブジェクトと、前記動画以外の動画においても購入可能な共通ギフトオブジェクトと、を含む。   In one aspect, the one or more computer processors provide the viewing user with purchase information for purchasing a purchasable gift object in association with the video, wherein the gift object includes the decorative object; The gift object includes a unique gift object that can be purchased only in the video and a common gift object that can be purchased in a video other than the video.

一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信方法に関する。前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれている。当該動画配信方法は、前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させる工程と、前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる工程と、を備える。   One embodiment relates to a moving image distribution method that distributes a moving image including a character object animation and a gift object generated based on the movement of an actor by executing computer-readable instructions by one or more computer processors. The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object. The moving image distribution method includes a step of displaying the decoration object in the moving image based on a first display request from a viewing user who views the moving image, and a step of displaying the first object based on a second display request from the viewing user. Is displayed on the moving image.

一態様は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信プログラムに関する。前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれている。当該配信プログラムは、前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させる工程と、前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる工程と、を実行させる。   One aspect relates to a moving image distribution program that distributes a moving image including a character object animation and a gift object generated based on the movement of an actor. The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object. The distribution program displays the decoration object in the moving image based on a first display request from a viewing user who views the moving image, and displays the first object based on a second display request from the viewing user. And displaying the moving image.

本発明の実施形態によれば、視聴ユーザの視聴体験を劣化させることなく、ギフトオブジェクトを動画と重複して表示できる。   According to the embodiment of the present invention, the gift object can be displayed overlapping with the moving image without deteriorating the viewing experience of the viewing user.

一実施形態による動画配信システムを示すブロック図である。FIG. 1 is a block diagram illustrating a moving image distribution system according to an embodiment. 図1の動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図である。FIG. 2 is a schematic diagram schematically showing facilities of a studio for producing a moving image distributed by the moving image distribution system of FIG. 1. 図1の動画配信システムにおいて記憶される保有リストを説明する図である。FIG. 2 is a diagram illustrating a holding list stored in the moving image distribution system of FIG. 1. 図1の動画配信システムにおいて記憶される候補リストを説明する図である。FIG. 2 is a diagram illustrating a candidate list stored in the moving image distribution system of FIG. 1. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図5には、キャラクタオブジェクトのアニメーションが含まれている。FIG. 6 is a diagram illustrating an example of a moving image displayed on the client device 10a in one embodiment. FIG. 5 includes an animation of the character object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図6には、通常オブジェクトが含まれている。FIG. 6 is a diagram illustrating an example of a moving image displayed on the client device 10a in one embodiment. FIG. 6 includes a normal object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図7には、装飾オブジェクトが含まれている。FIG. 6 is a diagram illustrating an example of a moving image displayed on the client device 10a in one embodiment. FIG. 7 includes a decorative object. 候補リストに含まれている装飾オブジェクトの中から所望の選択装飾オブジェクトを選択するための装飾オブジェクト選択画面の例を示す模式図である。It is a schematic diagram which shows the example of the decoration object selection screen for selecting the desired selection decoration object from the decoration objects contained in the candidate list. 一実施形態における動画配信処理の流れを示すフロー図である。It is a flowchart which shows the flow of a moving image distribution process in one Embodiment. 一実施形態において通常オブジェクトを表示する処理の流れを示すフロー図である。FIG. 7 is a flowchart illustrating a flow of a process of displaying a normal object in one embodiment. 一実施形態において装飾オブジェクトを表示する処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process which displays a decoration object in one Embodiment. 図1の動画配信システムにおいて配信される動画に設定されたオブジェクト表示禁止期間を説明するための図である。FIG. 2 is a diagram for explaining an object display prohibition period set for a moving image distributed in the moving image distribution system of FIG. 1.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。   Hereinafter, various embodiments of the present invention will be described with reference to the drawings as appropriate. The same reference numerals are given to the same or similar components in a plurality of drawings.

図1から図4を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図3及び図4は、動画配信システム1において記憶される情報を説明するための図である。   A moving image distribution system according to an embodiment will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a moving image distribution system 1 according to an embodiment, and FIG. 2 is a schematic diagram schematically illustrating facilities of a studio in which a moving image distributed by the moving image distribution system 1 is produced. FIGS. 3 and 4 are diagrams for explaining information stored in the moving image distribution system 1. FIG.

動画配信システム1は、クライアント装置10a〜10cと、サーバ装置20と、スタジオユニット30と、ストレージ60と、を備える。クライアント装置10a〜10cと、サーバ装置20と、ストレージ60とは、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置20は、後述するように、キャラクタのアニメーションを含む動画を配信するように構成される。この動画に含まれるキャラクタは、仮想空間内でモーション制御されてもよい。   The moving image distribution system 1 includes client devices 10a to 10c, a server device 20, a studio unit 30, and a storage 60. The client devices 10a to 10c, the server device 20, and the storage 60 are communicably connected to each other via a network 50. The server device 20 is configured to distribute a moving image including a character animation, as described later. The character included in this moving image may be motion-controlled in the virtual space.

この動画は、サーバ装置20からクライアント装置10a〜10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を、各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。   This moving image can be distributed from the server device 20 to each of the client devices 10a to 10c. A first viewing user who is a user of the client device 10a, a second viewing user who is a user of the client device 10b, and a third viewing user who is a user of the client device 10c view the distributed moving image with each client device. be able to. The moving image distribution system 1 may include less than three client devices, or may include more than three client devices.

クライアント装置10a〜10cは、スマートフォンなどの情報処理装置である。クライアント装置10a〜10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a〜10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。   The client devices 10a to 10c are information processing devices such as smartphones. The client devices 10a to 10c may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, and various other information processing devices capable of reproducing moving images in addition to a smartphone. Each of the client devices 10a to 10c includes a computer processor, a memory, a communication I / F, a display, a sensor unit including various sensors such as a gyro sensor, a microphone and other sound collecting devices, and a storage for storing various information. Is also good.

図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。   In the illustrated embodiment, the server device 20 includes a computer processor 21, a communication I / F 22, and a storage 23.

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。   The computer processor 21 is an arithmetic device that loads an operating system and various programs for realizing various functions from a storage 23 or another storage into a memory, and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, various arithmetic devices other than these, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as an ASIC, a PLD, an FPGA, and an MCU. Although the computer processor 21 is illustrated as a single component in FIG. 1, the computer processor 21 may be a set of a plurality of physically separate computer processors. In the present specification, a program described as being executed by the computer processor 21 or instructions included in the program may be executed by a single computer processor, or may be executed in a distributed manner by a plurality of computer processors. Is also good. Further, the program executed by the computer processor 21 or the instructions included in the program may be executed by a plurality of virtual computer processors.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。   The communication I / F 22 is implemented as hardware, firmware, communication software such as a TCP / IP driver or a PPP driver, or a combination thereof. The server device 20 can transmit and receive data to and from another device via the communication I / F 22.

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。   The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. Various programs can be stored in the storage 23. At least a part of the programs and various data that can be stored in the storage 23 may be stored in a storage physically separate from the server device 20 (for example, the storage 60).

スタジオユニット30の構成要素の多くは、例えば、図2に示されているスタジオルームRに配されている。図示のように、スタジオルームRにおいては、アクターA1及びアクターA2がパフォーマンスを行っている。スタジオユニット30は、アクターA1及びアクターA2の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。   Many of the components of the studio unit 30 are arranged, for example, in the studio room R shown in FIG. As illustrated, in the studio room R, actors A1 and A2 are performing. The studio unit 30 is configured to detect the movement and expression of the actors A1 and A2 and output the detected information to the server device 20.

アクターA1及びアクターA2はいずれも、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。アクターA1及びアクターA2は、例えば、パフォーマンスを行う人間、動物、または運動する物体である。アクターA1及びアクターA2は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。   Each of the actors A1 and A2 is a target whose movement and expression are captured by a sensor group described later provided in the studio unit 30. The actors A1 and A2 are, for example, humans, animals, or moving objects performing performances. The actors A1 and A2 may be, for example, robots capable of independent movement. The number of actors in the studio room R may be one, or may be three or more.

スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a〜31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、を有する。スタジオユニット30はまた、アクターA2に装着される6つのモーションセンサ32a〜32fと、アクターA2の左手に把持されているコントローラ34aと、アクターA2の右手に把持されているコントローラ34bと、装着具38bを介してアクターA2の頭部に取り付けられるカメラ38aと、を有する。装着具37b及び装着具38bの各々には、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1及びアクターA2の発話を音声データとして取得することができる。マイクは、装着具37b及び装着具38bを介してアクターA1及びアクターA2に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、トラッキングセンサ36aと、トラッキングセンサ36bと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。   The studio unit 30 includes six motion sensors 31a to 31f mounted on the actor A1, a controller 33a held on the left hand of the actor A1, a controller 33b held on the right hand of the actor A1, and a mounting tool 37b. And a camera 37a attached to the head of the actor A1 via the camera 37a. The studio unit 30 also includes six motion sensors 32a to 32f mounted on the actor A2, a controller 34a held on the left hand of the actor A2, a controller 34b held on the right hand of the actor A2, and a mounting tool 38b. And a camera 38a attached to the head of the actor A2 via the camera 38a. A microphone for acquiring audio data may be attached to each of the mounting tool 37b and the mounting tool 38b. This microphone can acquire the utterances of the actors A1 and A2 as audio data. The microphone may be a mounted microphone that is mounted on the actor A1 and the actor A2 via the mounting device 37b and the mounting device 38b, and may be a mounted microphone that is installed on the floor, wall, or ceiling of the studio room R. It may be. The studio unit 30 has a base station 35a, a base station 35b, a tracking sensor 36a, a tracking sensor 36b, and a display 39, in addition to the above components. A supporter computer 40 is installed in an adjacent room separated by a glass window from the studio room R. The server device 20 may be installed in the same room where the supporter computer 40 is installed.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサーを複数備えてもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサーでの受光時間、各光センサーが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出してもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。   The motion sensors 31a to 31f and the motion sensors 32a to 32f detect their positions and orientations in cooperation with the base stations 35a and 35b. In one embodiment, base station 35a and base station 35b are multi-axis laser emitters. After emitting the flashing light for synchronization, the base station 35a scans the laser light, for example, around the vertical axis. The base station 35b scans the laser light, for example, around a horizontal axis. Each of the motion sensors 31a to 31f and the motion sensors 32a to 32f may include a plurality of optical sensors for detecting the incidence of blinking light and laser light from the base station 35a and the base station 35b, respectively. The motion sensors 31a to 31f and the motion sensors 32a to 32f respectively include a time difference between the timing of the flashing light and the timing of the laser light, the light receiving time at each optical sensor, the incident angle of the laser light detected by each optical sensor, and If necessary, the own position and orientation may be detected based on other information. The motion sensors 31a to 31f and the motion sensors 32a to 32f may be, for example, a Vive Tracker provided by HTC CORPORATION. The base station 35a and the base station 35b may be, for example, base stations provided by HTC CORPORATION.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々において算出された各モーションセンサの位置及び向きを示す検出情報は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサの検出情報は、当該インターバルごとに更新される。   The detection information indicating the position and the direction of each motion sensor calculated by each of the motion sensors 31a to 31f and the motion sensors 32a to 32f is transmitted to the server device 20. This detection information may be wirelessly transmitted to the server device 20 from each of the motion sensors 31a to 31f and the motion sensors 32a to 32f. Since the base station 35a and the base station 35b emit the blinking light and scan the laser light at fixed intervals, the detection information of each motion sensor is updated at each interval.

図示の実施形態において、アクターA1は、6つのモーションセンサ31a〜31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手首、右手首、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a〜31fは、装着具を介してアクターA1に装着されてもよい。アクターA2は、6つのモーションセンサ32a〜32fを装着している。モーションセンサ32a〜32fは、アクターA2に対してモーションセンサ31a〜31fと同様の位置に装着され得る。図2に示されているモーションセンサ31a〜31f及びモーションセンサ32a〜32fは例示である。モーションセンサ31a〜31fは、アクターA1の様々な部位に装着され得るし、モーションセンサ32a〜32fは、アクターA2の様々な部位に装着され得る。アクターA1及びアクターA2に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1及びアクターA2の体の各部に装着されたモーションセンサ31a〜31f及びモーションセンサ32a〜32fの位置及び向きを検出することにより、アクターA1及びアクターA2の体の動きを検出することができる。   In the illustrated embodiment, the actor A1 is equipped with six motion sensors 31a to 31f. The motion sensors 31a, 31b, 31c, 31d, 31e, and 31f are respectively mounted on the left wrist, the right wrist, the left instep, the right instep, the waist, and the top of the actor A1. The motion sensors 31a to 31f may be mounted on the actor A1 via a mounting tool. Actor A2 is equipped with six motion sensors 32a to 32f. The motion sensors 32a to 32f can be attached to the actor A2 at the same positions as the motion sensors 31a to 31f. The motion sensors 31a to 31f and the motion sensors 32a to 32f shown in FIG. 2 are examples. The motion sensors 31a to 31f can be mounted on various parts of the actor A1, and the motion sensors 32a to 32f can be mounted on various parts of the actor A2. The number of motion sensors attached to the actors A1 and A2 may be 5 or less, or 7 or more. Thus, by detecting the positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f attached to each part of the body of the actor A1 and the actor A2, the movement of the body of the actor A1 and the actor A2 is detected. be able to.

一実施形態においては、アクターA1及びアクターA2に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。   In one embodiment, a large number of infrared LEDs are mounted on each of a plurality of motion sensors attached to the actor A1 and the actor A2, and light from the infrared LEDs is provided on the floor or wall of the studio room R. The position and the direction of each of the motion sensors may be detected by detecting with the infrared camera. A position and orientation of each motion sensor may be detected by using a visible light LED instead of the infrared LED and detecting light from the visible light LED with a visible light camera. As described above, a light emitting unit (for example, an infrared LED or a visible light LED) is provided in each of the plurality of motion sensors mounted on the actor, and light from the light emitting unit is received by the light receiving unit ( For example, the position and the direction of each of the motion sensors may be detected by detecting with an infrared camera or a visible light camera).

一実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1及びアクターA2の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1及びアクターA2を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。   In one embodiment, a plurality of reflective markers can be used instead of the motion sensors 31a to 31f and the motion sensors 32a to 32f. The reflection marker is attached to each of the actors A1 and A2 with an adhesive tape or the like. By photographing the actor A1 and the actor A2 to which the reflection marker is attached as described above to generate photographing data, and performing image processing on the photographing data, the position and the direction of the reflection marker can be detected.

コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。同様に、コントローラ34a及びコントローラ34bは、アクターA2の操作に応じたコントロール信号をサーバ装置20に出力する。   The controller 33a and the controller 33b output a control signal corresponding to the operation of the actor A1 to the server device 20. Similarly, the controller 34a and the controller 34b output a control signal corresponding to the operation of the actor A2 to the server device 20.

トラッキングセンサ36a及びトラッキングセンサ36bは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。トラッキングセンサ36a及びトラッキングセンサ36bのトラッキング情報は、各々の三次元直交座標系での位置および各軸回りの角度として算出される。トラッキングセンサ36aの位置および向きは、操作者の操作に応じて変更されえる。トラッキングセンサ36aは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。同様に、トラッキングセンサ36bの位置および向きは、操作者の操作に応じて設定される。トラッキングセンサ36bは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。   The tracking sensor 36a and the tracking sensor 36b generate tracking information for determining setting information of a virtual camera for constructing a virtual space included in a moving image. The tracking information of the tracking sensor 36a and the tracking sensor 36b is calculated as a position in each three-dimensional orthogonal coordinate system and an angle around each axis. The position and orientation of the tracking sensor 36a can be changed according to the operation of the operator. The tracking sensor 36a transmits tracking information indicating the position and the direction to the tracking information server device 20. Similarly, the position and the direction of the tracking sensor 36b are set according to the operation of the operator. The tracking sensor 36b transmits tracking information indicating the position and orientation to the tracking information server device 20.

カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。同様に、カメラ38aは、アクターA2の頭部に取り付けられている。カメラ38aは、アクターA2の顔を撮像できるように配置されており、アクターA2の顔を連続的に撮像し、アクターA2の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信し、カメラ38aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37a及びカメラ38aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。   The camera 37a is attached to the head of the actor A1, as described above. For example, the camera 37a is arranged so that the face of the actor A1 can be imaged. The camera 37a continuously captures an image of the face of the actor A1, and acquires image data of the face of the actor A1. Similarly, camera 38a is attached to the head of actor A2. The camera 38a is arranged so as to be able to image the face of the actor A2, continuously images the face of the actor A2, and acquires image data of the face of the actor A2. The camera 37a transmits image data of the face of the actor A1 to the server device 20, and the camera 38a transmits image data of the face of the actor A1 to the server device 20. The cameras 37a and 38a may be 3D cameras capable of detecting the depth of a person's face.

ディスプレイ39は、サポートコンピュータ40から受信した情報を表示するように構成される。サポートコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1及びアクターA2によって視認可能な位置に配置される。   The display 39 is configured to display information received from the support computer 40. The information transmitted from the support computer 40 to the display 39 may include, for example, text information, image information, and various other information. The display 39 is arranged at a position visible by the actors A1 and A2.

図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1及びアクターA2を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。   In the illustrated embodiment, the supporter computer 40 is installed in a room adjacent to the studio room R. Since the room in which the supporter computer 40 is installed is separated from the studio room R by a glass window, the operator of the supporter computer 40 (hereinafter, sometimes referred to as “supporter” in the present specification) has actors A1 and A2. Can be visually recognized. In the illustrated embodiment, supporters B1 and B2 are present as operators of the supporter computer 40.

サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、トラッキングセンサ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。サポーターB1及びサポータB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。   The supporter computer 40 may be configured to be able to change the settings of the components of the studio unit 30 according to the operation of the supporters B1 and B2. The supporter computer 40 can set, for example, a scanning interval by the base station 35a and the base station 35b, a position or an orientation of the tracking sensor 36a and the tracking sensor 36b, and change various settings of various devices other than these. . At least one of the supporters B1 and B2 can input a message to the supporter computer 40 and display the input message on the display 39.

図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。   The components and functions of the studio unit 30 shown in FIG. 2 are exemplary. The studio unit 30 applicable to the present invention may include various components not shown. For example, the studio unit 30 may include a projector. The projector can project a moving image distributed to the client device 10a or another client device on the screen S.

次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、保有リスト23c、候補リスト23d、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。   Next, information stored in the storage 23 in one embodiment will be described. In the illustrated embodiment, the storage 23 stores the model data 23a, the object data 23b, the holding list 23c, the candidate list 23d, and various other information necessary for generating and distributing other distribution moving images.

モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターA1に対応するキャラクタオブジェクト及びアクターA2に対応するキャラクタオブジェクトを生成するために、モデルデータ23aは、互いに異なる少なくとも2種類のモデルデータを有する。このアクターA1に対応するキャラクタオブジェクト用のモデルデータとアクターA2に対応するキャラクタオブジェクト用のモデルデータとは、例えば、同じリグデータを有するが、異なる表面データを有していてもよい。   The model data 23a is model data for generating a character animation. The model data 23a may be three-dimensional model data for generating a three-dimensional animation, or two-dimensional model data for generating two-dimensional model data. The model data 23a includes, for example, rig data (sometimes called “skeleton data”) indicating the skeleton of the character, and surface data indicating the shape and texture of the surface of the character. The model data 23a can include a plurality of different model data. The plurality of model data may have different rig data, or may have the same rig data. The plurality of model data may have different surface data from each other, or may have the same surface data. In the illustrated embodiment, the model data 23a has at least two different types of model data to generate a character object corresponding to the actor A1 and a character object corresponding to the actor A2. The model data for the character object corresponding to the actor A1 and the model data for the character object corresponding to the actor A2 have, for example, the same rig data, but may have different surface data.

オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。   The object data 23b includes asset data for constructing a virtual space forming a moving image. The object data 23b includes data for drawing the background of the virtual space constituting the moving image, data for drawing various objects displayed in the moving image, and data for drawing various objects displayed in the moving image other than these. Contains data. The object data 23a may include object position information indicating the position of the object in the virtual space.

オブジェクトデータ23bには、上記以外にも、クライアント装置10a〜10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。   In addition to the above, the object data 23b may include a gift object displayed in a moving image based on a display request from a viewing user of the client devices 10a to 10c. The gift object may include an effect object, a normal object, and a decoration object. The viewing user can purchase a desired gift object.

エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。   The effect object is an object that affects the impression of the entire viewing screen of the distribution moving image, and is, for example, an object imitating confetti. An object imitating a confetti may be displayed on the entire viewing screen, thereby changing the impression of the entire viewing screen before and after the display. The effect object may be displayed so as to overlap the character object, but is different from the decorative object in that the display associated with a specific part of the character object is not performed.

通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1またはアクターA2)へのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。   The normal object is an object serving as a digital gift from the viewing user to the actor (for example, the actor A1 or the actor A2), for example, an object imitating a stuffed animal or a bouquet. In one aspect, the normal object is displayed on the moving image display screen so as not to contact the character object. In one aspect, the normal object is displayed on the display screen of the moving image so as not to overlap with the character object. The normal object may be displayed so as to overlap with an object other than the character object in the virtual space. The normal object may be displayed so as to overlap with the character object, but is different from the decorative object in that a display associated with a specific part of the character object is not performed. In one aspect, when the normal object is displayed so as to overlap with the character object, the normal object overlaps with a part other than the head including the face of the character object, and does not overlap with the head of the character object. Is displayed as follows.

装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。特定の部位は、3次元座標空間における位置を示す3次元位置情報で特定されてもよいし、3次元座標空間の位置情報に関連付けられていてもよい。例えばキャラクタの頭部において、特定の部位は、頭部の前方左側、前方右側、後方左側、後方右側、中央前側、中央後側、左目、右目、左耳、右耳、及び髪全体という単位で定められてもよい。   The decoration object is an object displayed on the display screen in association with a specific part of the character object. In one aspect, the decorative object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to be in contact with the specific part of the character object. In one aspect, the decorative object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to cover part or all of the specific part of the character object. The specific part may be specified by three-dimensional position information indicating a position in the three-dimensional coordinate space, or may be associated with position information in the three-dimensional coordinate space. For example, in the head of the character, the specific part is a unit of front left side, front right side, rear left side, rear right side, center front side, center rear side, left eye, right eye, left ear, right ear, and the whole hair. It may be determined.

装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトに装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトが装着される装着位置情報が3次元座標空間の位置として特定される場合には、当該装着位置情報は3次元座標空間における複数の位置と関連付けられてもよい。例えば「カチューシャ」を示す装飾オブジェクトが装着される位置を示す装着位置情報は、キャラクタオブジェクトの「頭部後方左側」と「頭部後方右側」の2つの部位と関連付けられてもよい。つまり、「カチューシャ」を示す装飾オブジェクトは、「頭部後方左側」及び「頭部後方右側」の両方に装着されてもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。   The decorative object is, for example, an accessory (such as a headband, a necklace, or an earring) to be attached to the character object, clothing (such as a T-shirt), a costume, or any other object that can be attached to a character object. The object data 23b corresponding to the decoration object may include mounting position information indicating to which part of the character object the decoration object is associated. The mounting position information of a certain decoration object can indicate to which part of the character object the decoration object is mounted. For example, when the decoration object is a headband, the mounting position information of the decoration object may indicate that the decoration object is mounted on the “head” of the character object. When the mounting position information on which the decorative object is mounted is specified as a position in the three-dimensional coordinate space, the mounting position information may be associated with a plurality of positions in the three-dimensional coordinate space. For example, the mounting position information indicating the position at which the decorative object indicating “headband” is mounted may be associated with two portions of the character object, “head left left” and “head right right”. That is, the decorative object indicating “headband” may be attached to both the “back left side” and the “back right side”. When the decoration object is a T-shirt, the mounting position information of the decoration object may indicate that the decoration object is mounted on the “body” of the character object.

ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。   A display time according to the type of each gift object may be set. In one aspect, the display time of the decoration object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the decoration object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.

保有リスト23cは、動画の視聴ユーザが保有しているギフトオブジェクトを示すリストである。保有リスト23cの例が図3に示されている。図示のように、保有リスト23cにおいては、視聴ユーザのアカウント情報(例えば、視聴ユーザのユーザID)と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されている。この視聴ユーザは、例えば、クライアント装置10a〜クライアント装置10cの第1視聴ユーザ〜第3視聴ユーザが含まれる。   The holding list 23c is a list indicating the gift objects held by the user viewing the moving image. FIG. 3 shows an example of the holding list 23c. As illustrated, the holding list 23c stores an object ID that specifies a gift object held by the viewing user in association with the account information of the viewing user (for example, the user ID of the viewing user). The viewing users include, for example, first to third viewing users of the client devices 10a to 10c.

候補リスト23dは、視聴ユーザから表示要求がなされた装飾オブジェクトのリストである。後述するように、装飾オブジェクトを保有している視聴ユーザは、保有している装飾オブジェクトの表示要求を行うことができる。候補リスト23dにおいては、装飾オブジェクトの表示要求を行った視聴ユーザのアカウント情報と対応付けて、当該装飾オブジェクトを特定するオブジェクトIDが記憶される。この候補リスト23dは、配信者ごとに作成されてもよい。候補リスト23dは、例えば、配信者(アクターA1、アクターA2、サポーターB1、及び/又はサポーターB2)を特定する配信者識別情報と対応付けて記憶されてもよい。   The candidate list 23d is a list of decorative objects for which a display request has been made by the viewing user. As will be described later, the viewing user holding the decorative object can make a display request for the held decorative object. In the candidate list 23d, an object ID for specifying the decoration object is stored in association with the account information of the viewing user who made the display request of the decoration object. This candidate list 23d may be created for each distributor. The candidate list 23d may be stored, for example, in association with distributor identification information that specifies a distributor (actor A1, actor A2, supporter B1, and / or supporter B2).

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、ボディモーションデータ生成部21a、フェイスモーションデータ生成部21b、アニメーション生成部21c、動画生成部21d、動画配信部21e、表示要求処理部21f、装飾オブジェクト選択部21g、及びオブジェクト購入処理部21hとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサにより実現されてもよい。   Next, functions realized by the computer processor 21 will be described more specifically. The computer processor 21 executes a computer-readable instruction included in the distribution program to execute a body motion data generation unit 21a, a face motion data generation unit 21b, an animation generation unit 21c, a moving image generation unit 21d, a moving image distribution unit 21e, It functions as a display request processing unit 21f, a decorative object selection unit 21g, and an object purchase processing unit 21h. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by, for example, a computer processor mounted on the supporter computer 40.

ボディモーションデータ生成部21aは、モーションセンサ31a〜31fの各々の検出情報に基づいて、アクターA1の体の各部位の第1ボディモーションデータを生成し、また、モーションセンサ32a〜32fの各々の検出情報に基づいて、アクターA2の体の各部位の位置及び向きのデジタル表現である第2ボディモーションデータを生成する。本明細書では、第1ボディモーションデータ及び第2ボディモーションデータを総称して単に「ボディモーションデータ」と呼ぶことがある。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクターA1及びアクターA2の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、アクターA1及びアクターA2の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの検出情報に基づいて、アクターA1及びアクターA2の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。   The body motion data generation unit 21a generates first body motion data of each part of the body of the actor A1 based on the detection information of each of the motion sensors 31a to 31f, and detects each of the motion sensors 32a to 32f. Based on the information, it generates second body motion data that is a digital representation of the position and orientation of each part of the body of actor A2. In this specification, the first body motion data and the second body motion data may be simply referred to as “body motion data”. The body motion data is generated as needed with the passage of time. For example, the body motion data may be generated at predetermined sampling time intervals. As described above, the body motion data can represent the body movements of the actors A1 and A2 in a time-series manner as digital data. In the illustrated embodiment, the motion sensors 31a to 31f and the motion sensors 32a to 32f are mounted on the left and right limbs, the waist, and the head of each of the actors A1 and A2. Based on the detection information of the motion sensors 32a to 32f, it is possible to digitally represent the position and orientation of the entire body of the actor A1 and the actor A2 with time. The body motion data can define, for example, a position and a rotation angle of a bone constituting the rig data included in the model data 23a.

フェイスモーションデータ生成部21bは、カメラ37aの撮像データに基づいて、アクターA1の顔の動きのデジタル表現である第1フェイスモーションデータを生成し、また、カメラ38aの各々の撮像データに基づいて、アクターA2の顔の動きのデジタル表現である第2フェイスモーションデータを生成する。本明細書では、第1フェイスモーションデータ及び第2フェイスモーションデータを総称して単に「フェイスモーションデータ」と呼ぶことがある。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA2及びアクターA2の顔の動き(表情の変化)を時系列的にデジタル表現することができる。   The face motion data generation unit 21b generates first face motion data, which is a digital representation of the movement of the face of the actor A1, based on the imaging data of the camera 37a, and based on the imaging data of each of the cameras 38a, Generate second face motion data that is a digital representation of the face movement of actor A2. In the present specification, the first face motion data and the second face motion data may be collectively simply referred to as “face motion data”. The face motion data is generated as needed with the passage of time. For example, face motion data may be generated at predetermined sampling time intervals. In this manner, the face motion data can digitally represent the actor A2 and the movement of the face of the actor A2 (change in facial expression) in a time-series manner.

アニメーション生成部21cは、ボディモーションデータ生成部21aによって生成されたボディモーションデータ及びフェイスモーションデータ生成部21bによって生成されたフェイスモーションデータを、モデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。具体的には、アニメーション生成部21cは、アクターA1に関する第1ボディモーションデータ及び第1フェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、アクターA2に関する第2ボディモーションデータ及び第2フェイスモーションデータに基づいて、アクターA2の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。本明細書においては、アクターA1の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第1キャラクタオブジェクト」といい、アクターA2の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第2キャラクタオブジェクト」ということがある。   The animation generation unit 21c applies the body motion data generated by the body motion data generation unit 21a and the face motion data generated by the face motion data generation unit 21b to predetermined model data included in the model data 23a. Is configured to generate an animation of a character object that moves in a virtual space and changes its expression. Specifically, the animation generation unit 21c generates an animation of a character object that moves in synchronization with the movement of the body and expression of the actor A1, based on the first body motion data and the first face motion data related to the actor A1, Based on the second body motion data and the second face motion data related to the actor A2, it is possible to generate an animation of the character object that moves in synchronization with the movement of the body and expression of the actor A2. In this specification, a character object generated based on the movement and expression of actor A1 is referred to as a “first character object”, and a character object generated based on the movement and expression of actor A2 is referred to as a “second character object”. "

動画生成部21dは、オブジェクトデータ23bを用いて仮想空間を構築し、この仮想空間と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。第1キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA1の位置に合致するように仮想空間内に配置され、第2キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA2の位置に合致するように仮想空間内に配置される。したがって、トラッキングセンサ36aの位置または向きを変更することにより、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向きを変化させることができる。   The moving image generation unit 21d constructs a virtual space using the object data 23b, and generates the virtual space, the animation of the first character object corresponding to the actor A1, and the animation of the second character object corresponding to the actor A2. Generate a video that includes The first character object is arranged in the virtual space so as to match the position of the actor A1 with respect to the tracking sensor 36a, and the second character object is arranged in the virtual space so as to match the position of the actor A2 with respect to the tracking sensor 36a. Is done. Therefore, by changing the position or the direction of the tracking sensor 36a, the position and the direction of the first character object and the second character object in the virtual space can be changed.

一態様において、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想空間を構築する。例えば、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想カメラの設定情報(仮想空間内における位置、注視位置、注視方向、及び画角)を定め、この仮想カメラの設定情報に基づいて仮想空間全体のうちの描画領域を定め、この仮想空間の描画領域を表示するための動画情報を生成する。   In one aspect, the moving image generation unit 21d constructs a virtual space based on tracking information of the tracking sensor 36a. For example, the moving image generation unit 21d determines setting information (a position in a virtual space, a gaze position, a gaze direction, and an angle of view) of a virtual camera based on tracking information of the tracking sensor 36a, and based on the setting information of the virtual camera. To define a drawing area in the entire virtual space, and generate moving image information for displaying the drawing area in the virtual space.

動画生成部21dは、トラッキングセンサ36aのトラッキング情報に代えて、または、トラッキングセンサ36aのトラッキング情報に加えて、トラッキングセンサ36bのトラッキング情報に基づいて、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向き、並びに、仮想カメラの設定情報を定めるように構成されてもよい。   The moving image generation unit 21d replaces the tracking information of the tracking sensor 36a, or in addition to the tracking information of the tracking sensor 36a, based on the tracking information of the tracking sensor 36b, based on the tracking information of the tracking sensor 36b. It may be configured to determine the position and orientation of the object and the setting information of the virtual camera.

動画生成部21dは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1及びアクターA2の音声を合成することができる。   The moving image generation unit 21d can synthesize the generated moving image with the sounds of the actors A1 and A2 acquired from the microphone of the studio unit 30.

以上のようにして、動画生成部21dは、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーション、並びに、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションを生成し、このアニメーションにアクターA1及びアクターA2の音声が合成された配信用の動画を生成することができる。   As described above, the moving image generation unit 21d performs the animation of the first character object that moves in synchronization with the movement of the body and expression of the actor A1, and the second character that moves in synchronization with the movement of the body and expression of the actor A2 An animation of the object is generated, and a moving image for distribution in which the sounds of the actors A1 and A2 are synthesized with the animation can be generated.

動画配信部21eは、動画生成部21dにおいて生成された動画を配信する。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。受信された動画は、クライアント装置10a〜クライアント装置10cにおいて再生される。   The moving image distribution unit 21e distributes the moving image generated by the moving image generation unit 21d. This moving image is distributed to the client devices 10a to 10c and the other client devices via the network 50. The received moving image is reproduced in the client devices 10a to 10c.

この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。   This moving image may be distributed to a client device (not shown) installed in the studio room R, and may be projected from the client device to the screen S via the short focus projector. This moving image may be distributed to the supporter computer 40. Thereby, the supporters B1 and B2 can check the viewing screen of the distributed moving image.

サーバ装置20からクライアント装置10aに配信され、このクライアント装置10aにおいて再生されている動画の表示例が図5に示されている。図示のように、サーバ装置20から配信された動画の表示画像70は、クライアント装置10aのディスプレイに表示される。このクライアント装置10aに表示されている表示画像70は、仮想空間内に、アクターA1に対応するキャラクタオブジェクト71Aと、アクターA2に対応するキャラクタオブジェクト71Bと、テーブルを示すオブジェクト72と、が含まれている。オブジェクト72は、ギフトオブジェクトではなく、オブジェクトデータ23bに含まれている仮想空間を構築するためのオブジェクトの一つである。キャラクタオブジェクト71Aは、アクターA1の第1ボディモーションデータ及び第1フェイスモーションデータをモデルデータ23aに含まれているアクターA1用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Aは、第1ボディモーションデータ及び第1フェイスモーションデータに基づいてモーション制御される。キャラクタオブジェクト71Bは、アクターA2の第2ボディモーションデータ及び第2フェイスモーションデータを、モデルデータ23aに含まれているアクターA2用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Bは、第2ボディモーションデータ及び第2フェイスモーションデータに基づいてモーション制御される。したがって、キャラクタオブジェクト71Aは、アクターA1の体及び表情の動きに同期して画面内で動くように制御され、キャラクタオブジェクト71Bは、アクターA2の体及び表情の動きに同期して画面内で動くように制御される。   FIG. 5 shows a display example of a moving image distributed from the server device 20 to the client device 10a and reproduced on the client device 10a. As illustrated, the display image 70 of the moving image distributed from the server device 20 is displayed on the display of the client device 10a. The display image 70 displayed on the client device 10a includes a character object 71A corresponding to the actor A1, a character object 71B corresponding to the actor A2, and an object 72 indicating a table in the virtual space. I have. The object 72 is not a gift object but one of the objects for constructing the virtual space included in the object data 23b. The character object 71A is generated by applying the first body motion data and the first face motion data of the actor A1 to the model data for the actor A1 included in the model data 23a. The motion of the character object 71A is controlled based on the first body motion data and the first face motion data. The character object 71B is generated by applying the second body motion data and the second face motion data of the actor A2 to the model data for the actor A2 included in the model data 23a. The motion of the character object 71B is controlled based on the second body motion data and the second face motion data. Therefore, the character object 71A is controlled to move on the screen in synchronization with the movement of the body and expression of the actor A1, and the character object 71B moves on the screen in synchronization with the movement of the body and expression of the actor A2. Is controlled.

上記のように、サーバ装置20からの配信動画は、サポーターコンピュータ40に配信されてもよい。サポーターコンピュータ40に配信された動画は、サポーターコンピュータ40において図5と同様に表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40において再生されている動画を見て、スタジオユニット30の構成要素の設定を変更することができる。一態様において、サポーターB1及びサポーターB2は、配信中の動画においてキャラクタオブジェクト71A及びキャラクタオブジェクト71Bのアングルを変更したい場合には、トラッキングセンサ36aの向きの変更を指示する指示信号をサポーターコンピュータ40からトラッキングセンサ36aに送信することができる。トラッキングセンサ36aは、当該指示信号に応じて、その向きを変更することができる。例えば、トラッキングセンサ36aは、スタンドにその軸周りにアクチュエータを内蔵した回動機構を介して回動可能に取り付けられており、トラッキングセンサ36aがその向きの変更を指示する指示信号を受信すると、当該指示信号に基づいて当該回動機構のアクチュエータが駆動され、当該指示信号に応じた角度だけトラッキングセンサ36aが回動されてもよい。一態様において、サポーターB1及びサポーターB2は、トラッキングセンサ36aからのトラッキング情報に代えて、トラッキングセンサ36bからのトラッキング情報を用いるための指示をサポーターコンピュータ40からトラッキングセンサ36a及びトラッキングセンサ36bに送信してもよい。   As described above, the distribution moving image from the server device 20 may be distributed to the supporter computer 40. The moving image distributed to the supporter computer 40 is displayed on the supporter computer 40 in the same manner as in FIG. The supporter B1 and the supporter B2 can change the settings of the components of the studio unit 30 while watching the moving image being reproduced on the supporter computer 40. In one aspect, when the supporter B1 and the supporter B2 want to change the angle of the character object 71A and the character object 71B in the moving image being distributed, the supporter computer 40 sends an instruction signal for instructing a change in the direction of the tracking sensor 36a from the supporter computer 40. It can be transmitted to the sensor 36a. The direction of the tracking sensor 36a can be changed according to the instruction signal. For example, the tracking sensor 36a is rotatably attached to the stand via a rotation mechanism having a built-in actuator around its axis, and when the tracking sensor 36a receives an instruction signal for instructing a change in its direction, the tracking sensor 36a receives the instruction signal. The actuator of the rotation mechanism may be driven based on the instruction signal, and the tracking sensor 36a may be rotated by an angle corresponding to the instruction signal. In one embodiment, the supporter B1 and the supporter B2 transmit an instruction to use the tracking information from the tracking sensor 36b instead of the tracking information from the tracking sensor 36a from the supporter computer 40 to the tracking sensor 36a and the tracking sensor 36b. Is also good.

一態様において、サポーターB1及びサポーターB2は、サポーターコンピュータ40にて再生されている動画を見てアクターA1またはアクターA2に対する指示が必要と判断した場合には、その指示を示すメッセージをサポーターコンピュータ40に入力し、このメッセージをディスプレイ39に出力することができる。例えば、サポーターB1及びサポーターB2は、このディスプレイ39に表示されるメッセージを通じて、アクターA1またはアクターA2に対して立ち位置の変更を指示することができる。   In one embodiment, when the supporter B1 and the supporter B2 determine that an instruction to the actor A1 or the actor A2 is necessary by watching the moving image being played on the supporter computer 40, the supporter computer 40 sends a message indicating the instruction to the supporter computer 40. The message can be input and output to the display 39. For example, the supporters B1 and B2 can instruct the actor A1 or the actor A2 to change the standing position through the message displayed on the display 39.

表示要求処理部21fは、視聴ユーザのクライアント装置からギフトオブジェクトの表示要求を受け付け、当該表示要求に応じた処理を行う。各視聴ユーザは、自らのクライアント装置を操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。例えば、第1視聴ユーザは、クライアント装置10aを操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示を要求するオブジェクトを特定する識別情報(オブジェクトID)が含まれてもよい。   The display request processing unit 21f receives a display request for a gift object from the client device of the viewing user, and performs processing according to the display request. Each viewing user can transmit a gift object display request to the server device 20 by operating his / her client device. For example, the first viewing user can transmit a gift object display request to the server device 20 by operating the client device 10a. The display request for the gift object may include the user ID of the viewing user and identification information (object ID) for specifying the object for which display is requested.

上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。エフェクトオブジェクト及び通常オブジェクトは、第1オブジェクトの例である。また、エフェクトオブジェクトまたは通常オブジェクトの表示を要求する表示要求は、第2表示要求の例である。   As described above, the gift object may include an effect object, a normal object, and a decoration object. The effect object and the normal object are examples of the first object. A display request for requesting display of an effect object or a normal object is an example of a second display request.

一態様において、表示要求処理部21fは、視聴ユーザから特定のエフェクトオブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトオブジェクトを動画の表示画像70に表示させるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図6に示すように、当該表示要求に基づいて紙吹雪を示すエフェクトオブジェクト73を表示画像70に表示させる。   In one aspect, when a display request processing unit 21f receives a display request of a specific effect object from a viewing user, the display request processing unit 21f causes the display image 70 of the moving image to display the effect object requested to be displayed based on the display request. Perform processing. For example, when a display request for an effect object corresponding to confetti is made, the display request processing unit 21f displays an effect object 73 indicating confetti based on the display request as shown in FIG. To be displayed.

一態様において、表示要求処理部21fは、視聴ユーザから特定の通常オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常オブジェクトを動画70に表示させるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図6に示すように、当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト74を表示画像70に表示させる。   In one embodiment, when a display request processing unit 21f receives a display request for a specific normal object from a viewing user, the display request processing unit 21f performs a process for displaying the requested normal object on the moving image 70 based on the display request. . For example, when a display request for a normal object indicating a stuffed bear is made, the display request processing unit 21f displays a normal object 74 indicating a stuffed bear based on the display request as shown in FIG. 70 is displayed.

通常オブジェクト74の表示要求には、仮想空間内における当該通常オブジェクト74の表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、表示要求処理部21fは、仮想空間内の表示位置指定パラメータによって指定された位置に通常オブジェクト74を表示することができる。例えば、表示位置指定パラメータによって、テーブルを示すオブジェクト72の上を通常オブジェクト74の表示位置として指定することができる。視聴ユーザは、表示位置指定パラメータを用いることにより、動画70に含まれているキャラクタオブジェクト71A、キャラクタオブジェクト71B、ギフトオブジェクト、及びこれら以外のオブジェクトの表示を見て、通常オブジェクトを表示したい位置を指定することができる。   The display request for the normal object 74 may include a display position specification parameter for specifying the display position of the normal object 74 in the virtual space. In this case, the display request processing unit 21f can display the normal object 74 at a position designated by the display position designation parameter in the virtual space. For example, the display position of the normal object 74 can be specified on the object 72 indicating the table by the display position specification parameter. The viewing user uses the display position specification parameter to specify the position where the normal object is desired to be displayed by viewing the display of the character object 71A, the character object 71B, the gift object, and other objects included in the moving image 70. can do.

一態様において、通常オブジェクト74は、動画の表示画像70内で移動するように表示されてもよい。例えば、通常オブジェクト74は、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト74は、落下開始から動画70を構成する仮想空間のフロアまで落下している間当該表示画像70内に表示され、フロアに落下した後に当該表示画像70から消滅してもよい。視聴ユーザは、落下する通常オブジェクト74を落下開始時から落下終了時まで見ることができる。通常オブジェクト74の画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト74は、動画70の左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動するように表示画像70において表示されてもよい。通常オブジェクト74は、様々な軌道上を移動することができる。例えば、通常オブジェクト74は、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト74の移動方向を指定する移動方向パラメータ及び通常オブジェクト74が移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいもの(例えば、エフェクトオブジェクト73の紙吹雪の紙片)は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクトと重複しない位置に表示される。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの少なくとも一方と重複する場合には、当該重複して表示されるキャラクタオブジェクトの後ろに表示される。   In one aspect, the normal object 74 may be displayed so as to move within the moving image display image 70. For example, the normal object 74 may be displayed so as to fall from the top of the screen to the bottom. In this case, the normal object 74 may be displayed in the display image 70 while falling from the start of the fall to the floor of the virtual space constituting the moving image 70, and may disappear from the display image 70 after dropping on the floor. . The viewing user can see the falling normal object 74 from the start of the fall to the end of the fall. The moving direction of the normal object 74 in the screen can be set arbitrarily. For example, the normal object 74 may be displayed in the display image 70 so as to move from the left to the right, the right to the left, the upper left to the lower left, or the other direction of the moving image 70. The normal object 74 can move on various trajectories. For example, the normal object 74 can move on a linear trajectory, a circular trajectory, an elliptical trajectory, a spiral trajectory, or other trajectories. The viewing user specifies the moving direction parameter for specifying the moving direction of the normal object 74 and the trajectory on which the normal object 74 moves in the display request of the normal object in addition to or instead of the display position specifying parameter. At least one of the trajectory parameters can be included. In one embodiment, among the effect objects and the normal objects, objects whose size in the virtual space is smaller than the reference size (for example, a confetti sheet of the effect object 73) are assigned to the character objects 71A and 71B. Some or all of them may be displayed overlapping. In one embodiment, among the effect objects and the normal objects, those whose size in the virtual space is larger than the reference size (for example, the normal object 74 (a stuffed bear)) are displayed at positions that do not overlap with the character objects. . In one embodiment, of the effect object and the normal object, the one in which the size in the virtual space is larger than the reference size (for example, the normal object 74 (a stuffed bear)) is at least one of the character object 71A and the character object 71B. If the character object overlaps with the character object, the character object is displayed after the character object that is overlapped and displayed.

一態様において、表示要求処理部21fは、視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リスト23dに追加する。装飾オブジェクトの表示要求は、第1表示要求の例である。例えば、表示要求処理部21fは、視聴ユーザから表示要求されている特定の装飾オブジェクトを識別する識別情報(オブジェクトID)を、当該視聴ユーザのユーザIDと対応付けて、候補リスト23dに記憶することができる(図4参照)。装飾オブジェクトの表示要求が複数なされた場合には、当該複数の表示要求の各々について、表示要求を行った視聴ユーザのユーザIDと、当該視聴ユーザによって表示要求されている装飾オブジェクトの装飾オブジェクトIDとが対応付けて候補リスト23dに記憶される。   In one aspect, when receiving a display request for a specific decorative object from a viewing user, the display request processing unit 21f adds the decorative object requested to be displayed to the candidate list 23d based on the display request. The display request of the decoration object is an example of the first display request. For example, the display request processing unit 21f stores identification information (object ID) for identifying a specific decorative object requested to be displayed by the viewing user in the candidate list 23d in association with the user ID of the viewing user. (See FIG. 4). When a plurality of decoration object display requests are made, for each of the plurality of display requests, the user ID of the viewing user who made the display request, the decoration object ID of the decoration object requested to be displayed by the viewing user, and Are stored in the candidate list 23d in association with each other.

一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうちの一又は複数が選択されたことに応じて、当該選択された装飾オブジェクトを動画の表示画像70に表示させるための処理を行う。本明細書では、候補リスト23dから選択された装飾オブジェクトを「選択装飾オブジェクト」と呼ぶことがある。   In one aspect, in response to selection of one or more of the decorative objects included in the candidate list 23d, the decorative object selecting unit 21g displays the selected decorative object on the moving image display image 70. Perform a process for causing In this specification, the decoration object selected from the candidate list 23d may be referred to as a “selected decoration object”.

候補リスト23dからの装飾オブジェクトの選択は、例えば、サポーターB1及びサポーターB2がサポーターコンピュータ40を操作することによってなされる。一態様において、サポーターコンピュータ40には、装飾オブジェクト選択画面が表示される。図8は、一態様における装飾オブジェクト選択画面80の例を示す。この装飾オブジェクト選択画面80は、例えば、サポーターコンピュータ40のディスプレイに表示される。装飾オブジェクト選択画面80は、例えば、表形式で候補リスト23dに含まれている複数の装飾オブジェクトの各々を表示する。図示のように、一態様における装飾オブジェクト選択画面80は、装飾オブジェクトの種類を表示する第1列81と、装飾オブジェクトの画像を表示する第2列82と、装飾オブジェクトが関連付けられているキャラクタオブジェクトの部位を表示する第3列83と、を有する。また、装飾オブジェクト選択画面80には、各装飾オブジェクトを選択するための選択ボタン84a〜84cが表示されている。このように、装飾オブジェクト選択画面80には、選択装飾オブジェクトの候補となる装飾オブジェクトが表示される。   The selection of the decorative object from the candidate list 23d is performed, for example, by the supporter B1 and the supporter B2 operating the supporter computer 40. In one aspect, the supporter computer 40 displays a decorative object selection screen. FIG. 8 shows an example of a decorative object selection screen 80 according to one embodiment. This decorative object selection screen 80 is displayed on the display of the supporter computer 40, for example. The decoration object selection screen 80 displays each of the plurality of decoration objects included in the candidate list 23d in a table format, for example. As shown in the figure, the decorative object selection screen 80 according to one embodiment includes a first column 81 displaying the type of the decorative object, a second column 82 displaying the image of the decorative object, and a character object associated with the decorative object. And a third column 83 for displaying the part. Further, on the decoration object selection screen 80, selection buttons 84a to 84c for selecting each decoration object are displayed. In this manner, on the decoration object selection screen 80, decoration objects that are candidates for the selected decoration object are displayed.

サポーターB1及びサポーターB2は、この装飾オブジェクト選択画面80に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。例えば、サポーターB1及びサポーターB2は、選択ボタン84aを選択することにより、カチューシャを選択することができる。装飾オブジェクト選択部21gによってカチューシャが選択されたことが検出されると、表示要求処理部21fは、図7に示すように、選択されたカチューシャを示す選択装飾オブジェクト75を動画の表示画面70に表示させる。選択装飾オブジェクト75は、キャラクタオブジェクトの特定の部位と関連付けて、表示画像70に表示される。選択装飾オブジェクト75は、キャラクタオブジェクトのうちの当該特定の部位に接するように表示されてもよい。例えば、カチューシャを示す選択選択装飾オブジェクト75は、キャラクタオブジェクトの頭部と対応付けられているため、図7に示されているように、キャラクタオブジェクト71Aの頭部に装着される。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面70に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト71Aの頭部が動くと、あたかもカチューシャがキャラクタオブジェクト71Aの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクト75もキャラクタオブジェクト71Aの頭部に付随して動く。   The supporters B1 and B2 can select one or more of the decorative objects included in the decorative object selection screen 80. For example, the supporters B1 and B2 can select a headband by selecting the selection button 84a. When the decoration object selection unit 21g detects that a headband has been selected, the display request processing unit 21f displays a selected decoration object 75 indicating the selected headband on the moving image display screen 70, as shown in FIG. Let it. The selected decoration object 75 is displayed on the display image 70 in association with a specific part of the character object. The selected decoration object 75 may be displayed so as to be in contact with the specific part of the character object. For example, since the selection / selection decoration object 75 indicating the headband is associated with the head of the character object, it is mounted on the head of the character object 71A as shown in FIG. The decorative object may be displayed on the display screen 70 so as to move in accordance with the movement of the specific part of the character object. For example, when the head of the character object 71A wearing the headband moves, as if the headband is mounted on the head of the character object 71A, the selected decorative object 75 indicating the headband also accompanies the head of the character object 71A. Move.

上述したように、オブジェクトデータ23bは、装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報を含んでもよい。一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうち、キャラクタオブジェクトに既に装着されている装飾オブジェクトの装着位置情報が示す部位と重複する部位に装着される装飾オブジェクトについては、選択装飾オブジェクト75として選択できないようにしてもよい。例えば、「頭部後方左側」及び「頭部後方右側」に関連付けられたカチューシャと、「頭部後方左側」に関連付けられたヘアアクセサリーとは、「頭部後方左側」が重複しているため、同時に装着することはできない。一方、「頭部後方左側」及び「頭部後方右側」に関連付けられたカチューシャと、「(頭部のうち)左耳」及び「(頭部のうち)右耳」に関連付けられたイヤリングは、キャラクタオブジェクトにおける特定の部位が重複していないため、同時に装着することができる。   As described above, the object data 23b may include mounting position information indicating which part of the character object is associated with the decorative object. In one aspect, the decoration object selection unit 21g is a decoration to be mounted on a part of the decoration objects included in the candidate list 23d that overlaps with the part indicated by the mounting position information of the decoration object already mounted on the character object. The object may not be selected as the selected decorative object 75. For example, since the headband associated with "head rear left" and "head rear right" and the hair accessory associated with "head rear left" overlap "head rear left", It cannot be installed at the same time. On the other hand, the headband associated with the “head rear left” and “head rear right”, and the earring associated with “the left ear (of the head)” and the “right ear (of the head)” Since specific parts in the character object do not overlap, they can be mounted simultaneously.

選択装飾オブジェクト75は、キャラクタオブジェクト71Aではなく、キャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。選択装飾オブジェクト75は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。   The selected decoration object 75 may be displayed on the display screen 70 in association with the character object 71B instead of the character object 71A. The selected decoration object 75 may be displayed on the display screen 70 in association with the character objects 71A and 71B.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトの表示要求を行ったユーザを特定可能な情報を含まないように構成されてもよい。これにより、装飾オブジェクトの選択の際に、選択者が特定のユーザを優遇することを防止できる。   In one embodiment, the decoration object selection screen 80 may be configured so as not to include information that can specify a user who holds each decoration object or a user who has requested display of each decoration object. This can prevent the selector from giving preferential treatment to a specific user when selecting the decorative object.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザに関する情報を表示するようにしてもよい。例えば、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザがこれまでに装飾オブジェクトの表示要求を行った回数と選択された回数(例えば、これまでに装飾オブジェクトの表示要求を5回行ってそのうち2回は選択されたことを示す情報)、当該ユーザがキャラクタオブジェクト71A及びキャラクタオブジェクトBの少なくとも一方の動画を視聴した視聴回数、当該ユーザが動画配信システム1における動画(キャラクタオブジェクト71A及びキャラクタオブジェクトBの出演有無を問わない)の視聴回数、当該ユーザによるギフトオブジェクトの購入金額、当該ユーザによるオブジェクトの購入回数、当該ユーザが保有する動画配信システム1内で使用できるポイント、当該ユーザの動画配信システム1におけるレベル、及びこれら以外の各装飾オブジェクトの表示要求を行ったユーザに関する各種情報を表示してもよい。当該実施形態によれば、装飾オブジェクトの表示要求を行ったユーザのこれまでの動画配信システム1における行動や視聴履歴に基づいて、装飾オブジェクトの選択を行うことができる。   In one embodiment, the decoration object selection screen 80 may display information about the user who owns each decoration object or, for each decoration object, the user who has made a display request for the decoration object. For example, for each decoration object, the number of times that the user who has requested the display of the decoration object has made the display request of the decoration object and the number of times that the user has made the selection request (for example, five times the display request of the decoration object has been made so far) Information indicating that the user has selected two times), the number of times the user has viewed at least one of the moving images of the character object 71A and the character object B, and the moving image (the character object 71A and the character (Regardless of the appearance of the object B), the number of purchases of the gift object by the user, the number of purchases of the object by the user, points available in the video distribution system 1 owned by the user, video distribution of the user system At level, and it may display various information about the user who made the request for display of the ornamental objects other than these. According to this embodiment, it is possible to select a decoration object based on the behavior and viewing history of the user who has made the display request of the decoration object in the moving image distribution system 1 so far.

一実施形態において、装飾オブジェクトの表示には、重複を排除するための制約が課されてもよい。例えば、キャラクタオブジェクト71Aに関し、その特定の部位に関連付けられた装飾オブジェクトが既に選択されている場合には、当該特定の部位に関連付けられた他の装飾オブジェクトの選択が禁止されてもよい。図7の実施形態に示されているように、キャラクタオブジェクト71Bの「頭部」に関連付けられているカチューシャが既に
選択されている場合には、「頭部」に関連付けられているそれ以外の装飾オブジェクト(例えば、頭部に関連付けられている「帽子」を表す装飾オブジェクト)は、装飾オブジェクト選択画面80に表示されないか、または、当該帽子を表す装飾オブジェクトを選択するための選択ボタンが選択画面80において選択不能とされてもよい。当該実施形態によれば、装飾オブジェクトがキャラクタオブジェクトの特定の部位に重複して表示されることを防止できる。
In one embodiment, the display of the decorative object may be subject to constraints to eliminate duplication. For example, when a decorative object associated with the specific part is already selected with respect to the character object 71A, selection of another decorative object associated with the specific part may be prohibited. As shown in the embodiment of FIG. 7, when the headband associated with the “head” of the character object 71B has already been selected, the other decorations associated with the “head” An object (for example, a decoration object representing a "hat" associated with the head) is not displayed on the decoration object selection screen 80, or a selection button for selecting a decoration object representing the hat is displayed on the selection screen 80. May not be selectable. According to this embodiment, it is possible to prevent the decorative object from being displayed repeatedly on a specific part of the character object.

装飾オブジェクト選択画面80は、サポーターコンピュータ40に代えて、または、サポーターコンピュータ40に加えて、他の装置に表示されてもよい。例えば、装飾オブジェクト選択画面80は、スタジオルームR内のディスプレイ39及びスクリーンSの少なくとも一方に表示されてもよい。この場合、アクターA1及びアクターA2が当該ディスプレイ39又はスクリーンSに表示された装飾オブジェクト選択画面80に基づいて、所望の装飾オブジェクトを選択することができる。アクターA1及びアクターA2による装飾オブジェクトの選択は、例えば、コントローラ33a、コントローラ33b、コントローラ34a、またはコントローラ34bを操作することによりなされ得る。   The decorative object selection screen 80 may be displayed on another device instead of the supporter computer 40 or in addition to the supporter computer 40. For example, the decorative object selection screen 80 may be displayed on at least one of the display 39 and the screen S in the studio room R. In this case, the actor A1 and the actor A2 can select a desired decorative object based on the decorative object selection screen 80 displayed on the display 39 or the screen S. The selection of the decoration object by the actor A1 and the actor A2 can be performed by operating the controller 33a, the controller 33b, the controller 34a, or the controller 34b, for example.

一態様において、オブジェクト購入処理部21hは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザのクライアント装置(例えば、クライアント装置10a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装飾オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、クライアント装置10aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、クライアント装置10aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置20に送信される。オブジェクト購入処理部21hは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。この場合、保有リスト23cに、購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトオブジェクトのオブジェクトIDが記憶される。   In one embodiment, the object purchase processing unit 21h, in response to a request from a user viewing the moving image, transmits purchase information of each of a plurality of gift objects that can be purchased in connection with the moving image to a client device of the viewing user (for example, To the client device 10a). The purchase information of each gift object includes the type of the gift object (effect object, normal object, or decoration object), the image of the gift object, the price of the gift object, and information necessary for purchasing other gift objects. May be included. The viewing user can select a gift object to be purchased based on the gift object purchase information displayed on the client device 10a. The selection of the gift object to be purchased may be performed by operating the client device 10a. When a gift object to be purchased is selected by the viewing user, a purchase request for the gift object is transmitted to the server device 20. The object purchase processing unit 21h performs a payment process based on the purchase request. When the payment process is completed, the purchased gift object is held by the viewing user. In this case, the object ID of the purchased gift object is stored in the holding list 23c in association with the user ID of the purchased viewing user.

購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。   The gift objects that can be purchased may be different for each moving image. The purchasable gift object may be purchasable in a plurality of videos. That is, the purchasable gift objects may include a unique gift object peculiar to each moving image and a common gift object purchasable in a plurality of moving images. For example, the effect object indicating confetti may be a common gift object that can be purchased in a plurality of moving images.

一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。   In one aspect, when an effect object is purchased while viewing a predetermined moving image, the effect object to be purchased is added to the watching moving image in response to completion of the payment processing for purchasing the effect object. It may be displayed automatically. When a normal object is purchased while watching a predetermined moving image, similarly to the above, in response to completion of the payment processing for purchasing the normal object, the normal gift object to be purchased is changed to the moving image being viewed. May be displayed automatically.

他の態様においては、購入対象のエフェクトオブジェクトについてオブジェクト購入処理部21hにおける決済処理が完了したことに応じて、決済完了通知がクライアント装置10aに送信され、当該クライアント装置10aにおいて、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置から表示要求処理部21fに送信され、表示要求処理部21fにおいて、当該購入対象のエフェクトオブジェクトを動画70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面がクライアント装置10aに表示されてもよい。   In another aspect, in response to the completion of the payment processing in the object purchase processing unit 21h for the effect object to be purchased, a payment completion notification is transmitted to the client device 10a, and the purchased effect object is transmitted to the client device 10a. A confirmation screen for confirming to the viewing user whether or not to make a display request of the above may be displayed. If the viewing user has selected to make a display request for the purchased effect object, a display request for displaying the purchased effect object is sent from the client device of the viewing user to the display request processing unit 21f. And the display request processing unit 21f may perform a process of displaying the effect object to be purchased on the moving image 70. Even when the purchase target is a normal object, a confirmation screen for confirming to the viewing user whether or not a display request for the purchased normal object is to be made may be displayed on the client device 10a.

次に、図9〜図11を参照して、一態様による動画配信処理について説明する。図9は、一実施形態における動画配信処理の流れを示すフロー図であり、図10は、一実施形態における通常オブジェクトを表示する処理の流れを示すフロー図であり、図11は、一実施形態における装飾オブジェクトを表示する処理の流れを示すフロー図である。動画配信処理においては、スタジオルームRにおいてアクターA1及びアクターA2がパフォーマンスを行っていることが想定されている。   Next, a moving image distribution process according to one embodiment will be described with reference to FIGS. FIG. 9 is a flowchart illustrating a flow of a moving image distribution process according to an embodiment. FIG. 10 is a flowchart illustrating a process flow of displaying a normal object according to the embodiment. FIG. 7 is a flowchart showing a flow of a process of displaying a decoration object in FIG. In the moving image distribution process, it is assumed that actors A1 and A2 are performing in the studio R.

まず、ステップS11では、アクターA1及びアクターA2の体の動きのデジタル表現であるボディモーションデータと、アクターA1及びアクターA2の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータの生成は、例えば、上記のボディモーションデータ生成部21aで行われ、フェイスモーションデータの生成は、例えば、上記のフェイスモーションデータ生成部21bで行われる。   First, in step S11, body motion data that is a digital representation of the body movements of the actors A1 and A2 and face motion data that is a digital representation of the face movements (expressions) of the actors A1 and A2 are generated. You. The generation of the body motion data is performed, for example, by the above-described body motion data generation unit 21a, and the generation of the face motion data is performed, for example, by the above-described face motion data generation unit 21b.

次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーションが生成される。同様に、アクターA2のボディモーションデータ及びフェイスモーションデータを、アクターA2用のモデルデータに適用することにより、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部21cで行われる。   Next, in step S12, by applying the body motion data and the face motion data of the actor A1 to the model data for the actor A1, the animation of the first character object that moves in synchronization with the movement of the body and expression of the actor A1 Is generated. Similarly, by applying the body motion data and the face motion data of the actor A2 to the model data for the actor A2, an animation of the second character object that moves in synchronization with the movement of the body and expression of the actor A2 is generated. . The generation of the animation is performed by, for example, the above-described animation generation unit 21c.

次に、ステップS13において、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。この動画には、アクターA1及びアクターA2の音声が合成されてもよい。第1キャラクタオブジェクトのアニメーション及び第2キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。この動画の生成は、例えば、上記の動画生成部21dで行われる。   Next, in step S13, a moving image including the animation of the first character object corresponding to the actor A1 and the animation of the second character object corresponding to the actor A2 is generated. The voice of actor A1 and actor A2 may be synthesized with this moving image. The animation of the first character object and the animation of the second character object may be arranged in a virtual space. The generation of the moving image is performed by, for example, the moving image generation unit 21d.

次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。   Next, the process proceeds to step S14, and the moving image generated in step S13 is distributed. This moving image is distributed to the client devices 10a to 10c and the other client devices via the network 50. This moving image may be distributed to the supporter computer 40 and projected on the screen S in the studio room R. The moving image is continuously distributed over a predetermined distribution period. The distribution period of the moving image may be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, and any other time.

次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、アクターA1及びアクターA2の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。   Next, the process proceeds to step S15, and it is determined whether or not a termination condition for terminating the distribution of the moving image is satisfied. The end condition is, for example, that the end time of the distribution has been reached, that the supporter computer 40 has given an instruction to end the distribution, or other conditions. If the end condition is not satisfied, the processing of steps S11 to S14 is repeatedly executed, and the distribution of the moving image including the animation synchronized with the movement of the actors A1 and A2 is continued. If it is determined that the end condition is satisfied for the moving image, the distribution process of the moving image ends.

次に、図10をさらに参照して、動画の配信中に行われる通常オブジェクトの表示処理について説明する。通常オブジェクトの表示処理は、図9に示した動画の配信処理と並行して行われる。   Next, display processing of a normal object performed during distribution of a moving image will be described with reference to FIG. The normal object display process is performed in parallel with the moving image distribution process shown in FIG.

動画の配信中に、ステップS21において、通常オブジェクトの表示要求がなされたか否かが判定される。例えば、第1視聴ユーザは、自らが保有する通常オブジェクトの中から一又は複数の特定の通常オブジェクトを選択し、この選択された通常オブジェクトの表示を要求する表示要求をクライアント装置10aからサーバ装置20に対して送信することができる。上述したように、所定の通常オブジェクトの購入処理又は決済処理がなされたことに応じて、当該所定の通常オブジェクトの表示要求が生成されてもよい。   During the distribution of the moving image, it is determined in step S21 whether or not a display request for a normal object has been made. For example, the first viewing user selects one or a plurality of specific normal objects from the normal objects held by the user, and issues a display request for displaying the selected normal object from the client device 10a to the server device 20. Can be sent to As described above, a display request for the predetermined normal object may be generated in response to the purchase processing or the settlement processing of the predetermined normal object being performed.

通常オブジェクトの表示要求がなされた場合には、当該表示処理はステップS22に進む。ステップS22においては、当該表示要求に基づいて、表示が要求された通常オブジェクトを配信中の動画に表示させるための処理が行われる。例えば、所定の動画の配信中に通常オブジェクト74の表示要求がなされると、図6に示されているように、当該動画の表示画面70内に表示要求がなされた通常オブジェクト74が表示される。   If a display request for a normal object has been made, the display processing proceeds to step S22. In step S22, based on the display request, a process for displaying the normal object requested to be displayed on the moving image being distributed is performed. For example, when a display request for the normal object 74 is made during distribution of a predetermined moving image, as shown in FIG. 6, the requested normal object 74 is displayed on the display screen 70 of the moving image. .

通常オブジェクトの表示要求がなされていない場合には、通常オブジェクトの表示処理は終了する。図10に示されている通常オブジェクトの表示処理は、動画の配信期間中に繰り返し行われる。   If the normal object display request has not been made, the normal object display processing ends. The display processing of the normal object shown in FIG. 10 is repeatedly performed during the moving image distribution period.

エフェクトオブジェクトの表示処理も、上述した通常オブジェクトの表示処理と同様の手順で行われ得る。例えば、所定の動画の配信中にエフェクトオブジェクト73の表示要求がなされると、図6に示されているように、当該動画の表示画面70内に表示要求がなされたエフェクトオブジェクト73が表示される。図6に示されているエフェクトオブジェクト73は、紙吹雪を模したオブジェクトである。紙吹雪を模したエフェクトオブジェクト73は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bと重複するように(または接するように)表示されているが、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの特定の部位と関連付けられていない点で装飾オブジェクトと異なる。   The display processing of the effect object can be performed in the same procedure as the display processing of the normal object described above. For example, when a display request for the effect object 73 is made during distribution of a predetermined moving image, as shown in FIG. 6, the effect object 73 for which the display request has been made is displayed on the display screen 70 of the moving image. . The effect object 73 shown in FIG. 6 is an object imitating confetti. The effect object 73 imitating confetti is displayed so as to overlap (or touch) the character objects 71A and 71B, but is not associated with a specific part of the character objects 71A and 71B. Differs from decorative objects in that

次に、図11をさらに参照して、動画の配信中に行われる装飾オブジェクトの表示処理について説明する。装飾オブジェクトの表示処理は、図9に示した動画の配信処理と並行して行われる。また、装飾オブジェクトの表示処理は、図10に示した通常オブジェクトの表示処理と並行して行われてもよい。   Next, a display process of a decorative object performed during distribution of a moving image will be described with reference to FIG. 11. The display processing of the decorative object is performed in parallel with the moving image distribution processing shown in FIG. Further, the display processing of the decoration object may be performed in parallel with the display processing of the normal object shown in FIG.

動画の配信中に、ステップS31において、装飾オブジェクトの表示要求がなされたか否かが判定される。例えば、第1視聴ユーザは、自らの装飾オブジェクトの中から第1装飾オブジェクトを選択し、この選択された第1装飾オブジェクトの表示を要求する表示要求をクライアント装置10aからサーバ装置20に対して送信することができる。   During the distribution of the moving image, in step S31, it is determined whether a display request for a decorative object has been made. For example, the first viewing user selects a first decoration object from his or her own decoration object, and transmits a display request for displaying the selected first decoration object from the client device 10a to the server device 20. can do.

第1装飾オブジェクトの表示要求がなされた場合には、当該表示処理はステップS32に進む。ステップS32においては、当該表示要求に基づいて、表示が要求された第1装飾オブジェクトが候補リストに追加される。候補リストは、配信中の動画に表示される装飾オブジェクトの候補となるオブジェクトのリストであり、例えば上述した候補リスト23dである。   If the display request for the first decoration object has been made, the display processing proceeds to step S32. In step S32, the first decoration object requested to be displayed is added to the candidate list based on the display request. The candidate list is a list of objects that are candidates for decorative objects displayed in the moving image being distributed, and is, for example, the candidate list 23d described above.

次に、ステップS33において、候補リストに格納されている装飾オブジェクトの中から、特定の装飾オブジェクトが選択されたか否かが判定される。   Next, in step S33, it is determined whether a specific decoration object has been selected from the decoration objects stored in the candidate list.

特定の装飾オブジェクトが選択された場合には、ステップS34において、当該選択された特定の装飾オブジェクト(「選択装飾オブジェクト」)を候補リストから削除するとともに、配信中の動画の表示画面に当該選択装飾オブジェクトを表示させるための処理が行われる。例えば、図5に示されている動画70の配信中に、候補リストから装飾オブジェクト75が選択されると、図7に示されているように、表示画像70内に選択された装飾オブジェクト75が表示される。ステップS31にて表示要求がなされた第1装飾オブジェクトは、動画の配信中に候補リストから選択されれば表示画像70に表示されるが、選択されなければ表示画像70には表示されない。   If a specific decoration object is selected, in step S34, the selected specific decoration object (“selected decoration object”) is deleted from the candidate list, and the selected decoration object is displayed on the display screen of the moving image being distributed. Processing for displaying the object is performed. For example, when a decoration object 75 is selected from the candidate list during distribution of the moving image 70 shown in FIG. 5, the selected decoration object 75 is displayed in the display image 70 as shown in FIG. Is displayed. The first decoration object for which the display request has been made in step S31 is displayed on the display image 70 if selected from the candidate list during distribution of the moving image, but is not displayed on the display image 70 if not selected.

ステップS33において、候補リストから装飾オブジェクトが選択されなかった場合、及び、ステップS34において選択装飾オブジェクトの表示処理が完了した場合には、装飾オブジェクトの表示処理は、ステップS35に進む。ステップS35においては、配信中の動画の配信が終了したか否かが判定される。このステップS35においては、例えばステップS15と同様の基準で判定が行われてもよい。ステップS35において配信が終了していないと判定されれば、装飾オブジェクトの表示処理はステップS31に戻り、ステップS31〜S35の処理が繰り返し実行される。配信が終了したと判定されれば、装飾オブジェクトの表示処理はステップS36に進む。   If no decorative object is selected from the candidate list in step S33, and if the display processing of the selected decorative object is completed in step S34, the display processing of the decorative object proceeds to step S35. In step S35, it is determined whether the distribution of the moving image being distributed has been completed. In step S35, for example, the determination may be made based on the same reference as in step S15. If it is determined in step S35 that the distribution has not been completed, the display processing of the decorative object returns to step S31, and the processing of steps S31 to S35 is repeatedly executed. If it is determined that the distribution has been completed, the display processing of the decorative object proceeds to step S36.

ステップS36では、動画の配信終了時において候補リストに残されている装飾オブジェクト(本明細書において、「非選択オブジェクト」と呼ぶことがある。)に関する処理が行われる。本明細書において、ステップS36で行われる処理は、非選択オブジェクト処理と呼ばれることがある。   In step S36, processing is performed on the decoration objects (which may be referred to as “non-selected objects” in the present specification) remaining in the candidate list at the end of moving image distribution. In this specification, the processing performed in step S36 may be referred to as non-selected object processing.

非選択オブジェクトは、視聴ユーザによって購入され、動画の配信中に表示要求がなされたものである。このため、ステップS36において実行される非選択オブジェクト処理は、非選択オブジェクトの表示要求を行った視聴ユーザに対して、当該非選択オブジェクトの購入費用を返金する処理であってもよい。他の態様において、非選択オブジェクト処理は、非選択オブジェクトを購入するための決済処理を取り消すための処理であってもよい。他の態様において、非選択オブジェクト処理は、非選択オブジェクトの表示要求を行った視聴ユーザに対して、当該非選択オブジェクトと異なる装飾オブジェクトを与える処理であってもよい。   The non-selected object is purchased by the viewing user, and has been requested to be displayed during distribution of the moving image. For this reason, the non-selected object process executed in step S36 may be a process of refunding the purchase cost of the non-selected object to the viewing user who has requested the display of the non-selected object. In another aspect, the non-selected object process may be a process for canceling a payment process for purchasing a non-selected object. In another aspect, the non-selected object process may be a process of giving a decorative object different from the non-selected object to the viewing user who has made the display request of the non-selected object.

他の態様において、非選択オブジェクト処理は、購入費用の返金又は決済処理の取り消しに代えて、動画配信システム1で使用できるポイントを当該非選択オブジェクトのユーザに付与する処理であってもよい。動画配信システム1は、動画を視聴するためにポイントを消費するように構成されてもよい。非選択オブジェクト処理によって非選択オブジェクトのユーザに付与されるポイントは、動画配信システム1における動画の視聴のために利用できるポイントであってもよい。   In another aspect, the non-selected object process may be a process of giving points that can be used in the video distribution system 1 to the user of the non-selected object, instead of refunding the purchase cost or canceling the payment process. The moving image distribution system 1 may be configured to consume points for viewing moving images. The points given to the user of the non-selected object by the non-selected object processing may be points that can be used for viewing a moving image in the moving image distribution system 1.

他の態様において、非選択オブジェクト処理は、保有リストにおいて、非選択オブジェクトを第1視聴ユーザが保有するオブジェクトとして追加する処理であってもよい。これにより、第1視聴ユーザは、非選択オブジェクトの返品を受けることができる。   In another aspect, the non-selected object process may be a process of adding the non-selected object to the holding list as an object held by the first viewing user. Thereby, the first viewing user can receive the returned non-selected object.

他の態様において、非選択オブジェクト処理は、動画の配信終了時の候補リストを、同じ配信者が次回に動画を配信する時まで保持するための処理であってもよい。これにより、当該配信者は、次回の動画配信時に、前回の動画配信時に使用された候補リストを引き継ぐことができる。この引き継がれた候補リストには、前回の動画配信時に表示要求されたが実際には動画に表示されなかった装飾オブジェクト(すなわち、非選択オブジェクト)が含まれている。これにより、前回の動画配信時における非選択オブジェクトを含む候補リストを用いて次回の動画配信が行われる。この非選択オブジェクトは、当該次回の動画配信において選択され、当該動画において表示される可能性がある。   In another aspect, the non-selected object process may be a process for holding a candidate list at the end of moving image distribution until the same distributor next distributes the moving image. Thereby, the distributor can take over the candidate list used at the time of the previous video distribution at the time of the next video distribution. The inherited candidate list includes decoration objects (that is, non-selected objects) that were requested to be displayed at the time of the previous moving image distribution but were not actually displayed in the moving image. Thereby, the next video distribution is performed using the candidate list including the non-selected object at the time of the previous video distribution. The non-selected object may be selected in the next moving image distribution and displayed in the moving image.

ステップS36における処理が完了した後、装飾オブジェクトの表示処理は終了する。   After the processing in step S36 is completed, the display processing of the decoration object ends.

一実施形態においては、動画配信内に、ギフトオブジェクトの表示が禁止されるオブジェクト表示禁止区間が設けられてもよい。図12は、オブジェクト表示禁止区間を模式的に説明する図である。図12は、時刻t1から時刻t2の間に動画が配信されていることを示している。つまり、時刻t1が動画の配信開始時刻であり、時刻t2が動画の配信終了時刻である。動画の配信期間のうち、時刻t3と時刻t4との間がオブジェクト表示禁止期間81である。このオブジェクト表示禁止期間81にギフトオブジェクトの表示要求r1がなされても、オブジェクト表示禁止期間81においては、当該ギフトオブジェクトは、当該動画の表示画像には表示されない。具体的には、オブジェクト表示禁止期間81においてギフトオブジェクトのうちエフェクトオブジェクト又は通常オブジェクトの表示要求がなされると、この表示が要求されたエフェクトオブジェクト又は通常オブジェクトは当該オブジェクト表示禁止期間81においては配信中の動画には表示されず、当該オブジェクト表示禁止期間81の経過後(つまり、時刻t4よりも後)の時点において、当該動画に表示される。また、オブジェクト表示禁止期間81において候補リストから装飾オブジェクトが選択されると、この選択された装飾オブジェクトは当該オブジェクト表示禁止期間81においては配信中の動画には表示されず、当該オブジェクト表示禁止期間81の経過後の時点において、当該動画に表示される。装飾オブジェクトの表示要求は、オブジェクト表示禁止期間81内に受け付けられてもよい。すなわち、オブジェクト表示禁止期間81において装飾オブジェクトの表示要求がなされた場合には、当該表示要求がなされた装飾オブジェクトがオブジェクト表示禁止期間81内であっても候補リストに追加されてもよい。   In one embodiment, an object display prohibition section in which display of a gift object is prohibited may be provided in the moving image distribution. FIG. 12 is a diagram schematically illustrating an object display prohibited section. FIG. 12 shows that a moving image is distributed between time t1 and time t2. That is, the time t1 is the distribution start time of the moving image, and the time t2 is the distribution end time of the moving image. In the moving image distribution period, an object display prohibition period 81 is between time t3 and time t4. Even if the display request r1 of the gift object is made during the object display prohibition period 81, the gift object is not displayed in the display image of the moving image during the object display prohibition period 81. Specifically, when a display request for an effect object or a normal object among the gift objects is made in the object display prohibition period 81, the effect object or the normal object whose display is requested is being distributed in the object display prohibition period 81. Is not displayed on the moving image, and is displayed on the moving image at a point in time after the elapse of the object display prohibition period 81 (that is, after time t4). Further, when a decoration object is selected from the candidate list in the object display prohibition period 81, the selected decoration object is not displayed in the moving image being distributed in the object display prohibition period 81, and is not displayed in the object display prohibition period 81. Is displayed on the moving image at the point in time after the elapse of. The display request of the decoration object may be received within the object display prohibition period 81. That is, when a display request for a decoration object is made during the object display prohibition period 81, the decoration object for which the display request has been made may be added to the candidate list even within the object display prohibition period 81.

上記の一実施形態によれば、ギフトオブジェクトには、装飾オブジェクト、通常オブジェクト、及びエフェクトオブジェクトの3種類が含まれる。このうち、キャラクタオブジェクトと関連付けて表示されるのは、装飾オブジェクトのみである。キャラクタオブジェクトのアニメーションが表示される動画においては、当該キャラクタオブジェクトのアニメーションが視聴ユーザの注目を集める要素と考えられる。例えば、図5〜図7に示されている動画では、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに注目が集まると考えられる。上記の一実施形態では、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bと関連付けて表示される装飾オブジェクトの表示要求があっても、当該装飾オブジェクトが候補リスト23dから選択されるまでは当該装飾オブジェクトを動画に表示しないことにより、キャラクタオブジェクトの周辺またはキャラクタオブジェクトに重複して装飾オブジェクトが乱雑に表示されることを防止できる。これにより、視聴ユーザの視聴体験の劣化を防止できる。   According to the embodiment, the gift object includes three types of the decoration object, the normal object, and the effect object. Among them, only the decoration object is displayed in association with the character object. In a moving image in which an animation of a character object is displayed, the animation of the character object is considered to be an element that attracts the attention of the viewing user. For example, in the moving images shown in FIGS. 5 to 7, it is considered that attention is focused on the character object 71A and the character object 71B. In the above embodiment, even if there is a display request for a decoration object displayed in association with the character object 71A and the character object 71B, the decoration object is displayed on the moving image until the decoration object is selected from the candidate list 23d. By not doing so, it is possible to prevent the decoration object from being displayed cluttered around the character object or overlapping the character object. This can prevent the viewing experience of the viewing user from deteriorating.

従来の動画配信システムにおいては、ギフトオブジェクトは、その種類を問わず、動画への表示要求がなされたことに応じて当該動画に表示されていた。よって、ギフトオブジェクトの動画への重複表示を許すと、当該動画に大量のギフトオブジェクトが表示されてしまい、当該動画を視聴するユーザの視聴体験が劣化してしまう。上記実施形態においては、ギフトオブジェクトにキャラクタオブジェクトと関連付けて表示される装飾オブジェクトというカテゴリを設けることにより、動画の主要部分であるキャラクタオブジェクトに関連付けて表示される装飾オブジェクトについては表示数(表示量)を抑制可能とした。   In a conventional moving image distribution system, a gift object is displayed on a moving image in response to a display request for the moving image, regardless of its type. Therefore, if overlapping display of a gift object on a moving image is permitted, a large amount of gift objects will be displayed on the moving image, and the viewing experience of a user who views the moving image will be degraded. In the above embodiment, by providing the gift object with the category of the decoration object displayed in association with the character object, the display number (display amount) of the decoration object displayed in association with the character object which is a main part of the moving image is displayed. Can be suppressed.

ギフトオブジェクトのうちの通常オブジェクト74は、視聴ユーザからの表示要求に応じて動画に表示される。上記の一実施形態において、通常オブジェクト74は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bとは接しないようにまたは重複しないように動画の表示画面70に表示されるので、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの視認性に与える影響が小さい。かかる態様によれば、キャラクタオブジェクトの視認性の悪化によるユーザの視聴体験の劣化を防止できる。   The normal object 74 of the gift objects is displayed on the moving image in response to a display request from the viewing user. In the above embodiment, the normal object 74 is displayed on the moving image display screen 70 so as not to touch or overlap with the character objects 71A and 71B. The effect on sex is small. According to this aspect, it is possible to prevent the viewing experience of the user from deteriorating due to the deterioration of the visibility of the character object.

ギフトオブジェクトのうちのエフェクトオブジェクト73及び通常オブジェクト74は、視聴ユーザからの表示要求に応じて動画に表示される。上記の一実施形態において、エフェクトオブジェクト73及び通常オブジェクト74は、装飾オブジェクト75よりも短時間だけ表示画面70に表示されるので、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの視認性に与える影響が小さい。かかる態様によれば、キャラクタオブジェクトの視認性の悪化によるユーザの視聴体験の劣化を防止できる。   The effect object 73 and the normal object 74 among the gift objects are displayed on the moving image in response to a display request from the viewing user. In the above-described embodiment, the effect object 73 and the normal object 74 are displayed on the display screen 70 for a shorter time than the decorative object 75, so that the effect on the visibility of the character objects 71A and 71B is small. According to this aspect, it is possible to prevent the viewing experience of the user from deteriorating due to the deterioration of the visibility of the character object.

上記実施形態においては、候補リスト23dからの装飾オブジェクトの選択が、当該装飾オブジェクトの表示要求を行った視聴ユーザではない者(例えばサポータB1、サポータB2、アクターA1、またはアクターA2)によってなされるため、装飾オブジェクトの表示数の抑制が可能となる。   In the above embodiment, the selection of the decoration object from the candidate list 23d is performed by a person (for example, the supporter B1, the supporter B2, the actor A1, or the actor A2) who is not the viewing user who has requested the display of the decoration object. Thus, the number of displayed decorative objects can be reduced.

上記実施形態によれば、オブジェクト表示禁止期間81においては、ギフトオブジェクトは動画に表示されない。これにより、作成された動画がギフトオブジェクトにより邪魔されることなく視聴される。例えば、動画においてアクターA1及びアクターA2が視覚的なパフォーマンスを披露する時間帯をオブジェクト表示禁止期間81とすることにより、第1オブジェクト及び装飾オブジェクトにより妨げられることなくアクターによるパフォーマンスを視聴者に見せることができる。   According to the above embodiment, in the object display prohibition period 81, the gift object is not displayed on the moving image. Thereby, the created moving image is viewed without being disturbed by the gift object. For example, by setting the time period during which the actor A1 and the actor A2 show a visual performance in a moving image to the object display inhibition period 81, the performance by the actor can be shown to the viewer without being disturbed by the first object and the decorative object. Can be.

上記実施形態によれば、キャラクタオブジェクト71Aやキャラクタオブジェクト71Bなどのキャラクタオブジェクトを含む動画を視聴する視聴ユーザは、当該キャラクタオブジェクトに愛着があると考えられる。よって、エフェクトオブジェクトや通常オブジェクトよりも、キャラクタオブジェクトに装飾オブジェクトを装着してもらうことで満足度が高まる。このように、キャラクタオブジェクトが装着可能な装飾オブジェクトにより、当該キャラクタオブジェクトが含まれる動画を繰り返し視聴する誘因をユーザに提供することができる。   According to the above embodiment, it is considered that a viewing user who watches a moving image including a character object such as the character object 71A or the character object 71B has an attachment to the character object. Therefore, satisfaction is increased by having the character object attached to the decoration object rather than the effect object or the normal object. As described above, the decoration object to which the character object can be attached can provide the user with an incentive to repeatedly view a moving image including the character object.

上記実施形態による動画配信システム1においては、ユーザがキャラクタに対して装飾オブジェクトを贈ることができる。これにより、かかる装飾オブジェクトを贈ることができないシステムと比べて、独自性の高いシステムを提供することができ、当該システムにより独自性の高いサービスを提供することができる。これにより、動画配信システム1により多くのユーザを惹き付けることができるので、動画配信システム1における動画の視聴回数を多くすることができる。   In the moving image distribution system 1 according to the above embodiment, the user can give a decoration object to the character. This makes it possible to provide a system with high uniqueness as compared with a system that cannot give such a decorative object, and to provide a service with high uniqueness by the system. As a result, more users can be attracted to the moving image distribution system 1, so that the number of times of viewing the moving images in the moving image distribution system 1 can be increased.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。   Embodiments of the present invention are not limited to the above-described embodiments, and various changes can be made without departing from the spirit of the present invention. For example, a moving image to be distributed may be captured and generated outside of the studio room R. For example, shooting for generating a moving image to be distributed may be performed at the actor's or supporter's home.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。   In the processing procedure described in this specification, in particular, in the processing procedure described using a flowchart, some of the steps (steps) configuring the processing procedure are omitted, and the steps configuring the processing procedure are omitted. Unspecified steps can be added and / or the order of the steps can be changed. The processing procedures in which such omissions, additions, and changes in order are made do not depart from the spirit of the present invention. Included in the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信システムであって、
一又は複数のコンピュータプロセッサを備え、
前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させ、
前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる、
動画配信システム。
[2]
前記第1オブジェクトは、前記キャラクタオブジェクトと接しないように前記動画に表示される通常オブジェクトである、
[1]に記載の動画配信システム。
[3]
前記装飾オブジェクトは、前記キャラクタオブジェクトの特定の部位と関連付けられて前記動画に表示される一方で、前記第1オブジェクトは前記キャラクタオブジェクトの特定の部位と関連付けられない、
[1]又は[2]に記載の動画配信システム。
[4]
前記装飾オブジェクトは、前記キャラクタオブジェクトに関連付けられて当該キャラクタオブジェクトの動作に合わせて移動して表示される一方で、前記第1オブジェクトは指定された表示位置に表示される、
[1]又は[2]に記載の動画配信システム。
[5]
前記装飾オブジェクトは、前記装飾オブジェクトが前記視聴ユーザ以外によって選択された場合に前記動画に表示される、
[1]から[4]のいずれか1項に記載の動画配信システム。
[6]
前記装飾オブジェクトの選択は、前記動画の配信をサポートするサポーターによってなされる、
[5]に記載の動画配信システム。
[7]
前記装飾オブジェクトの選択は、前記アクターによってなされる、
[5]に記載の動画配信システム。
[8]
前記第2表示要求には、前記第1オブジェクトの表示位置を指定する表示位置指定パラメータが含まれており、
前記第1オブジェクトは、前記動画において、前記表示位置指定パラメータによって指定された位置に表示される、
[1]から[7]のいずれか1項に記載の動画配信システム。
[9]
前記第2表示要求には、前記第1オブジェクトの移動方向を指定する移動方向パラメータが含まれており、
前記第1オブジェクトは、前記動画において、前記移動方向パラメータによって指定された方向に移動するように表示される、
[1]から[8]のいずれか1項に記載の動画配信システム。
[10]
前記第2表示要求には、前記第1オブジェクトの軌道を指定する軌道パラメータが含まれており、
前記第1オブジェクトは、前記動画において、前記軌道パラメータによって指定された軌道上を移動するように表示される、
[1]から[9]のいずれか1項に記載の動画配信システム。
[11]
前記動画の配信期間内にオブジェクト表示禁止期間が設定され、
前記第1オブジェクト及び前記装飾オブジェクトは、前記動画の配信期間における前記オブジェクト表示禁止期間以外のタイミングで前記動画に表示される、
[1]から[10]のいずれか1項に記載の動画配信システム。
[12]
前記オブジェクト表示禁止期間に前記第2表示要求が受け付けられた場合には、前記第1オブジェクトは、前記オブジェクト表示禁止期間の経過後に前記動画に表示される、
[11]に記載の動画配信システム。
[13]
前記一又は複数のコンピュータプロセッサは、
前記視聴ユーザから前記第1オブジェクトを購入する購入要求を受け付け、
前記購入要求に応じて決済処理を行い、
前記第1オブジェクトが前記動画の配信終了時までに選択されなかった場合、前記決済処理を取り消す、
[1]から[12]のいずれか1項に記載の動画配信システム。
[14]
前記一又は複数のコンピュータプロセッサは、
前記視聴ユーザから前記第1オブジェクトを購入する購入要求を受け付け、
前記購入要求に応じて決済処理を行い、
前記第1オブジェクトが前記動画の配信終了時までに選択されなかった場合、前記視聴ユーザにポイントを付与する、
[1]から[12]のいずれか1項に記載の動画配信システム。
[15]
前記一又は複数のコンピュータプロセッサは、
前記視聴ユーザから第1装飾オブジェクトを購入する購入要求を受け付け、
前記購入要求に応じて前記視聴ユーザが保有するオブジェクトのリストである保有リストに前記第1装飾オブジェクトを追加し、
前記視聴ユーザから前記第1装飾オブジェクトの表示を要求する前記第1表示要求を受け付けたことに応じて、前記候補リストに前記第1装飾オブジェクトを追加するとともに前記保有リストから前記第1装飾オブジェクトを削除し、
前記第1装飾オブジェクトが前記動画の配信終了時までに選択されなかった場合に、前記保有リストへ前記第1装飾オブジェクトを追加する、
[1]から[12]のいずれか1項に記載の動画配信システム。
[16]
前記一又は複数のコンピュータプロセッサは、前記動画に関連して購入可能なギフトオブジェクトを購入するための購入情報を前記視聴ユーザに提供し、
前記ギフトオブジェクトは、前記装飾オブジェクト及び前記第1オブジェクトを含み、
前記ギフトオブジェクトは、前記動画においてのみ購入可能な固有ギフトオブジェクトと、前記動画以外の動画においても購入可能な共通ギフトオブジェクトと、を含む、
[1]から[14]のいずれか1項に記載の動画配信システム。
[17]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信方法であって、
前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させる工程と、
前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる工程と、
を備える動画配信方法。
[18]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信プログラムであって、
前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
一又は複数のコンピュータプロセッサに、
前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させる工程と、
前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる工程と、
を実行させる動画配信プログラム。
Hereinafter, the inventions described in the claims at the time of filing the original application of the present application are additionally described.
[1]
A moving image distribution system that distributes a moving image including a character object animation and a gift object generated based on a movement of an actor,
Comprising one or more computer processors,
The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object.
The one or more computer processors execute computer-readable instructions,
Displaying the decorative object on the moving image based on a first display request from a viewing user viewing the moving image;
Displaying the first object in the moving image based on a second display request from the viewing user;
Video distribution system.
[2]
The first object is a normal object displayed on the moving image so as not to contact the character object.
The moving image distribution system according to [1].
[3]
While the decorative object is displayed in the moving image in association with a specific part of the character object, the first object is not associated with a specific part of the character object.
The moving image distribution system according to [1] or [2].
[4]
While the decoration object is displayed in association with the character object in accordance with the motion of the character object, the first object is displayed at a designated display position.
The moving image distribution system according to [1] or [2].
[5]
The decoration object is displayed in the moving image when the decoration object is selected by a user other than the viewing user.
The moving image distribution system according to any one of [1] to [4].
[6]
The selection of the decorative object is made by a supporter supporting distribution of the moving image.
The moving image distribution system according to [5].
[7]
The selection of the decorative object is made by the actor;
The moving image distribution system according to [5].
[8]
The second display request includes a display position specification parameter that specifies a display position of the first object,
The first object is displayed in the moving image at a position designated by the display position designation parameter.
The moving image distribution system according to any one of [1] to [7].
[9]
The second display request includes a moving direction parameter that specifies a moving direction of the first object,
The first object is displayed in the moving image so as to move in a direction specified by the moving direction parameter.
The moving image distribution system according to any one of [1] to [8].
[10]
The second display request includes a trajectory parameter specifying a trajectory of the first object,
The first object is displayed so as to move on a trajectory specified by the trajectory parameter in the moving image.
The moving image distribution system according to any one of [1] to [9].
[11]
An object display prohibition period is set within the distribution period of the video,
The first object and the decoration object are displayed on the moving image at a timing other than the object display prohibition period in the moving image distribution period,
The moving image distribution system according to any one of [1] to [10].
[12]
When the second display request is received during the object display prohibition period, the first object is displayed on the moving image after the elapse of the object display prohibition period.
The moving image distribution system according to [11].
[13]
The one or more computer processors,
Receiving a purchase request to purchase the first object from the viewing user;
Perform payment processing in response to the purchase request,
If the first object has not been selected by the end of the distribution of the moving image, cancel the settlement process;
The moving image distribution system according to any one of [1] to [12].
[14]
The one or more computer processors,
Receiving a purchase request to purchase the first object from the viewing user;
Perform payment processing in response to the purchase request,
If the first object has not been selected by the end of the distribution of the moving image, points are given to the viewing user;
The moving image distribution system according to any one of [1] to [12].
[15]
The one or more computer processors,
Receiving a purchase request for purchasing a first decorative object from the viewing user;
Adding the first decorative object to a holding list that is a list of objects held by the viewing user in response to the purchase request;
In response to receiving the first display request for requesting the display of the first decorative object from the viewing user, adding the first decorative object to the candidate list and deleting the first decorative object from the holding list. Delete
Adding the first decoration object to the holding list when the first decoration object is not selected by the end of the distribution of the moving image;
The moving image distribution system according to any one of [1] to [12].
[16]
The one or more computer processors provide the viewing user with purchase information for purchasing a purchaseable gift object in connection with the video;
The gift object includes the decoration object and the first object,
The gift object includes a unique gift object that can be purchased only in the video, and a common gift object that can be purchased in a video other than the video.
The moving image distribution system according to any one of [1] to [14].
[17]
A moving image distribution method for distributing a moving image including an animation of a character object and a gift object generated based on a movement of an actor by executing computer-readable instructions by one or a plurality of computer processors,
The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object.
Displaying the decorative object in the moving image based on a first display request from a viewing user viewing the moving image;
Displaying the first object in the moving image based on a second display request from the viewing user;
A video distribution method comprising:
[18]
A moving image distribution program that distributes a moving image including a character object animation and a gift object generated based on a movement of an actor,
The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object.
To one or more computer processors,
Displaying the decorative object in the moving image based on a first display request from a viewing user viewing the moving image;
Displaying the first object in the moving image based on a second display request from the viewing user;
A video distribution program that runs

1 動画配信システム   1. Video distribution system

Claims (18)

アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信システムであって、
一又は複数のコンピュータプロセッサを備え、
前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させ、
前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる、動画配信システム。
A moving image distribution system that distributes a moving image including a character object animation and a gift object generated based on a movement of an actor,
Comprising one or more computer processors,
The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object.
The one or more computer processors execute computer-readable instructions,
Displaying the decorative object on the moving image based on a first display request from a viewing user viewing the moving image;
A moving image distribution system that displays the first object on the moving image based on a second display request from the viewing user.
前記第1オブジェクトは、前記キャラクタオブジェクトと接しないように前記動画に表示される通常オブジェクトである、
請求項1に記載の動画配信システム。
The first object is a normal object displayed on the moving image so as not to contact the character object.
The moving image distribution system according to claim 1.
前記装飾オブジェクトは、前記キャラクタオブジェクトの特定の部位と関連付けられて前記動画に表示される一方で、前記第1オブジェクトは前記キャラクタオブジェクトの特定の部位と関連付けられない、
請求項1又は請求項2に記載の動画配信システム。
The decorative object is associated with a specific part of the character object and displayed in the moving image, while the first object is not associated with a specific part of the character object.
The moving image distribution system according to claim 1 or 2.
前記装飾オブジェクトは、前記キャラクタオブジェクトに関連付けられて当該キャラクタオブジェクトの動作に合わせて移動して表示される一方で、前記第1オブジェクトは指定された表示位置に表示される、
請求項1又は請求項2に記載の動画配信システム。
The decoration object is associated with the character object and moved and displayed according to the motion of the character object, while the first object is displayed at a specified display position.
The moving image distribution system according to claim 1 or 2.
前記装飾オブジェクトは、前記装飾オブジェクトが前記視聴ユーザ以外によって選択された場合に前記動画に表示される、
請求項1から請求項4のいずれか1項に記載の動画配信システム。
The decoration object is displayed in the moving image when the decoration object is selected by a user other than the viewing user.
The moving image distribution system according to any one of claims 1 to 4.
前記装飾オブジェクトの選択は、前記動画の配信をサポートするサポーターによってなされる、
請求項5に記載の動画配信システム。
The selection of the decorative object is made by a supporter supporting distribution of the moving image.
The moving image distribution system according to claim 5.
前記装飾オブジェクトの選択は、前記アクターによってなされる、
請求項5に記載の動画配信システム。
The selection of the decorative object is made by the actor;
The moving image distribution system according to claim 5.
前記第2表示要求には、前記第1オブジェクトの表示位置を指定する表示位置指定パラメータが含まれており、
前記第1オブジェクトは、前記動画において、前記表示位置指定パラメータによって指定された位置に表示される、
請求項1から請求項7のいずれか1項に記載の動画配信システム。
The second display request includes a display position specification parameter that specifies a display position of the first object,
The first object is displayed in the moving image at a position designated by the display position designation parameter.
The moving image distribution system according to any one of claims 1 to 7.
前記第2表示要求には、前記第1オブジェクトの移動方向を指定する移動方向パラメータが含まれており、
前記第1オブジェクトは、前記動画において、前記移動方向パラメータによって指定された方向に移動するように表示される、
請求項1から請求項8のいずれか1項に記載の動画配信システム。
The second display request includes a moving direction parameter that specifies a moving direction of the first object,
The first object is displayed in the moving image so as to move in a direction specified by the moving direction parameter.
The moving image distribution system according to any one of claims 1 to 8.
前記第2表示要求には、前記第1オブジェクトの軌道を指定する軌道パラメータが含まれており、
前記第1オブジェクトは、前記動画において、前記軌道パラメータによって指定された軌道上を移動するように表示される、
請求項1から請求項9のいずれか1項に記載の動画配信システム。
The second display request includes a trajectory parameter specifying a trajectory of the first object,
The first object is displayed so as to move on a trajectory specified by the trajectory parameter in the moving image.
The moving image distribution system according to any one of claims 1 to 9.
前記動画の配信期間内にオブジェクト表示禁止期間が設定され、
前記第1オブジェクト及び前記装飾オブジェクトは、前記動画の配信期間における前記オブジェクト表示禁止期間以外のタイミングで前記動画に表示される、
請求項1から請求項10のいずれか1項に記載の動画配信システム。
An object display prohibition period is set within the distribution period of the video,
The first object and the decoration object are displayed on the moving image at a timing other than the object display prohibition period in the moving image distribution period,
The moving image distribution system according to any one of claims 1 to 10.
前記オブジェクト表示禁止期間に前記第2表示要求が受け付けられた場合には、前記第1オブジェクトは、前記オブジェクト表示禁止期間の経過後に前記動画に表示される、
請求項11に記載の動画配信システム。
When the second display request is received during the object display prohibition period, the first object is displayed on the moving image after the elapse of the object display prohibition period.
The moving image distribution system according to claim 11.
前記一又は複数のコンピュータプロセッサは、
前記視聴ユーザから前記第1オブジェクトを購入する購入要求を受け付け、
前記購入要求に応じて決済処理を行い、
前記第1オブジェクトが前記動画の配信終了時までに選択されなかった場合、前記決済処理を取り消す、
請求項1から請求項12のいずれか1項に記載の動画配信システム。
The one or more computer processors,
Receiving a purchase request to purchase the first object from the viewing user;
Perform payment processing in response to the purchase request,
If the first object has not been selected by the end of the distribution of the moving image, cancel the settlement process;
The moving image distribution system according to any one of claims 1 to 12.
前記一又は複数のコンピュータプロセッサは、
前記視聴ユーザから前記第1オブジェクトを購入する購入要求を受け付け、
前記購入要求に応じて決済処理を行い、
前記第1オブジェクトが前記動画の配信終了時までに選択されなかった場合、前記視聴ユーザにポイントを付与する、
請求項1から請求項12のいずれか1項に記載の動画配信システム。
The one or more computer processors,
Receiving a purchase request to purchase the first object from the viewing user;
Perform payment processing in response to the purchase request,
If the first object has not been selected by the end of the distribution of the moving image, points are given to the viewing user;
The moving image distribution system according to any one of claims 1 to 12.
前記一又は複数のコンピュータプロセッサは、
前記視聴ユーザから第1装飾オブジェクトを購入する購入要求を受け付け、
前記購入要求に応じて前記視聴ユーザが保有するオブジェクトのリストである保有リストに前記第1装飾オブジェクトを追加し、
前記視聴ユーザから前記第1装飾オブジェクトの表示を要求する前記第1表示要求を受け付けたことに応じて、候補リストに前記第1装飾オブジェクトを追加するとともに前記保有リストから前記第1装飾オブジェクトを削除し、
前記第1装飾オブジェクトが前記動画の配信終了時までに選択されなかった場合に、前記保有リストへ前記第1装飾オブジェクトを追加する、
請求項1から請求項12のいずれか1項に記載の動画配信システム。
The one or more computer processors,
Receiving a purchase request for purchasing a first decorative object from the viewing user;
Adding the first decorative object to a holding list that is a list of objects held by the viewing user in response to the purchase request;
In response to receiving the first display request requesting display of the first decorative object from the viewing user, adding the first decorative object to a candidate list and deleting the first decorative object from the holding list And
Adding the first decoration object to the holding list when the first decoration object is not selected by the end of the distribution of the moving image;
The moving image distribution system according to any one of claims 1 to 12.
前記一又は複数のコンピュータプロセッサは、前記動画に関連して購入可能なギフトオブジェクトを購入するための購入情報を前記視聴ユーザに提供し、
前記ギフトオブジェクトは、前記装飾オブジェクト及び前記第1オブジェクトを含み、
前記ギフトオブジェクトは、前記動画においてのみ購入可能な固有ギフトオブジェクトと、前記動画以外の動画においても購入可能な共通ギフトオブジェクトと、を含む、
請求項1から請求項14のいずれか1項に記載の動画配信システム。
The one or more computer processors provide the viewing user with purchase information for purchasing a purchaseable gift object in connection with the video;
The gift object includes the decoration object and the first object,
The gift object includes a unique gift object that can be purchased only in the video, and a common gift object that can be purchased in a video other than the video.
The moving image distribution system according to any one of claims 1 to 14.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信方法であって、
前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させる工程と、
前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる工程と、
を備える動画配信方法。
A moving image distribution method for distributing a moving image including an animation of a character object and a gift object generated based on a movement of an actor by executing computer-readable instructions by one or a plurality of computer processors,
The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object.
Displaying the decorative object in the moving image based on a first display request from a viewing user viewing the moving image;
Displaying the first object in the moving image based on a second display request from the viewing user;
A video distribution method comprising:
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信プログラムであって、
前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
一又は複数のコンピュータプロセッサに、
前記動画を視聴する視聴ユーザからの第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させる工程と、
前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる工程と、
を実行させる動画配信プログラム。
A moving image distribution program that distributes a moving image including a character object animation and a gift object generated based on a movement of an actor,
The gift object includes a decoration object displayed in the moving image in association with the character object, and a first object different from the decoration object.
To one or more computer processors,
Displaying the decorative object in the moving image based on a first display request from a viewing user viewing the moving image;
Displaying the first object in the moving image based on a second display request from the viewing user;
A video distribution program that runs
JP2019203861A 2019-11-11 2019-11-11 Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor Pending JP2020043578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203861A JP2020043578A (en) 2019-11-11 2019-11-11 Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203861A JP2020043578A (en) 2019-11-11 2019-11-11 Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018193258A Division JP2019198057A (en) 2018-05-08 2018-10-12 Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement

Publications (1)

Publication Number Publication Date
JP2020043578A true JP2020043578A (en) 2020-03-19

Family

ID=69798826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203861A Pending JP2020043578A (en) 2019-11-11 2019-11-11 Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor

Country Status (1)

Country Link
JP (1) JP2020043578A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7260833B1 (en) 2022-08-01 2023-04-19 株式会社Mixi Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033298A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012120098A (en) * 2010-12-03 2012-06-21 Linkt Co Ltd Information provision system
JP2015112386A (en) * 2013-12-13 2015-06-22 株式会社コナミデジタルエンタテインメント Game system, control method and computer program used for the same
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
WO2017159383A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033298A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012120098A (en) * 2010-12-03 2012-06-21 Linkt Co Ltd Information provision system
JP2015112386A (en) * 2013-12-13 2015-06-22 株式会社コナミデジタルエンタテインメント Game system, control method and computer program used for the same
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
WO2017159383A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ファンと一緒に放送をつくろう! 「ANICAST」にユーザーギフティング機能を追加, [ONLINE], JPN6019006120, 5 April 2018 (2018-04-05), JP, ISSN: 0004394135 *
東雲めぐ、誕生日スペシャル配信は今夜19時から, [ONLINE], JPN6019042891, 6 April 2018 (2018-04-06), ISSN: 0004394136 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7260833B1 (en) 2022-08-01 2023-04-19 株式会社Mixi Information processing device, information processing method, and program
JP2024019800A (en) * 2022-08-01 2024-02-14 株式会社Mixi Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP6382468B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6420930B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
KR102481333B1 (en) A moving image distribution system, a moving image distribution method, and a moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor.
US20210409827A1 (en) Video distribution system distributing video that includes message from viewing user
JP7462912B2 (en) Video distribution system, video distribution method, and video distribution program
JP6847138B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP2024023273A (en) Video distribution system for distributing video including animation of character object generated based on motion of actor, video distribution method and video distribution program
JP7509389B2 (en) Video distribution system for distributing videos including messages from viewers
JP2020043578A (en) Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
KR20210025102A (en) A moving image distribution system, a moving image distribution method, and a moving image distribution program for live distribution of moving images including animations of character objects generated based on the movement of the distribution user
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP6713080B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including animation of character objects generated based on movements of distribution users
JP6764442B2 (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors.
JP2020005238A (en) Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor
JP6431242B1 (en) Video distribution system that distributes video including messages from viewing users
JP6592214B1 (en) Video distribution system that distributes video including messages from viewing users
JP2019198057A (en) Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191111

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200915

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200925

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201127

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201201

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210518

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210706

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210817

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210817