JP2022003776A - Video distribution system, video distribution method, and video distribution program live-distributing video including animation of character object generated based on movement of distribution user - Google Patents
Video distribution system, video distribution method, and video distribution program live-distributing video including animation of character object generated based on movement of distribution user Download PDFInfo
- Publication number
- JP2022003776A JP2022003776A JP2021141247A JP2021141247A JP2022003776A JP 2022003776 A JP2022003776 A JP 2022003776A JP 2021141247 A JP2021141247 A JP 2021141247A JP 2021141247 A JP2021141247 A JP 2021141247A JP 2022003776 A JP2022003776 A JP 2022003776A
- Authority
- JP
- Japan
- Prior art keywords
- user
- users
- starring
- video
- guest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 132
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000008569 process Effects 0.000 claims description 38
- 230000003213 activating effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 86
- 230000006870 function Effects 0.000 description 41
- 230000008451 emotion Effects 0.000 description 38
- 230000004044 response Effects 0.000 description 20
- 238000011156 evaluation Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 15
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 14
- 210000003128 head Anatomy 0.000 description 14
- 230000008921 facial expression Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000010079 rubber tapping Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 210000003050 axon Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本明細書における開示は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラムに関する。 The disclosure in the present specification relates to a video distribution system, a video distribution method, and a video distribution program for live distribution of a video including an animation of a character object generated based on a movement of a distribution user.
従来から、配信ユーザの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015−184689号公報(特許文献1)及び「長谷川 雄介,ヴァーチャルアイドル新時代の幕開け PROJECT Maria,CG WORLD,日本,株式会社ボーンデジタル,2017年11月10日,第231巻,pp.74−79」(非特許文献1)に開示されている。 Conventionally, there has been known a video distribution system that generates an animation of a character object based on the movement of a distribution user and distributes a video including the animation of the character object live. Such a video distribution system is, for example, JP-A-2015-184689 (Patent Document 1) and "Yusuke Hasegawa, the dawn of a new era of virtual idols PROJECT Maria, CG WORLD, Japan, Bone Digital Co., Ltd., November 2017. 10th, Vol. 231 pp. 74-79 ”(Non-Patent Document 1).
配信ユーザの動きに基づいて生成されたキャラクタオブジェクトを含む動画を配信する動画配信サービスが提供されている。このようなサービスとして、株式会社ドワンゴが提供する「バーチャルキャスト」が知られている。バーチャルキャストでは、ある配信ユーザが配信している動画に当該動画を視聴している視聴ユーザからの共演リクエストに応じて当該視聴ユーザのキャラクタオブジェクトが当該動画に含められる。これにより、配信ユーザと視聴ユーザとが各々のキャラクタオブジェクトを介して動画内で仮想的に共演する(非特許文献2参照)。 A video distribution service that distributes a video containing a character object generated based on the movement of a distribution user is provided. As such a service, "Virtual Cast" provided by Dwango Co., Ltd. is known. In the virtual cast, the character object of the viewing user is included in the video in response to the co-starring request from the viewing user who is viewing the video in the video distributed by the distribution user. As a result, the distribution user and the viewing user virtually co-star in the moving image via their respective character objects (see Non-Patent Document 2).
配信動画を視聴する視聴ユーザの数が多くなると視聴ユーザから配信ユーザに対して大量の共演要求が送られる可能性がある。配信動画のクオリティを保つために、どのような視聴ユーザが共演相手であるかは、配信ユーザにとって重大な関心事である。大量の共演要求がなされると、配信ユーザにとっては大量の共演要求の中から共演相手としてふさわしい視聴ユーザを選択することが難しくなる。 When the number of viewing users who watch the distributed video increases, there is a possibility that a large number of co-starring requests are sent from the viewing users to the distribution users. In order to maintain the quality of the delivered video, what kind of viewing user is the co-starring partner is a serious concern for the delivered user. When a large number of co-starring requests are made, it becomes difficult for the distribution user to select a viewing user suitable as a co-starring partner from the large number of co-starring requests.
視聴ユーザからの共演要求に基づいて当該視聴ユーザの共演可否を決定し、その決定された共演可否を示す通知を視聴ユーザに対して送信する場合には、当該通知を生成して送信するための処理負荷及び通信トラフィックが増大するという問題がある。上記の問題は、視聴ユーザの数が増加するほど深刻化することになる。人気のある配信ユーザは、数万人以上の視聴ユーザを得ると考えられるので、上記の問題を解決又は緩和するための技術的な対応が求められる。 When determining whether or not the viewing user can co-star based on the co-starring request from the viewing user and sending a notification indicating the determined co-starring or not to the viewing user, the notification is to be generated and transmitted. There is a problem that the processing load and communication traffic increase. The above problem becomes more serious as the number of viewing users increases. Since popular distribution users are expected to obtain tens of thousands or more viewing users, technical measures are required to solve or alleviate the above problems.
本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、視聴ユーザからの共演要求によって必要となる処理に関する処理負荷を低減することができる動画配信システム、動画配信方法及び動画配信プログラムを提供することである。 An object of the present disclosure is to provide technical improvements that solve or alleviate at least some of the problems of the prior art described above. One of the more specific purposes of the present disclosure is to provide a video distribution system, a video distribution method, and a video distribution program that can reduce the processing load related to the processing required by the co-starring request from the viewing user. ..
本発明の一態様は、一又は複数のコンピュータプロセッサを備え、動画配信システムに関する。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、配信ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む動画を複数の視聴ユーザの各々のクライアント装置に配信し、前記複数の視聴ユーザから前記動画への参加要求を受け付けたことに応じて、前記複数の視聴ユーザの中から複数の参加ユーザを選定し、前記複数の参加ユーザの各々に対応する複数の第2キャラクタオブジェクトを前記動画内に含め、前記複数の参加ユーザの少なくとも一部から前記配信ユーザとの共演を申請する共演要求を受け付け、前記共演要求を行った参加ユーザの中から一又は複数のゲストユーザを選定し、前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信し、前記第2キャラクタオブジェクトのうち前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクトを前記動画内に含める。 One aspect of the present invention relates to a video distribution system comprising one or more computer processors. The one or more computer processors distribute a moving image including a first character object generated based on a movement of a distribution user to each client device of a plurality of viewing users by executing a computer-readable instruction. , A plurality of participating users are selected from the plurality of viewing users in response to receiving requests for participation in the video from the plurality of viewing users, and a plurality of numbers corresponding to each of the plurality of participating users. Two character objects are included in the video, and at least a part of the plurality of participating users accepts a co-starring request for co-starring with the distribution user, and one or more guests from the participating users who have made the co-starring request. Select a user, send a notification regarding the selection of the one or more guest users to each of the one or more guest users, and correspond to at least a part of the one or more guest users in the second character object. The guest character object to be used is included in the moving image.
一態様において、前記一又は複数のコンピュータプロセッサは、前記複数の参加ユーザの各々のクライアント装置において前記共演要求を行うための機能をアクティベートさせるためのコマンドを前記複数の参加ユーザの各々のクライアント装置に送信する。 In one embodiment, the one or more computer processors issues a command to each client device of the plurality of participating users to activate a function for making the co-starring request in each client device of the plurality of participating users. Send.
一態様において、前記複数の参加ユーザのうちの一の参加ユーザからの前記共演要求には前記一の参加ユーザからのメッセージが含まれる。 In one aspect, the co-starring request from one of the plurality of participating users includes a message from the one participating user.
一態様において、前記複数の参加ユーザのうちの一の参加ユーザからの前記共演要求には前記一の参加ユーザからのモーションデータが含まれる。前記一又は複数のコンピュータプロセッサは、前記一の参加ユーザに対応する前記第2キャラクタオブジェクトに前記動画内において前記モーションデータに対応する動作を行わせる。 In one aspect, the co-starring request from one of the plurality of participating users includes motion data from the one participating user. The one or more computer processors causes the second character object corresponding to the one participating user to perform an operation corresponding to the motion data in the moving image.
一態様において、前記参加要求に基づく前記複数の参加ユーザの選定は、所定のアルゴリズムに基づいて行われる。 In one embodiment, the selection of the plurality of participating users based on the participation request is performed based on a predetermined algorithm.
一態様において、前記共演要求に基づく前記一又は複数のゲストユーザの選定は、前記配信ユーザの選択に応じて行われる。 In one embodiment, the selection of the one or more guest users based on the co-starring request is performed according to the selection of the distribution user.
前記一又は複数のコンピュータプロセッサは、前記複数の参加ユーザ以外の前記複数の視聴ユーザに対しては、前記複数の参加ユーザの選定に関する通知を送信しない。 The one or more computer processors do not send a notification regarding the selection of the plurality of participating users to the plurality of viewing users other than the plurality of participating users.
本発明の一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法に関する。動画配信方法は、配信ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む動画を複数の視聴ユーザの各々のクライアント装置に配信する工程と、前記複数の視聴ユーザから前記動画への参加要求を受け付けたことに応じて、前記複数の視聴ユーザの中から複数の参加ユーザを選定する工程と、前記複数の参加ユーザの各々に対応する複数の第2キャラクタオブジェクトを前記動画内に含める工程と、前記複数の参加ユーザの少なくとも一部から前記配信ユーザとの共演を申請する共演要求を受け付け、前記共演要求を行った参加ユーザの中から一又は複数のゲストユーザを選定する工程と、前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信する工程と、前記第2キャラクタオブジェクトのうち前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクトを前記動画内に含める工程と、を備える。 One aspect of the invention relates to a video distribution method executed by one or more computer processors executing computer-readable instructions. The video distribution method includes a step of distributing a video including a first character object generated based on the movement of a distribution user to each client device of a plurality of viewing users, and a request for participation in the video from the plurality of viewing users. A step of selecting a plurality of participating users from the plurality of viewing users according to the acceptance of the above, and a step of including a plurality of second character objects corresponding to each of the plurality of participating users in the moving image. The process of receiving a co-starring request for co-starring with the distribution user from at least a part of the plurality of participating users and selecting one or a plurality of guest users from the participating users who have made the co-starring request, and the above-mentioned one. Alternatively, a step of transmitting a notification regarding selection of a plurality of guest users to each of the one or a plurality of guest users, and a guest character object corresponding to at least a part of the one or a plurality of guest users among the second character objects. The process of including in the moving image is provided.
本発明の一態様は、動画配信プログラムに関する。この動画配信プログラムは、一又は複数のコンピュータプロセッサに、配信ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む動画を複数の視聴ユーザの各々のクライアント装置に配信する工程と、前記複数の視聴ユーザから前記動画への参加要求を受け付けたことに応じて、前記複数の視聴ユーザの中から複数の参加ユーザを選定する工程と、前記複数の参加ユーザの各々に対応する複数の第2キャラクタオブジェクトを前記動画内に含める工程と、前記複数の参加ユーザの少なくとも一部から前記配信ユーザとの共演を申請する共演要求を受け付け、前記共演要求を行った参加ユーザの中から一又は複数のゲストユーザを選定する工程と、前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信する工程と、前記第2キャラクタオブジェクトのうち前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクトを前記動画内に含める工程と、を実行させる。 One aspect of the present invention relates to a video distribution program. This video distribution program includes a step of distributing a video including a first character object generated based on a movement of a distribution user to one or a plurality of computer processors to each client device of a plurality of viewing users, and the plurality of steps. A process of selecting a plurality of participating users from the plurality of viewing users in response to receiving a request for participation in the video from the viewing user, and a plurality of second characters corresponding to each of the plurality of participating users. One or more guests from among the participating users who received the process of including the object in the video and the co-starring request from at least a part of the plurality of participating users to apply for co-starring with the distribution user and made the co-starring request. A step of selecting a user, a step of transmitting a notification regarding the selection of the one or more guest users to each of the one or a plurality of guest users, and a step of transmitting at least one or a plurality of the guest users of the second character object. The process of including the guest character object corresponding to a part in the moving image is executed.
本発明の実施形態によれば、視聴ユーザからの共演要求によって必要となる処理に関する処理負荷を低減することができる。 According to the embodiment of the present invention, it is possible to reduce the processing load related to the processing required by the co-starring request from the viewing user.
以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings as appropriate. The same or similar components are designated by the same reference numerals in a plurality of drawings.
図1を参照して、本発明の一実施形態による動画配信システムの概略について説明する。図1は、本発明の一実施形態による動画配信システム1の概略を示すブロック図である。図示のように、動画配信システム1は、クライアント装置10と、サーバ装置20と、を備える。図示を簡略化するために図1にはクライアント装置10が1つだけ図示されているが、動画配信システム1は、複数のクライアント装置10を備えることができる。サーバ装置20は、動画を配信するように構成される。クライアント装置10は、サーバ装置20から配信された動画を再生するように構成される。視聴ユーザは、クライアント装置10を用いて、サーバ装置20から配信された動画を視聴することができる。サーバ装置20は、後述するように、配信ユーザのキャラクタオブジェクトのアニメーションを含む動画を配信するように構成されてもよい。 An outline of a video distribution system according to an embodiment of the present invention will be described with reference to FIG. 1. FIG. 1 is a block diagram showing an outline of a moving image distribution system 1 according to an embodiment of the present invention. As shown in the figure, the moving image distribution system 1 includes a client device 10 and a server device 20. Although only one client device 10 is shown in FIG. 1 for simplification of illustration, the moving image distribution system 1 can include a plurality of client devices 10. The server device 20 is configured to deliver a moving image. The client device 10 is configured to play a moving image distributed from the server device 20. The viewing user can view the moving image delivered from the server device 20 by using the client device 10. As will be described later, the server device 20 may be configured to distribute a moving image including an animation of a character object of a distribution user.
視聴ユーザは、配信された動画をクライアント装置10により視聴している間に、当該動画に自らのキャラクタオブジェクトを表示させるための参加要求をサーバ装置20に送信することができる。サーバ装置20は、当該参加要求に基づいて当該視聴ユーザのキャラクタオブジェクトを動画に表示するか否かを決定する。サーバ装置20は、この決定に応じて、当該視聴ユーザのキャラクタオブジェクトを含むように動画を生成し、その視聴ユーザのキャラクタオブジェクトを含む動画を配信することができる。このようにして、視聴ユーザは、自らのキャラクタオブジェクトを介してサーバ装置20から配信される動画に参加することができる。複数の視聴ユーザのうち配信中の動画に自らのキャラクタオブジェクトが表示されている視聴ユーザ、すなわち、自らのキャラクタオブジェクトを介して動画に参加している視聴ユーザを参加ユーザと呼ぶことがある。動画への参加を許可される参加ユーザの数には上限が設けられてもよい。サーバ装置20は、参加要求を行った複数の視聴ユーザの中から上限数以下の参加ユーザを選定することができる。 The viewing user can send a participation request for displaying his / her character object on the moving image to the server device 20 while the viewing moving image is being viewed by the client device 10. The server device 20 determines whether or not to display the character object of the viewing user in the moving image based on the participation request. In response to this determination, the server device 20 can generate a moving image so as to include the character object of the viewing user, and can distribute the moving image including the character object of the viewing user. In this way, the viewing user can participate in the moving image distributed from the server device 20 via his / her character object. Of a plurality of viewing users, a viewing user whose character object is displayed in the video being distributed, that is, a viewing user who participates in the video via his / her character object may be referred to as a participating user. There may be an upper limit on the number of participating users who are allowed to participate in the video. The server device 20 can select a maximum number of participating users or less from a plurality of viewing users who have requested participation.
参加ユーザは、クライアント装置10を用いて、配信ユーザとの共演を申し込むための共演要求をサーバ装置20に送信することができる。サーバ装置20は、共演要求を受け取ると、当該共演要求を送信した参加ユーザと配信ユーザとの共演を許可するか否かを決定する。サーバ装置20は、当該参加ユーザと当該配信ユーザとの共演を許可する決定がなされた場合、配信ユーザのキャラクタオブジェクトと参加ユーザのキャラクタオブジェクトとを含む共演動画を生成し、この共演動画を配信することができる。このようにして、動画配信システム1においては、配信ユーザと視聴ユーザとが各々のキャラクタオブジェクトを介して動画内で仮想的に共演することができる。配信ユーザと視聴ユーザとが各々のキャラクタオブジェクトを介して動画内で仮想的に共演している場合、その動画を共演動画と呼ぶことがある。また、共演動画において配信ユーザと共演している視聴ユーザをゲストユーザと呼ぶことがある。ゲストユーザは、一人でもよいし複数人でもよい。複数のゲストユーザが決定された場合には、配信ユーザは、その複数のゲストユーザと順次共演することができる。 Participating users can use the client device 10 to send a co-starring request for applying for co-starring with the distribution user to the server device 20. Upon receiving the co-starring request, the server device 20 determines whether or not to allow co-starring between the participating user and the distribution user who sent the co-starring request. When a decision is made to allow the participating user and the distribution user to co-star, the server device 20 generates a co-starring video including the character object of the distribution user and the character object of the participating user, and distributes the co-starring video. be able to. In this way, in the moving image distribution system 1, the distribution user and the viewing user can virtually co-star in the moving image via the respective character objects. When a distribution user and a viewing user virtually co-star in a video via their respective character objects, the video may be referred to as a co-star video. In addition, a viewing user who is co-starring with a distribution user in a co-starring video may be referred to as a guest user. The guest user may be one person or a plurality of people. When a plurality of guest users are determined, the distribution user can sequentially co-star with the plurality of guest users.
一実施形態において、動画配信システム1は、動画を視聴する視聴ユーザのうち、当該動画への参加要求が認められた参加ユーザのみから共演要求を受け付けるように構成される。例えば、参加要求が認められた参加ユーザのクライアント装置10において共演要求を行うための機能がアクティベートされる。これにより、視聴ユーザのうち参加ユーザのみから共演要求を受け付けることができる。視聴ユーザの数が多くなっても、クライアント装置10から受け付ける共演要求の数を抑制することができる。 In one embodiment, the moving image distribution system 1 is configured to accept a co-starring request only from the viewing users who are allowed to participate in the moving image among the viewing users who view the moving image. For example, the function for making a co-starring request is activated in the client device 10 of the participating user whose participation request is accepted. As a result, the co-starring request can be accepted only from the participating users among the viewing users. Even if the number of viewing users increases, the number of co-starring requests received from the client device 10 can be suppressed.
サーバ装置20は、視聴ユーザからの参加要求に基づいて当該視聴ユーザの参加可否を決定した後、参加要求を行った視聴ユーザ全員に対して当該動画への参加が許可されたか否かを示す通知を送信しないように構成されてもよい。配信される動画に参加が許可された視聴ユーザのキャラクタオブジェクトが含まれているので、視聴ユーザは、動画への参加が許可されたか否かを示す通知を受信しなくとも、視聴する動画に自らのキャラクタオブジェクトが含まれているか否かに基づいて自らの参加要求が許可されたか否かを知ることができる。このように、一実施形態においては、動画への視聴ユーザの参加が認められたか否かを示す情報は当該動画に含められているので、当該動画以外には、参加要求を行った視聴ユーザ全員に対して当該動画への視聴ユーザの参加が認められたか否かを示す通知は送信されない。これにより、動画配信システム1においては、参加要求を行った視聴ユーザ全員に対して、動画への視聴ユーザの参加が認められたか否かを示す通知を動画の配信と別に送信する必要がなくなる。視聴ユーザのうち動画への参加が認められた参加ユーザのクライアント装置10に対しては、参加が認められたことを示す通知が送信されてもよい。参加ユーザのクライアント装置10は、この参加が認められたことを示す通知を受け取ったことに応じて、当該参加ユーザが共演要求を行うための機能をアクティベートしてもよい。 The server device 20 determines whether or not the viewing user can participate based on the participation request from the viewing user, and then notifies all the viewing users who have made the participation request whether or not the participation in the video is permitted. May be configured not to send. Since the delivered video contains the character object of the viewing user who is allowed to participate, the viewing user can watch the video by himself / herself without receiving the notification indicating whether or not the viewing user is allowed to participate in the video. It is possible to know whether or not one's participation request is permitted based on whether or not the character object of is included. As described above, in one embodiment, since the information indicating whether or not the viewing user is permitted to participate in the video is included in the video, all the viewing users who have requested the participation other than the video are included. No notification is sent to indicate whether or not the viewing user is allowed to participate in the video. As a result, in the video distribution system 1, it is not necessary to send a notification indicating whether or not the viewing user is allowed to participate in the video to all the viewing users who have requested participation, separately from the distribution of the video. A notification indicating that participation may be permitted may be transmitted to the client device 10 of the participating user who is permitted to participate in the moving image among the viewing users. The client device 10 of the participating user may activate the function for the participating user to make a co-starring request in response to receiving the notification indicating that the participation is approved.
サーバ装置20は、参加ユーザからの共演要求に基づいて当該参加ユーザと配信ユーザとの共演の可否を決定した後、共演が許可された参加ユーザ(ゲストユーザ)に対して共演が許可されたことを通知する許可通知を送信するように構成されてもよい。ゲストユーザは、許可通知を受け取ることにより配信ユーザのキャラクタオブジェクトと動画において共演できることを知ることができる。ゲストユーザは、この共演が許可されたことを示す通知を受けた後に、共演に向けた準備を行うことができる。共演に向けた準備には、例えば、動画に表示される自らのキャラクタオブジェクト(例えば、アバタ)の描写をリッチにするための追加的なコンテンツ(例えば、アタバのパーツ)の購入を含んでもよい。サーバ装置20は、共演要求を行った参加ユーザのうち共演が許可されなかった参加ユーザに対して共演が許可されなかったことを通知する不許可通知を送信するように構成されてもよい。 After the server device 20 determines whether or not the participating user and the distribution user can co-star based on the co-starring request from the participating user, the co-starring is permitted to the participating user (guest user) who is permitted to co-star. May be configured to send a permission notice. By receiving the permission notification, the guest user can know that he / she can co-star with the character object of the distribution user in the video. The guest user can prepare for the co-starring after being notified that the co-starring is permitted. Preparations for co-starring may include, for example, the purchase of additional content (eg, avatar parts) to enrich the depiction of one's character object (eg, avatar) displayed in the video. The server device 20 may be configured to send a disapproval notice notifying that the co-starring is not permitted to the participating users who have made the co-starring request and the co-starring is not permitted.
動画配信システム1によれば、配信される動画以外には、参加要求を行った視聴ユーザ全員に対して当該参加要求が許可されたか否かを示す通知が送信されない。これにより、サーバ装置20における処理負荷が軽減され、また、通信トラフィックの増大を抑制することができる。他方、一実施形態においては、共演要求に基づいて共演が許可されたことを示す許可通知がゲストユーザに通知されるので、ゲストユーザは配信ユーザとの共演に向けた準備を行うことができる。ゲストユーザは、視聴ユーザ全体のうち参加要求が認められ、且つ、共演要求が認められたユーザであるから、その数は参加要求を行う視聴ユーザ全体の数と比べて少ないので、この許可通知の生成及び送信のために必要となる処理負荷は、視聴ユーザ全体に通知を送信する場合と比較して少ない。 According to the video distribution system 1, a notification indicating whether or not the participation request is permitted is not transmitted to all the viewing users who have made the participation request other than the video to be distributed. As a result, the processing load on the server device 20 can be reduced, and an increase in communication traffic can be suppressed. On the other hand, in one embodiment, the guest user is notified of the permission notification indicating that the co-starring is permitted based on the co-starring request, so that the guest user can prepare for the co-starring with the distribution user. Since the guest user is a user who has been granted a participation request and a co-starring request among all the viewing users, the number is smaller than the total number of viewing users who make a participation request. The processing load required for generation and transmission is less than when a notification is transmitted to the entire viewing user.
図2から図6を参照して、一実施形態による動画配信システムについて説明する。図2は、一実施形態による動画配信システム1を示すブロック図であり、図3は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図4及び図5は、動画配信システム1において記憶される情報を説明するための図であり、図6は、共演要求に含まれる情報を説明するための図である。 A moving image distribution system according to an embodiment will be described with reference to FIGS. 2 to 6. FIG. 2 is a block diagram showing a video distribution system 1 according to an embodiment, and FIG. 3 is a schematic diagram schematically showing equipment of a studio in which a video distributed by the video distribution system 1 is produced. 4 and 5 are diagrams for explaining the information stored in the moving image distribution system 1, and FIG. 6 is a diagram for explaining the information included in the co-starring request.
図2に示されているように、動画配信システム1は、図1に示したクライアント装置10及びサーバ装置20に加え、スタジオユニット30と、ストレージ25と、を備えることができる。図2に示した実施形態では、クライアント装置10として、3台のクライアント装置10a〜10cが示されている。クライアント装置10a〜10cと、サーバ装置20と、ストレージ25とは、ネットワーク15を介して相互に通信可能に接続されている。 As shown in FIG. 2, the moving image distribution system 1 can include a studio unit 30 and a storage 25 in addition to the client device 10 and the server device 20 shown in FIG. In the embodiment shown in FIG. 2, three client devices 10a to 10c are shown as the client device 10. The client devices 10a to 10c, the server device 20, and the storage 25 are connected to each other so as to be able to communicate with each other via the network 15.
動画は、サーバ装置20からクライアント装置10a〜10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。クライアント装置10a〜10c及びこれら以外のクライアント装置を利用してサーバ装置20から配信された動画を視聴するユーザを視聴ユーザと総称する。サーバ装置20から配信された動画を視聴するために、クライアント装置10a〜クライアント装置10cに、当該動画を視聴するための機能を実現する命令セットを有するアプリケーションソフトウェアをダウンロード及びインストールしてもよい。このようなサーバ装置20から配信された動画を視聴する機能を有するアプリケーションソフトウェアを「視聴アプリケーションソフトウェア」又は「視聴アプリ」と呼ぶことがある。サーバ装置20から配信される動画の視聴は、視聴アプリの機能を実行することにより行われてもよい。一実施形態においては、サーバ装置20から配信される動画の視聴は、クライアント装置10a〜クライアント装置10cのうち視聴アプリがインストールされたクライアント装置によって行われ、視聴アプリがインストールされていないクライアント装置からは実行できなくてもよい。サーバ装置20から配信される動画を視聴する視聴ユーザは、自らのキャラクタオブジェクトを当該動画に表示させることができる。言い換えると、視聴ユーザは、自らのキャラクタオブジェクトを介して、配信されている動画に参加することができる。このキャラクタオブジェクトの一例はアバタである。視聴ユーザは、配信されている動画に自らのアバタを表示させ、そのアバタを介して、動画の配信ユーザ(又は配信されている動画内のキャラクタ)や他の視聴ユーザと交流することができる。 The moving image may be delivered from the server device 20 to each of the client devices 10a to 10c. The first viewing user who is the user of the client device 10a, the second viewing user who is the user of the client device 10b, and the third viewing user who is the user of the client device 10c watch the delivered moving image by each client device. Can be done. The video distribution system 1 may be provided with a number of client devices less than three, or may be provided with a number of client devices more than three. Users who view moving images distributed from the server device 20 by using the client devices 10a to 10c and client devices other than these are collectively referred to as viewing users. In order to view the moving image delivered from the server device 20, application software having an instruction set that realizes a function for viewing the moving image may be downloaded and installed in the client devices 10a to 10c. Application software having a function of viewing a moving image distributed from such a server device 20 may be referred to as "viewing application software" or "viewing application". Viewing of the moving image delivered from the server device 20 may be performed by executing the function of the viewing application. In one embodiment, the video delivered from the server device 20 is viewed by the client device in which the viewing application is installed among the client devices 10a to 10c, and from the client device in which the viewing application is not installed. It does not have to be possible. A viewing user who watches a moving image distributed from the server device 20 can display his / her own character object on the moving image. In other words, the viewing user can participate in the video being distributed via his or her character object. An example of this character object is the avatar. The viewing user can display his / her own avatar on the distributed video and interact with the distribution user (or the character in the distributed video) of the video or other viewing users through the avatar.
クライアント装置10a〜10cは、スマートフォンなどの情報処理装置である。クライアント装置10a〜10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a〜10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。 The client devices 10a to 10c are information processing devices such as smartphones. In addition to smartphones, the client devices 10a to 10c may be mobile phones, tablet terminals, personal computers, electronic book readers, wearable computers, game consoles, and various information processing devices capable of playing moving images other than these. Each of the client devices 10a to 10c includes a computer processor, a memory, a communication I / F, a display, a sensor unit having various sensors such as a gyro sensor, a sound collecting device such as a microphone, and a storage for storing various information. May be good.
クライアント装置10a〜10cのディスプレイは、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。 The display of the client devices 10a to 10c includes a display panel and a touch panel. The touch panel is configured to be able to detect a player's touch operation (contact operation). The touch panel can detect various touch operations such as tapping, double tapping, and dragging of the player. The touch panel may include a capacitive proximity sensor and may be configured to be capable of detecting a player's non-contact operation.
視聴ユーザは、クライアント装置10a〜10cのタッチパネルを介して、配信された動画に関するメッセージ又はそれ以外のメッセージを入力することができる。このメッセージは、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、音声のメッセージ及びこれら以外の任意の形式の電子的なメッセージであってもよい。クライアント装置10a〜10cの各々は、視聴ユーザによって入力されたメッセージをサーバ装置20に投稿(送信)するように構成され得る。 The viewing user can input a message related to the delivered moving image or other messages via the touch panel of the client devices 10a to 10c. This message may be, for example, a text message, a still image message, a moving image message, a voice message, or any other electronic message. Each of the client devices 10a to 10c may be configured to post (send) a message input by the viewing user to the server device 20.
図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。 In the illustrated embodiment, the server device 20 includes a computer processor 21, a communication I / F 22, and a storage 23.
コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図2においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。コンピュータプロセッサ21により実現される機能は後述する。 The computer processor 21 is an arithmetic unit that loads various programs that realize an operating system and various functions from the storage 23 or other storage into a memory and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, various arithmetic units other than these, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as an ASIC, a PLD, an FPGA, or an MCU. In FIG. 2, the computer processor 21 is illustrated as a single component, but the computer processor 21 may be a set of a plurality of physically separate computer processors. In the present specification, the program described as being executed by the computer processor 21 or the instructions contained in the program may be executed by a single computer processor or may be executed by a plurality of computer processors in a distributed manner. May be good. Further, the program executed by the computer processor 21 or the instructions included in the program may be executed by a plurality of virtual computer processors. The functions realized by the computer processor 21 will be described later.
通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。 The communication I / F 22 is implemented as hardware, firmware, communication software such as a TCP / IP driver or PPP driver, or a combination thereof. The server device 20 can send and receive data to and from other devices via the communication I / F 22.
ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ25)に格納されてもよい。ストレージ23に格納されるデータの詳細については後述する。 The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various storage devices other than those capable of storing data. Various programs can be stored in the storage 23. At least a part of the program and various data that can be stored in the storage 23 may be stored in a storage (for example, a storage 25) that is physically separate from the server device 20. The details of the data stored in the storage 23 will be described later.
スタジオユニット30の構成要素の多くは、例えば、図3に示されているスタジオルームRに配置されている。図示のように、スタジオルームRにおいては、アクターA1がパフォーマンスを行っている。スタジオユニット30は、アクターA1の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。 Many of the components of the studio unit 30 are located, for example, in the studio room R shown in FIG. As shown in the figure, in the studio room R, the actor A1 is performing. The studio unit 30 is configured to detect the movement and facial expression of the actor A1 and output the detected information to the server device 20.
アクターA1は、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。図示の実施形態において、アクターA1は、トーク、パフォーマンス、及びこれら以外の動画として配信される番組を進行するための行動を行う人間である。アクターA1は、人間以外に、動物またはこれ以外の運動する任意の物体(非生物)であってもよい。アクターA1は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。 The actor A1 is a target whose movement and facial expression are captured by a group of sensors described later provided in the studio unit 30. In the illustrated embodiment, the actor A1 is a person who performs an action for advancing a talk, a performance, and a program distributed as a moving image other than these. The actor A1 may be an animal or any other moving object (abiotic) other than a human. The actor A1 may be, for example, a robot capable of independent movement. The number of actors in the studio room R may be 1 or 3 or more.
スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a〜31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、アクターA1の左腕に装着されている腕時計型のアクターデバイス91と、を有する。装着具37bには、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1の発話を音声データとして取得することができる。マイクは、装着具37bを介してアクターA1に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、デジタルカメラ36aと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。
The studio unit 30 includes six
モーションセンサ31a〜31fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a〜31fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサを複数備えてもよい。モーションセンサ31a〜31fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサでの受光時間、各光センサが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出してもよい。モーションセンサ31a〜31fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。
The
モーションセンサ31a〜31fの各々において算出された各モーションセンサの位置及び向きを示す検出情報は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a〜31fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサの検出情報は、当該インターバルごとに更新される。なお、ベースステーションは、3つ以上の複数であってもよい。ベースステーションの位置は適宜変更してもよい。例えば、図3に示されているトラッキングセンサの検出対象の空間の上方の隅部に配されているベースステーションに加えて若しくは替えて、上方位置及び床面に近い下方位置に対をなすように配置されたベースステーションが設けられてもよい。例えば、ベースステーションは4つであってもよい。
The detection information indicating the position and orientation of each motion sensor calculated by each of the
図示の実施形態において、アクターA1は、6つのモーションセンサ31a〜31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手甲、右手甲、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a〜31fは、装着具を介してアクターA1に装着されてもよい。図2に示されているモーションセンサ31a〜31fは例示である。モーションセンサ31a〜31fは、アクターA1の様々な部位に装着され得る。アクターA1に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1の体の各部に装着されたモーションセンサ31a〜31fの位置及び向きを検出することにより、アクターA1の体の動きを検出することができる。アクターA1の体の動きは、光学モーションキャプチャシステムにより検出されてもよい。
In the illustrated embodiment, the actor A1 is equipped with six
一実施形態においては、アクターA1に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。 In one embodiment, a large number of infrared LEDs are mounted on each of the plurality of motion sensors mounted on the actor A1, and the light from the infrared LEDs is emitted by an infrared camera provided on the floor or wall of the studio room R. By detecting, the position and orientation of each of the motion sensors may be detected. A visible light LED may be used instead of the infrared LED, and the position and orientation of each of the motion sensors may be detected by detecting the light from the visible light LED with a visible light camera. In this way, a light emitting unit (for example, an infrared LED or a visible light LED) is provided in each of the plurality of motion sensors mounted on the actor, and the light from the light emitting unit is provided in the studio room R as a light receiving unit (for example). For example, the position and orientation of each of the motion sensors may be detected by detecting with an infrared camera or a visible light camera).
一実施形態においては、モーションセンサ31a〜31fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。一実施形態において、アクターA1に体の動きの検出は、慣性センサが内蔵されたスーツを用いて行われてもよい。アクターA1に着用された慣性センサ内蔵スーツの慣性センサから出力されるセンサ信号を解析することにより、アクターA1の動きを検出することができる。慣性センサが内蔵されたスーツとして、Xsens.com社が開発するMVNと呼ばれるモーションキャプチャシステムに対応した慣性センサ内蔵スーツを用いることができる。
In one embodiment, a plurality of reflection markers can be used instead of the
コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。
The
デジタルカメラ36aは、アクターA1を撮像して撮像データを生成する。デジタルカメラ36aの位置、撮像方向、及び画角は、操作者の操作に応じて設定される。デジタルカメラ36aは、その位置、撮像方向、及び画角を示す撮像設定情報をサーバ装置20に送信する。同様に、デジタルカメラ36bの位置、撮像方向、及び画角は、操作者の操作に応じて設定される。図示の実施形態において、デジタルカメラ36aは、アクターA1の左前方に設けられている。
The
カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。カメラ37aは、例えば、Apple Incが提供するiPhone Xに備えられたLIDARデバイスであってもよい。iPhone Xは、例えば、アクターA1の頭部に装着されたヘッドギアに取り付けられる。カメラ37aは、アクターA1に装着されるのではなく、スタジオルームR内に設置されたカメラスタンドに設置される固定型のものであってもよい。
The
ディスプレイ39は、サポーターコンピュータ40から受信した情報を表示するように構成される。サポーターコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1によって視認可能な位置に配置される。
The
アクターデバイス91は、サーバ装置20からの駆動信号に応じて、アクターA1が知覚可能な音以外の刺激を発生させるように構成される。アクターデバイス91が音を発生させると、配信コンテンツに当該音が合成されてしまうおそれがあるため、アクターデバイス91は、音以外の刺激を発生させるように構成される。アクターデバイス91は、聴覚刺激(典型的には、音)以外の刺激、例えば、触覚刺激、視覚刺激、又はこれら以外の聴覚刺激とは異なるアクターA1によって知覚可能な刺激を発生させることができる。アクターデバイス91は、アクチュエータ91aを備えてもよい。アクチュエータ91aは、サーバ装置20からの駆動信号により作動するように構成される。アクチュエータ91aは、駆動信号が入力されると振動するように構成されてもよい。アクターデバイス91として、例えば、Apple Incから提供されているApple Watchが用いられ得る。アクターデバイス91は、腕時計型以外の様々な形状をとり得る。アクターA1は、互いに同じ種類の又は互いと異なる種類の複数のアクターデバイス91を装着することができる。アクターデバイス91は、サーバ装置20以外からの駆動信号に応じて作動するように構成されてもよい。複数のアクターデバイス91は、アクターA1を識別するアクターIDと対応付けられていてもよい。アクターデバイス91は、アクチュエータ91aを介して触覚刺激をアクターA1に伝達することができる。アクターデバイス91は、LED(Light Emitting Diode)や知覚ディスプレイデバイスであってもよい。LEDや知覚ディスプレイデバイスは、視覚刺激を発生することができる。知覚ディスプレイデバイスは、電極から流れる電流によって皮膚下の神経軸索を駆動する電気触覚ディスプレイであってもよい。
The
図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。
In the illustrated embodiment, the
サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、デジタルカメラ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。後述するアクティブセンサの切り替えは、サポーターB1及びサポーターB2によるサポーターコンピュータ40の操作に基づいて実行され得る。サポーターB1及びサポーターB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。
The
図3に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。 The components and functions of the studio unit 30 shown in FIG. 3 are exemplary. The studio unit 30 applicable to the present invention may include various components (not shown). The studio unit 30 may include a projector. The projector can project a moving image delivered to the client device 10a or other client devices onto the screen S.
他方、配信される動画を生成するための撮影は、より簡易な設備によって実行されてもよい。例えば、スマートフォンなどの情報処理端末によりアクターの顔の動きのデジタル表現であるフェイスモーションデータを生成し、当該フェイスモーションデータに基づいて、アクターの表情の動きに同期してその表情が動くがボディは動かないキャラクタオブジェクトのアニメーションを生成してもよい。このようなフェイスモーションデータの生成は、クライアント装置10a〜クライアント装置10cにより行われてもよい。フェイスモーションデータの生成を行うために、クライアント装置10a〜クライアント装置10cに、フェイスモーションデータを生成するための機能を実現する命令セットを有するアプリケーションソフトウェアをダウンロード及びインストールしてもよい。このようなフェイスモーションデータの生成を行う機能を有するアプリケーションソフトウェアを「配信アプリケーションソフトウェア」又は「配信アプリ」と呼ぶことがある。配信アプリと既述の視聴アプリとは別個のアプリケーションソフトウェアであってもよいし、単一のアプリケーションソフトウェアが配信アプリの機能及び記述の視聴アプリの機能を両方とも備えてもよい。このフェイスモーションデータは、アクターの頭部の姿勢のトラッキングデータ、当該アクターの顔の特徴点のデジタル表現であるフィーチャーポイント、及びその変形率を表現したブレンドフェイスデータを含むことができる。スマートフォンなどの情報処理端末は、フェイスモーションデータに基づいて、アクターの表情を誇張して示す画像を作成し、当該画像をキャラクタオブジェクトの顔に重畳表示してもよい。フェイスモーションデータに基づいてキャラクタオブジェクトのアニメーションを生成する場合、アクターの体の動きを検出するためのモーションセンサ31a,31b,31c,31d,31e,及び31f、ベースステーション35a,35b、及びデジタルカメラ36aが不要となるため、より簡易な設備でキャラクタオブジェクトのアニメーションを生成することができる。モーションセンサ31a,31b,31c,31d,31e,及び31f、ベースステーション35a,35b、及びデジタルカメラ36aが不要であれば、スタジオルームR以外の場所、例えばアクターの自宅でもキャラクタオブジェクトの生成を行うことができるので利便性が高まる。
On the other hand, the shooting for generating the delivered moving image may be performed by a simpler facility. For example, an information processing terminal such as a smartphone generates face motion data, which is a digital expression of the facial movement of an actor, and based on the face motion data, the facial expression moves in synchronization with the movement of the facial expression of the actor, but the body is You may generate an animation of a non-moving character object. Such generation of face motion data may be performed by the client device 10a to the client device 10c. In order to generate face motion data, application software having an instruction set that realizes a function for generating face motion data may be downloaded and installed in the client devices 10a to 10c. Application software having a function of generating such face motion data may be referred to as "distribution application software" or "distribution application". The distribution application and the above-mentioned viewing application may be separate application software, or a single application software may have both the function of the distribution application and the function of the described viewing application. The face motion data can include tracking data of the posture of the head of the actor, feature points which are digital representations of the feature points of the face of the actor, and blended face data expressing the deformation rate thereof. An information processing terminal such as a smartphone may create an image that exaggerates the facial expression of the actor based on the face motion data, and superimpose the image on the face of the character object. When generating an animation of a character object based on face motion data,
次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、ユーザデータ23c、アバタデータ23d、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。 Next, in one embodiment, the information stored in the storage 23 will be described. In the illustrated embodiment, the storage 23 stores model data 23a, object data 23b, user data 23c, avatar data 23d, and various information necessary for generation and distribution of distribution moving images other than the above.
モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。 The model data 23a is model data for generating a character animation. The model data 23a may be three-dimensional model data for generating a three-dimensional animation, or may be two-dimensional model data for generating two-dimensional model data. The model data 23a includes, for example, rig data indicating the skeleton of the character (sometimes referred to as “skeleton data”) and surface data indicating the shape and texture of the surface of the character. The model data 23a can include a plurality of model data different from each other. The plurality of model data may have different rig data from each other, or may have the same rig data. The plurality of model data may have different surface data from each other, or may have the same surface data.
オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23bには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。 The object data 23b includes asset data for constructing a virtual space constituting a moving image. The object data 23b is data for drawing the background of the virtual space constituting the moving image, data for drawing various objects displayed in the moving image, and various objects displayed in the moving image other than these. Contains data. The object data 23b may include object position information indicating the position of the object in the virtual space.
オブジェクトデータ23bには、上記以外にも、クライアント装置10a〜10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。 In addition to the above, the object data 23b may include a gift object to be displayed in the moving image based on a display request from the viewing user of the client devices 10a to 10c. Gift objects can include effect objects, regular objects, and decorative objects. The viewing user can purchase the desired gift object.
エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。 The effect object is an object that affects the impression of the entire viewing screen of the distributed moving image, and is, for example, an object that imitates confetti. The object imitating confetti may be displayed on the entire viewing screen, whereby the impression of the entire viewing screen before and after the display can be changed. Effect objects may appear to overlap with character objects, but differ from decorative objects in that they are not displayed in association with a particular part of the character object.
通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1)又は動画内のキャラクタへのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。 A normal object is an object that becomes a digital gift from a viewing user to an actor (for example, actor A1) or a character in a moving image, for example, an object that imitates a stuffed animal or a bouquet. In one aspect, the normal object is displayed on the screen of the moving image so as not to come into contact with the character object. In one aspect, the normal object is displayed on the screen of the moving image so as not to overlap with the character object. Ordinary objects may appear to overlap objects other than character objects in virtual space. Ordinary objects may appear to overlap with character objects, but differ from decorative objects in that they are not displayed in association with a particular part of the character object. In one aspect, when the normal object is displayed overlapping with the character object, the normal object overlaps with a part other than the head including the face of the character object and does not overlap with the head of the character object. Is displayed.
装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように画面に表示される。 A decorative object is an object that is displayed on the screen in association with a specific part of the character object. In one embodiment, the decorative object displayed on the screen in association with a specific part of the character object is displayed on the screen so as to be in contact with the specific part of the character object. In one aspect, the decorative object displayed on the screen in association with a particular part of the character object is displayed on the screen so as to cover part or all of the particular part of the character object.
装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリ(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトが装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。 The decorative object is, for example, an object that can be attached to accessories (catching, necklace, earrings, etc.), clothes (T-shirt, etc.), costumes, and other character objects attached to the character object. The object data 23b corresponding to the decorative object may include mounting position information indicating which part of the character object the decorative object is associated with. The mounting position information of a certain decorative object can indicate to which part of the character object the decorative object is mounted. For example, when the decorative object is a headband, the mounting position information of the decorative object may indicate that the decorative object is mounted on the "head" of the character object. When the decorative object is a T-shirt, the mounting position information of the decorative object may indicate that the decorative object is mounted on the "body" of the character object.
ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。 Each gift object may have a display time set according to its type. In one aspect, the display time of the decorative object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the decorative object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.
オブジェクトデータ23bには、動画配信システム1のユーザが保有しているギフトオブジェクトを示すリストが含まれてもよい。保有リストにおいては、ユーザのアカウント情報と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されてもよい。ユーザのアカウント情報は、例えば、ユーザを識別するユーザIDである。このユーザには、例えば、クライアント装置10a〜クライアント装置10cの第1視聴ユーザ〜第3視聴ユーザが含まれてもよい。 The object data 23b may include a list showing gift objects owned by the user of the moving image distribution system 1. In the possession list, an object ID that identifies the gift object possessed by the viewing user may be stored in association with the user's account information. The user's account information is, for example, a user ID that identifies the user. This user may include, for example, the first viewing user to the third viewing user of the client device 10a to the client device 10c.
図4に示すように、ユーザデータ23cは、動画配信システム1の各ユーザ(例えば、視聴ユーザ)のアカウント情報と、各ユーザが利用するアバタに関するアバタ情報と、を含むことができる。言い換えると、ストレージ23には、動画配信システム1の各ユーザのアカウント情報と対応付けて、各ユーザが利用するアバタに関するアバタ情報、及びこれら以外のユーザに関する情報が記憶され得る。あるユーザのアカウント情報は、例えば、当該ユーザを識別するユーザIDである。ユーザのユーザIDは、当該ユーザがクライアント装置10a〜クライアント装置10cを利用してサーバ装置20から提供される動画サービスへの利用登録を行うときに発行されてもよい。視聴アプリを利用してサーバ装置20のサービスを利用する場合と配信アプリを利用してサーバ装置20のサービスを利用する場合とで共通のユーザIDが用いられてもよいし、視聴アプリを利用してサーバ装置20のサービスを利用する場合と配信アプリを利用してサーバ装置20のサービスを利用する場合とで別個のユーザIDが用いられてもよい。視聴アプリを利用してサーバ装置20のサービスを利用する場合と配信アプリを利用してサーバ装置20のサービスを利用する場合とで別個のユーザIDが用いられる場合には、同一のユーザの視聴アプリを利用するためのユーザID(視聴用ユーザID)と配信アプリを利用するためのユーザID(配信用ユーザID)とは互いに対応付けられて記憶されてもよい。視聴アプリを利用して受けることができるサーバ装置20のサービスは、例えば、サーバ装置20から配信される動画の視聴サービスである。配信アプリを利用して受けることができるサーバ装置20のサービスは、例えば、自らのキャラクタオブジェクトを含む動画の配信を行うサービスである。 As shown in FIG. 4, the user data 23c can include account information of each user (for example, a viewing user) of the video distribution system 1 and avatar information regarding the avatar used by each user. In other words, the storage 23 can store avatar information about avatars used by each user and information about users other than these, in association with the account information of each user of the video distribution system 1. The account information of a user is, for example, a user ID that identifies the user. The user ID of the user may be issued when the user registers for use in the moving image service provided by the server device 20 by using the client device 10a to the client device 10c. A common user ID may be used between the case where the service of the server device 20 is used by using the viewing application and the case where the service of the server device 20 is used by using the distribution application, or the viewing application is used. A different user ID may be used depending on whether the service of the server device 20 is used or the service of the server device 20 is used by using the distribution application. When different user IDs are used for using the service of the server device 20 using the viewing application and using the service of the server device 20 using the distribution application, the viewing application of the same user The user ID for using the service (viewing user ID) and the user ID for using the distribution application (distribution user ID) may be stored in association with each other. The service of the server device 20 that can be received by using the viewing application is, for example, a video viewing service distributed from the server device 20. The service of the server device 20 that can be received by using the distribution application is, for example, a service that distributes a moving image including its own character object.
あるユーザのアバタ情報は、例えば、当該ユーザが動画配信システム1内で利用するアバタを識別するアバタIDである。アバタIDは、ユーザがアバタの登録を行うことにより当該ユーザに割り当てられる。アバタの登録は、アバタを構成する頭部、ヘアスタイル、服、アクセサリ、及びこれら以外のパーツをユーザが選択することにより行われる。アバタの登録は、配信アプリがインストールされたクライアント装置10a〜10cによって行われてもよい。つまり、アバタの登録は、配信アプリの機能を実行することにより行われてもよい。一実施形態においては、アバタの登録は、クライアント装置10a〜クライアント装置10cのうち配信アプリがインストールされたクライアント装置によって行われ、配信アプリがインストールされていないクライアント装置からは実行できなくてもよい。アバタの登録は、配信アプリケーションとは別のアバタを作成、編集、及び/又は登録する機能を有するアプリケーションソフトウェア(以下、「アバタ作成アプリ」と呼ぶことがある。)によって行われてもよい。配信アプリ及び/又はアバタ作成アプリによってアバタの登録を行う場合にも、図3を参照して説明したように、当該アバタを識別するアバタIDを割り当て、当該アバタIDをユーザのユーザIDと対応付けてユーザ情報として管理してもよい。ユーザは、アバタを登録した後に、当該アバタを変更することができる。例えば、アバタの登録後に、当該アバタのパーツの一部又は全部を変更することができる。例えば、登録後であっても、アバタのヘアスタイル、所持アイテム、及びこれら以外のアバタを構成するパーツを変更することができる。 The avatar information of a certain user is, for example, an avatar ID that identifies the avatar used by the user in the video distribution system 1. The avatar ID is assigned to the user when the user registers the avatar. The registration of the avatar is performed by the user selecting the head, hairstyle, clothes, accessories, and other parts constituting the avatar. The registration of the avatar may be performed by the client devices 10a to 10c in which the distribution application is installed. That is, the registration of the avatar may be performed by executing the function of the distribution application. In one embodiment, the avatar registration is performed by the client device in which the distribution application is installed among the client devices 10a to 10c, and may not be executed from the client device in which the distribution application is not installed. The registration of the avatar may be performed by application software (hereinafter, may be referred to as "avatar creation application") having a function of creating, editing, and / or registering an avatar different from the distribution application. Even when the avatar is registered by the distribution application and / or the avatar creation application, as described with reference to FIG. 3, an avatar ID that identifies the avatar is assigned, and the avatar ID is associated with the user ID of the user. It may be managed as user information. After registering the avatar, the user can change the avatar. For example, after the avatar is registered, some or all of the parts of the avatar can be changed. For example, even after registration, the avatar's hairstyle, possessed items, and other parts that make up the avatar can be changed.
一態様において、あるユーザのユーザIDと対応付けて、当該ユーザの視聴履歴を示す視聴履歴データ、当該ユーザに対する他のユーザからの評価を示す評価データ、及びこれら以外のサーバ装置20から配信される動画に関連するデータが含まれてもよい。 In one embodiment, it is distributed from the viewing history data indicating the viewing history of the user, the evaluation data indicating the evaluation of the user by another user, and the server device 20 other than these, in association with the user ID of the user. Data related to the video may be included.
図5に示すように、アバタデータ23dは、動画配信システム1でユーザによって利用されるアバタのアタバ識別情報と、当該アバタを動画内に表示するためのアバタ表示情報と、を含むことができる。言い換えると、ストレージ23には、アバタのアタバ識別情報と対応付けて、当該アバタを表示するためのアバタ表示情報が記憶され得る。アタバ識別情報は、例えば、アバタを識別するアバタIDである。アバタは、例えば、人間や動物を模した画像として動画内に表示される。アバタ表示情報は、アバタを動画内に表示するために用いられる情報である。アバタ情報には、例えば、頭部、ヘアスタイル、顔のパーツ(目、鼻、口など)、胴部、服、アクセサリ、アイテム、及びこれら以外のアバタを構成するパーツの画像を示すパーツ情報が含まれる。ユーザは、好みのパーツ画像を選択することで自らのアバタを登録することができる。アバタ表示情報には、動画にアバタを2D表示するための2D表示情報と、動画にアバタを3D表示するための3D表示情報とが含まれてもよい。3D表示情報には、アバタを動画内で立体的に表示するためのパーツの画像を示すパーツ情報、アバタの3次元での動きを表現するためのリグデータ、及びこれら以外のアバタを立体的に表示するために用いられている公知の情報を含む。 As shown in FIG. 5, the avatar data 23d can include avatar identification information of the avatar used by the user in the moving image distribution system 1 and avatar display information for displaying the avatar in the moving image. In other words, the storage 23 may store the avatar display information for displaying the avatar in association with the avatar identification information of the avatar. The avatar identification information is, for example, an avatar ID that identifies the avatar. Avata is displayed in a moving image as, for example, an image imitating a human or an animal. The avatar display information is information used to display the avatar in the moving image. The avatar information includes, for example, parts information showing images of the head, hairstyle, facial parts (eyes, nose, mouth, etc.), torso, clothes, accessories, items, and other parts that make up avatar. included. The user can register his / her own avatar by selecting a favorite part image. The avatar display information may include 2D display information for displaying the avatar in the moving image in 2D and 3D display information for displaying the avatar in the moving image in 3D. In the 3D display information, part information showing the image of the part for displaying the avatar three-dimensionally in the video, rig data for expressing the movement of the avatar in three dimensions, and other avatars are displayed three-dimensionally. Contains known information used to do this.
次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、動画生成部21a、動画配信部21b、参加要求処理部21c、アバタ表示部21d、アバタ制御部21e、及び共演要求処理部21fとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサ又はそれ以外の不図示のコンピュータプロセッサにより実現されてもよい。
Next, the functions realized by the computer processor 21 will be described more specifically. The computer processor 21 executes a computer-readable instruction included in the distribution program to execute a video generation unit 21a, a video distribution unit 21b, a participation request processing unit 21c, an avatar display unit 21d, an avatar control unit 21e, and a co-starring request. It functions as a processing unit 21f. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by, for example, a computer processor mounted on the
動画生成部21aは、仮想空間を構築し、仮想カメラの設定情報に基づいて定められる仮想空間の描画領域を描画するための動画情報(3次元動画データ)を生成する。仮想カメラの設定情報は、例えば、仮想空間内での仮想カメラの位置、注視位置、注視方向、及び画角を含んでもよい。動画情報は、オブジェクトデータ23b及び必要に応じてそれ以外のデータに基づいて生成され得る。動画生成部21aは、この3次元動画データをレンダリングして複数の動画フレームを生成する。この動画フレームは、所定のフレームレートで生成される。動画生成部21aにより構築される仮想空間は、例えば、その中心位置の周りを覆う全天球形状の3次元空間として定義される。仮想空間における位置は、当該仮想空間内に設定される三次元のグローバル座標系における座標値で指定され得る。 The moving image generation unit 21a constructs a virtual space and generates moving image information (three-dimensional moving image data) for drawing a drawing area of the virtual space defined based on the setting information of the virtual camera. The setting information of the virtual camera may include, for example, the position of the virtual camera in the virtual space, the gaze position, the gaze direction, and the angle of view. The moving image information can be generated based on the object data 23b and other data as needed. The moving image generation unit 21a renders the three-dimensional moving image data to generate a plurality of moving image frames. This moving image frame is generated at a predetermined frame rate. The virtual space constructed by the moving image generation unit 21a is defined as, for example, a spherical three-dimensional space that surrounds the center position thereof. The position in the virtual space can be specified by the coordinate value in the three-dimensional global coordinate system set in the virtual space.
動画生成部21aにおいて生成される動画情報には、仮想空間の描画領域におけるアクターA1のキャラクタオブジェクトに関する情報が含まれてもよい。動画情報は、アクターA1の動きをリアルタイムに反映するように生成されてもよい。アクターA1のキャラクタオブジェクトに関する情報には、アクターA1の体の各部位のボディモーションデータ及びアクターA1の顔の動きのデジタル表現であるフェイスモーションデータを含んでもよい。ボディモーションデータは、例えば、モーションセンサ31a〜31fの各々の検出情報に基づいて生成される。ボディモーションデータは、時間の経過に伴って随時生成される。ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクターA1の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a〜31fは、アクターA1の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a〜31fの検出情報に基づいて、アクターA1の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。フェイスモーションデータは、例えば、カメラ37aの撮像データに基づいて生成される。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA1の顔の動き(表情の変化)を時系列的にデジタル表現することができる。ボディモーションデータ及びフェイスモーションデータをモデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションが生成されてもよい。このようにして、動画情報には、アクターA1に関するボディモーションデータ及びフェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを表す情報が含められ得る。動画生成部21aは、以上のようにして得られる動画情報に基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを表す動画フレームのシーケンスを生成することができる。動画生成部21aは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1の音声を合成してもよい。
The moving image information generated by the moving image generation unit 21a may include information about the character object of the actor A1 in the drawing area of the virtual space. The moving image information may be generated so as to reflect the movement of the actor A1 in real time. The information about the character object of the actor A1 may include body motion data of each part of the body of the actor A1 and face motion data which is a digital representation of the movement of the face of the actor A1. The body motion data is generated based on, for example, the detection information of each of the
動画生成部21aは、動画の配信前に、当該動画に参加する可能性のあるアバタについて、当該アバタの表示に必要なアバタ表示情報をロードすることができる。動画生成部21aは、アバタ表示情報のうち、ロードに時間がかかりまたロードのための処理負荷が大きい3D表示情報をロードすることができる。このロードされたアバタ表示情報は、ユーザからの参加要求に基づいてアバタを動画に表示させる場合に参照され得る。アタバを動画中に表示させる場合におけるロードされたアバタ表示情報の利用に関しては後述する。 The moving image generation unit 21a can load the avatar display information necessary for displaying the avatar for the avatars that may participate in the moving image before the distribution of the moving image. Among the avatar display information, the moving image generation unit 21a can load the 3D display information that takes a long time to load and has a large processing load for loading. This loaded avatar display information can be referred to when the avatar is displayed in the video based on the participation request from the user. The use of the loaded avatar display information when displaying the avatar in the moving image will be described later.
動画配信部21bは、動画生成部21aにおいて生成された動画フレームのシーケンスを配信する。動画フレームは、動画配信部21bによってMPEG−4等の所定の符号化方式で圧縮符号化されてもよく、この圧縮符号化された動画フレームが配信されてもよい。本明細書では、動画の配信というときには、上記のようにして生成された動画フレームのシーケンスの配信を意味してもよい。 The moving image distribution unit 21b distributes a sequence of moving image frames generated by the moving image generation unit 21a. The moving image frame may be compressed and encoded by a moving image distribution unit 21b by a predetermined coding method such as MPEG-4, or the compressed and encoded moving image frame may be distributed. In the present specification, when referring to the distribution of a moving image, it may mean the distribution of a sequence of moving image frames generated as described above.
配信された動画は、ネットワーク15を介してクライアント装置10a〜クライアント装置10cにより受信され、クライアント装置10a〜クライアント装置10cにおいて再生される。この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。
The delivered moving image is received by the client devices 10a to 10c via the network 15, and is played back in the client devices 10a to 10c. This moving image may be delivered to a client device (not shown) installed in the studio room R, and may be projected from this client device onto the screen S via a short focus projector. Further, this moving image may be delivered to the
動画配信部21bから配信される動画の生成及び/又は配信に関与しているユーザを配信ユーザと呼ぶことがある。上記の例では、サーバ装置20から配信される動画は、アクターA1のボディモーションデータ及びフェイスモーションデータに基づいて生成されるキャラクタオブジェクトを含んでおり、必要に応じてサポーターB1及びサポーターB2の協力を得て配信されている。このため、アクターA1だけでなく、アクターA1、サポーターB1、及びサポーターB2を集合的に「配信ユーザ」としてもよい。 A user involved in the generation and / or distribution of a moving image distributed from the moving image distribution unit 21b may be referred to as a distribution user. In the above example, the moving image delivered from the server device 20 includes the character object generated based on the body motion data and the face motion data of the actor A1, and the cooperation of the supporters B1 and the supporters B2 is required as necessary. Obtained and delivered. Therefore, not only the actor A1 but also the actor A1, the supporter B1, and the supporter B2 may be collectively referred to as a “delivery user”.
動画生成部21aによって生成され動画配信部21bによって配信される動画の表示例を図7a及び図7bに示す。図7a及び図7bは、動画配信部21bによって配信され、クライアント装置10a〜10cにて再生される動画の表示例を示している。以下、図7a及び図7bの画像は、第1視聴ユーザが利用するクライアント装置10aに表示されていると想定して説明を行う。図7aに示されている画像は、クライアント装置10aにおいて視聴アプリを実行してサーバ装置20から配信された動画を再生することにより、クライアント装置10aのディスプレイに表示されてもよい。 7a and 7b show an example of displaying a moving image generated by the moving image generation unit 21a and distributed by the moving image distribution unit 21b. 7a and 7b show an example of displaying a moving image distributed by the moving image distribution unit 21b and reproduced by the client devices 10a to 10c. Hereinafter, the images of FIGS. 7a and 7b will be described on the assumption that they are displayed on the client device 10a used by the first viewing user. The image shown in FIG. 7a may be displayed on the display of the client device 10a by executing the viewing application on the client device 10a and playing back the moving image distributed from the server device 20.
図示のように、画像60aは、キャラクタオブジェクト51と、キャラクタオブジェクト51が立つフロアオブジェクト54aと、ステージの後端を画定するスクリーンオブジェクト54bと、を含んでいる。また、画像60aは、視聴ユーザからのコメントやシステム通知が表示される表示オブジェクト65を含む。キャラクタオブジェクト51は、アクターA1の体及び表情の動きに同期して動画内で動くように描写される。一実施形態においては、キャラクタオブジェクト51、フロアオブジェクト54a、及びスクリーンオブジェクト54bは、動画フレームに含まれているオブジェクトであり、表示オブジェクト65は動画フレームには含まれていないオブジェクトであってもよい。表示オブジェクト65は、クライアント装置10で実行される視聴アプリの機能により、サーバ装置20から送信された動画フレームに含まれるデータに基づかずに生成されたオブジェクトであってもよい。
As shown in the figure, the
画像60aには、仮想空間50内に配置された各オブジェクトに加え、ユーザの操作を受け付けるための操作ボタンが表示されてもよい。図7aに示されている例では、画像60aに、ギフティングを行うためのギフトボタン61と、評価を提供するための評価ボタン62と、アバタを参加させるための参加要求ボタン63と、が含まれている。画像60aには、これら以外の操作ボタンが表示されてもよい。これらの操作ボタンは、クライアント装置10で実行される視聴アプリの機能により、サーバ装置20から送信された動画フレームに含まれるデータに基づかずに生成されたオブジェクトであってもよい。
In the
ギフトボタン61は、画像60aが表示されているクライアント装置10aへの操作によって選択可能に画像60aに表示されている。ギフトボタン61は、例えば、クライアント装置10aのタッチパネルのうちギフトボタン61が表示されている領域へのタップ操作により選択され得る。一実施形態において、ギフトボタン61が選択されると、画像60aに、視聴中の動画を配信している配信者に贈る(ギフティングする)ギフトを選択するためのウィンドウが表示される。クライアント装置10aのユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを購入・選択することができる。他の実施形態においては、ギフトボタン61が選択されたことに応じて、画像60aに、購入済みのギフトの一覧及び/又は選択可能なギフトの一覧を含むウィンドウが表示される。この場合、動画を視聴しているユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを選択することができる。一実施形態においては、クライアント装置10におけるギフトボタン61の選択に応じて、ギフティング要求がサーバ装置60に送信されてもよい。このギフティング要求には、ギフティングするギフトに対応するギフトオブジェクトを特定するギフト識別情報(ギフトID)が含まれてもよい。このように、動画を視聴している視聴ユーザは、ギフトボタン61の選択により、当該動画を配信している配信ユーザに対して所望のギフトを贈ることができる。
The
サーバ装置20は、ユーザのクライアント装置10aからギフティング要求を受け付け、当該要求に応じた処理を行う。上記のとおり、動画を視聴しているユーザは、自らのクライアント装置を操作することにより、ギフティング要求をサーバ装置20に送信することができる。一態様において、サーバ装置20は、ギフティング要求を受け付けると、当該ギフティング要求に基づいて、ギフト対象のギフトオブジェクトを特定し、特定されたギフトオブジェクトに応じた表示処理を行う。上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。ギフティング要求によって特定されるギフトオブジェクトがエフェクトオブジェクトの場合には、サーバ装置20は、当該エフェクトオブジェクトを動画フレームに含めるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトについてギフティング要求がなされた場合には、サーバ装置20は、当該ギフティング要求に基づいて紙吹雪を示すエフェクトオブジェクトを動画フレームに含める。これにより、画像60aにおいて紙吹雪が描写される。一態様において、サーバ装置20は、特定の通常オブジェクトについてのギフティング要求を受け付けると、当該ギフティング要求によって特定される通常オブジェクトを動画フレームに含めるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトについてギフティング要求がなされた場合には、サーバ装置20は、当該熊のぬいぐるみを示す通常オブジェクトを動画フレームに含める。これにより、画像60aにおいて熊のぬいぐるみが描写される。
The server device 20 receives a gifting request from the user's client device 10a and performs processing according to the request. As described above, the user who is watching the moving image can send the gifting request to the server device 20 by operating his / her own client device. In one aspect, when the server device 20 receives the gifting request, the server device 20 identifies the gift object to be gifted based on the gifting request, and performs display processing according to the specified gift object. As mentioned above, the gift object may include an effect object, a normal object, and a decorative object. When the gift object specified by the gifting request is an effect object, the server device 20 performs a process for including the effect object in the moving image frame. For example, when a gifting request is made for an effect object corresponding to confetti, the server device 20 includes an effect object indicating confetti in the moving image frame based on the gifting request. As a result, the confetti is depicted in the
一態様において、サーバ装置20は、視聴ユーザから特定の装飾オブジェクトについてのギフティング要求を受け付けると、当該ギフティング要求によって特定される装飾オブジェクトを候補リストに追加する。この候補リストは、例えば、サポーターコンピュータ40のディスプレイに表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40のディスプレイに表示された候補リストの中から、動画に表示する装飾オブジェクトを選択することができる。サーバ装置20は、選択された装飾オブジェクトを動画フレームに含める。これにより、画像60aにおいて当該装飾オブジェクトが描写される。選択された装飾オブジェクトは、キャラクタオブジェクト51の特定の部位と関連付けて画像60aに表示される。例えば、装飾オブジェクトがカチューシャを示すオブジェクトである場合、当該装飾オブジェクトは、キャラクタオブジェクト51の頭部に装着されてもよい。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、画像60aに表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト51の頭部が動くと、あたかもカチューシャがキャラクタオブジェクト51の頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクトもキャラクタオブジェクト51の頭部に付随して動く。
In one aspect, when the server device 20 receives a gifting request for a specific decorative object from the viewing user, the server device 20 adds the decorative object specified by the gifting request to the candidate list. This candidate list is displayed, for example, on the display of the
評価ボタン62は、クライアント装置10aを使用するユーザによって選択可能に画像60aに表示されている。評価ボタン62は、例えば、クライアント装置10aのタッチパネルのうち評価ボタン62が表示されている領域へのタップ操作により選択され得る。動画を視聴中のユーザによって評価ボタン62が選択されると、当該動画を配信する配信ユーザ(例えば、アクターA1)への肯定的な評価又は配信されている動画への肯定的な評価がなされたことを示す評価更新情報がサーバ装置60に送信されてもよい。評価ボタン62の選択により、当該動画への否定的な評価がなされたことを示す評価情報がサーバ装置60に送信されてもよい。
The
参加要求ボタン63は、クライアント装置10aを使用する視聴ユーザによって選択可能に画像60aに表示されている。参加要求ボタン63は、例えば、クライアント装置10aのタッチパネルのうち参加要求ボタン63が表示されている領域へのタップ操作により選択され得る。動画を視聴中の視聴ユーザによって参加要求ボタン63が選択されると、当該視聴ユーザのアバタを当該動画に参加させることを要求する参加要求がサーバ装置20に送信される。参加要求ボタン63の選択により参加要求を送信したユーザを「参加要求ユーザ」と呼ぶことがある。参加要求ユーザからの参加要求には、当該参加要求ユーザのユーザIDと、当該参加要求ユーザのアバタのアバタIDと、が含まれてもよい。自らのアバタを登録していない視聴ユーザによって参加要求ボタン63が選択された場合には、クライアント装置10aにアバタの登録を促す画面が表示されてもよい。この場合、視聴ユーザは、当該画面のガイダンスに従ってアバタを登録することができる。参加要求ボタン63は、全ての視聴ユーザのクライアント装置10において表示されてもよい。
The
参加要求処理部21cは、参加要求ユーザのクライアント装置10aから視聴中の動画への参加要求を受け付け、当該参加要求に基づいて当該参加要求ユーザのアバタの表示可否について判定を行う。参加要求がなされた動画について参加できるアバタの上限数が設定されることがある。この場合、参加要求処理部21cは、当該上限数以下となるように、参加要求に基づいて参加可否を決定することができる。参加要求処理部21cは、例えば、動画が配信される前の受付期間に参加要求を受け付け、この参加要求を行った複数の参加要求ユーザの中から上限数以下のユーザについて当該動画への参加を許可することができる。つまり、参加要求処理部21cは、参加要求を行った複数の視聴ユーザ(参加要求ユーザ)の中から上限数以下の複数の参加ユーザを選定することができる。参加要求処理部21cは、参加要求ユーザの数が上限数を上回る場合には、所定のアルゴリズムに従って複数の参加要求ユーザの中から参加が許可される上限数以下のユーザを選択してもよい。参加要求処理部21cは、例えば、先着順で、又は、ランダムに参加が許可されるユーザを選択することができる。参加要求処理部21cは、ユーザデータ23cとして記憶されている視聴履歴データ、評価データ、及びこれら以外のデータに基づいて参加要求ユーザの参加可否を決定してもよい。例えば、視聴履歴データに基づいて、視聴時間が長い参加要求ユーザほど参加が許可されやすくなるようにしてもよい。視聴履歴データに基づいて、視聴回数が多い参加要求ユーザほど参加が許可されやすくなるようにしてもよい。本明細書においては、参加要求処理部21cによって動画への参加が許可された視聴ユーザを「参加ユーザ」と呼ぶことがある。 The participation request processing unit 21c receives a participation request for the moving image being viewed from the client device 10a of the participation request user, and determines whether or not the participation request user's avatar can be displayed based on the participation request. There may be a maximum number of avatars that can participate in videos for which participation is requested. In this case, the participation request processing unit 21c can determine whether or not to participate based on the participation request so that the number is equal to or less than the upper limit. The participation request processing unit 21c, for example, accepts a participation request during the reception period before the video is distributed, and among a plurality of participation request users who have made the participation request, the participation request user is invited to participate in the video by the maximum number or less. Can be allowed. That is, the participation request processing unit 21c can select a plurality of participating users of the upper limit or less from the plurality of viewing users (participation request users) who have made the participation request. When the number of participation request users exceeds the upper limit, the participation request processing unit 21c may select a user having or less than the upper limit of the number of participation request users from a plurality of participation request users according to a predetermined algorithm. The participation request processing unit 21c can select, for example, users who are allowed to participate on a first-come, first-served basis or at random. The participation request processing unit 21c may determine whether or not the participation request user can participate based on the viewing history data, the evaluation data, and other data stored as the user data 23c. For example, based on the viewing history data, the participation requesting user who has a long viewing time may be more likely to be permitted to participate. Based on the viewing history data, the participation requesting user who has a large number of viewings may be more likely to be permitted to participate. In the present specification, a viewing user who is permitted to participate in a moving image by the participation request processing unit 21c may be referred to as a "participating user".
一実施形態において、参加要求処理部21cは、視聴ユーザからの参加要求に基づいて当該視聴ユーザの参加可否を決定した後、参加要求を行った視聴ユーザ全員に対して当該動画への参加が許可されたか否かを示す通知を送信しないように構成されてもよい。参加要求処理部21cは、動画への参加が許可された参加ユーザのクライアント装置10に対して、後述する共演機能をアクティベートするためのコマンドを送信してもよい。一実施形態において、参加要求処理部21cは、視聴ユーザからの参加要求に基づいて当該視聴ユーザの参加可否を決定した後、当該動画への参加が許可された参加ユーザのクライアント装置10に対して上記のコマンドを送信する一方、当該動画への参加が許可された参加ユーザのクライアント装置10に対しては動画への参加可否についての決定を示す通知及び上記のコマンドのいずれも送信しないように構成される。 In one embodiment, the participation request processing unit 21c determines whether or not the viewing user can participate based on the participation request from the viewing user, and then permits all the viewing users who have made the participation request to participate in the video. It may be configured not to send a notification indicating whether or not it has been done. The participation request processing unit 21c may send a command for activating the co-starring function described later to the client device 10 of the participating user who is permitted to participate in the moving image. In one embodiment, the participation request processing unit 21c determines whether or not the viewing user can participate based on the participation request from the viewing user, and then refers to the client device 10 of the participating user who is permitted to participate in the video. While transmitting the above command, the client device 10 of the participating user who is permitted to participate in the video is configured not to send a notification indicating a decision on whether or not to participate in the video and neither of the above commands. Will be done.
アバタ表示部21dは、参加要求ユーザの動画への参加が許可された場合、参加が許可された参加ユーザのアバタを当該動画に含めるための処理を行う。アバタ表示部21dは、例えば、第1視聴ユーザのアバタを動画に含める場合には、ユーザデータ23cを参照して当該第1視聴ユーザのユーザIDに関連付けられているアバタIDを特定し、次に、アバタデータ23dを参照して当該アバタIDに関連付けられているパーツ情報を特定する。アバタ表示部21dは、特定されたパーツ情報に基づいて第1視聴ユーザのアバタを表すアバタオブジェクトを構築する。また、アバタ表示部21dは、仮想空間における当該アバタオブジェクトの表示位置を決定する。動画生成部21aは、アバタ表示部21dにより構築されたアバタオブジェクトが仮想空間内の決定された位置に配置されるように動画情報を生成し、この動画情報に基づいて動画フレームを生成する。このようにして生成された参加ユーザのアバタオブジェクトを含む動画フレームが動画配信部21bによってクライアント装置10に送信される。 When the participation requesting user is permitted to participate in the video, the avatar display unit 21d performs a process for including the avatar of the participating user who is permitted to participate in the video. For example, when the avatar of the first viewing user is included in the moving image, the avatar display unit 21d identifies the avatar ID associated with the user ID of the first viewing user by referring to the user data 23c, and then identifies the avatar ID associated with the user ID of the first viewing user. , The part information associated with the avatar ID is specified with reference to the avatar data 23d. The avatar display unit 21d constructs an avatar object representing the avatar of the first viewing user based on the specified part information. Further, the avatar display unit 21d determines the display position of the avatar object in the virtual space. The moving image generation unit 21a generates moving image information so that the avatar object constructed by the avatar display unit 21d is arranged at a determined position in the virtual space, and generates a moving image frame based on the moving image information. The moving image frame including the avatar object of the participating user generated in this way is transmitted to the client device 10 by the moving image distribution unit 21b.
クライアント装置10は、参加ユーザのアバタオブジェクトを含む動画フレームを再生することができる。図7bに、参加ユーザのアバタオブジェクトを含む動画の表示例を示す。図7bに示されているように、画像60bは、参加ユーザのアバタオブジェクトであるアバタ56a〜56c及びアバタ57a〜57gを含んでいる。以下の説明においては、画像60bに含まれている複数のアバタオブジェクトのうち、アバタ56aが第1視聴ユーザのアバタ(アバタオブジェクト)であると想定する。図7bに示されている画像60bの描画のために用いられている仮想カメラは、図7aの画像の描画に用いられた仮想カメラよりもキャラクタオブジェクト51から離れた位置においてキャラクタオブジェクト51の方向を向くように配置されている。このため、画像60bにおいては、画像60aよりも、キャラクタオブジェクト51を含む仮想空間のより広い範囲が描画されている。
The client device 10 can reproduce a moving image frame including an avatar object of a participating user. FIG. 7b shows a display example of a moving image including an avatar object of a participating user. As shown in FIG. 7b, the
図7bに示されているように、画像60bに重畳させてエモーションボタン68が表示されてもよい。エモーションボタン68は、視聴ユーザが動画視聴時の感情を表現するためのボタンである。エモーションボタン68は、サーバ装置20から配信された動画フレームに、重畳して表示されてもよい。つまり、エモーションボタン68は、仮想空間に配置されたオブジェクトではなくともよい。視聴ユーザは、このエモーションボタン68を選択することにより、当該動画に感動したこと、当該動画に共感できなかったこと、及びこれら以外の視聴ユーザの感情を選択することができる。エモーションボタン68には、動画に感動したという感情を選択するための拍手ボタン、動画に共感できなかったことを示すための疑問符ボタン、動画に驚いたことを示すための驚きボタン、及びこれら以外のボタンを含むことができる。エモーションボタン68の各々には、当該エモーションボタン68によって選択される感情を表現する記号又はグラフィックスの表示が含まれていてもよい。例えば、拍手ボタンには拍手している手を表すグラフィックスの表示が含まれていてもよく、疑問符ボタンにはクエスチョンマークの表示が含まれていてもよく、驚きボタンにはエクスクラメーションマークの表示が含まれていてもよい。エモーションボタン68は、例えば、クライアント装置10aのタッチパネルのうちエモーションボタン68が表示されている領域へのタップ操作により選択され得る。動画を視聴中の第1視聴ユーザによってエモーションボタン68が選択されると、エモーション表示要求がサーバ装置20に送信される。エモーション表示要求には、エモーションボタン68のうち第1視聴ユーザが選択したボタンの種類(拍手ボタン、疑問符ボタン、及び驚きボタンなど)を示すエモーション識別情報が含まれていてもよい。エモーションボタン68を選択することにより、エモーションボタン68に対応付けられた複数のボタン(拍手ボタン、驚きボタンなど)をポップアップ表示させてもよい。エモーションボタン68に対応付けられた複数のボタンがポップアップ表示される場合、ユーザは、ポップアップ表示された複数のボタンの中から自らの感情にマッチしたボタンを選択することができる。エモーションボタン68は、ユーザのアバタが動画に参加している場合に表示され、当該ユーザのアバタが動画に参加していない場合には表示されなくともよい。
As shown in FIG. 7b, the
アバタ制御部21eは、第1視聴ユーザからのエモーション表示要求を受け付け、当該エモーション表示要求に基づいて、第1視聴ユーザのアバタの仮想空間内での動きを制御してもよい。例えば、第1視聴ユーザがエモーションボタンの一種である拍手ボタンを選択したことによりエモーション表示要求が送信された場合には、アバタ制御部21eは、当該エモーション表示要求に基づいて、第1視聴ユーザのアバタ56aに対して拍手を行う動作を行わせることができる。このエモーション表示要求に基づいてアバタ56aに拍手を行わせる制御が行われるときに、当該アバタ56aが描画領域に含まれている場合には、アバタ56aが拍手しているアニメーションが動画内で表現されてもよい。逆に、アバタ56aが描画領域に含まれていない場合には、アバタ56aが拍手している音を動画において表現する一方で拍手するアニメーションは表示されなくともよい。一実施形態においては、エモーションボタン68は、ユーザのアバタが動画内に表示されている場合にのみ、当該ユーザが視聴中の動画に表示されてもよい。例えば、第1視聴ユーザのクライアント装置10aに図7aに示されている画像60aが表示されている場合には、当該第1視聴ユーザのアバタ56aは画像60a内に表示されていないため、この画像60bにはエモーションボタン68が含まれなくともよい。これとは逆に、第1視聴ユーザのクライアント装置10aに図7bに示されている画像60bが含まれている場合には、当該第1視聴ユーザのアバタ56aが画像60b内に含まれているため、この画像60bにエモーションボタン68が含まれてもよい。
The avatar control unit 21e may receive an emotion display request from the first viewing user and control the movement of the first viewing user in the virtual space based on the emotion display request. For example, when the emotion display request is transmitted by the first viewing user selecting the applause button, which is a kind of emotion button, the avatar control unit 21e is based on the emotion display request of the first viewing user. The action of applauding the
このように、ユーザからのエモーション表示要求に基づいて、当該ユーザのアバタが動画内で拍手などの動きを行う。エモーション表示要求は、アバタの動作を指示する動作指示の一種である。他の実施形態においては、エモーションボタン以外に、アバタの動作を指示する動作指示ボタンが画像に含まれてもよい。動作指示ボタンは、アバタの動作を指示するためのボタンである。動作指示ボタンは、例えば、ジャンプするという動作、手を振るという動作、サイリウムを振るという動作、及びこれら以外の動作を指示するために用いられ得る。動作指示ボタンが選択されると、動作指示要求がサーバ装置20に送信される。サーバ装置20では、アバタに対して動作指示要求に基づいた動作を行わせることができる。 In this way, based on the emotion display request from the user, the user's avatar makes a movement such as applause in the moving image. The emotion display request is a kind of operation instruction for instructing the operation of the avatar. In another embodiment, in addition to the emotion button, an operation instruction button for instructing the operation of the avatar may be included in the image. The operation instruction button is a button for instructing the operation of the avatar. The operation instruction button can be used, for example, to instruct an operation of jumping, an operation of waving a hand, an operation of waving a glow stick, and other operations. When the operation instruction button is selected, the operation instruction request is transmitted to the server device 20. In the server device 20, the avatar can be made to perform an operation based on an operation instruction request.
次に、視聴ユーザと配信ユーザとを動画内で各々の仮想キャラクタを介して共演させる共演機能について説明する。図7bに示されているように、第1視聴ユーザの動画への参加が許可された場合には、当該第1視聴ユーザが使用するクライアント装置10に共演申請ボタン64が表示される。共演申請ボタン64は、視聴ユーザのアバタをキャラクタオブジェクト51と共に表示すること、つまり、視聴ユーザと配信ユーザとが当該視聴ユーザのアバタ及び当該配信ユーザのキャラクタオブジェクト51を介して共演することを要求するためのボタンである。共演申請ボタン64は、クライアント装置10aを使用する第1視聴ユーザによって選択可能に画像60bに重畳表示されている。共演申請ボタン64は、例えば、クライアント装置10aのタッチパネルのうち共演申請ボタン64が表示されている領域へのタップ操作により選択され得る。動画を視聴中の第1視聴ユーザによって共演申請ボタン64が選択されると、当該第1視聴ユーザのアバタ56aをキャラクタオブジェクト51と共演させるための共演要求がサーバ装置20に送信される。当該第1視聴ユーザのクライアント装置10aは、共演要求をサーバ装置20へ送信したことに応じて、図7cに示されているように、共演要求が行われたことを示すメッセージ66aを表示してもよい。
Next, a co-starring function in which a viewing user and a distribution user co-star in a moving image via their respective virtual characters will be described. As shown in FIG. 7b, when the first viewing user is permitted to participate in the moving image, the
一実施形態において、クライアント装置10は、参加要求処理部21cから共演機能をアクティベートするためのコマンドを受信したことに応じて共演申請ボタン64を表示してもよい。このコマンドは、上述のように、動画への参加が許可された参加ユーザのクライアント装置10に対してサーバ装置20から送信される。クライアント装置10は、参加要求処理部21cから共演機能をアクティベートするためのコマンドを受信するまでは共演申請ボタン64を表示しなくともよい。共演申請ボタン64は、参加要求処理部21cから共演機能をアクティベートするためのコマンドを受信するまではユーザから選択不可能な状態で表示され、当該コマンドを受信したことに応じてユーザから選択可能とされてもよい。
In one embodiment, the client device 10 may display the
サーバ装置20において共演要求が受け付けられると、共演要求処理部21fは、当該共演要求を行った視聴ユーザ(参加ユーザ)と配信ユーザとの共演を許可するか否かを決定する。共演要求処理部21fは、共演要求を行った視聴ユーザに関する様々な情報に基づいて所定のアルゴリズムを用いて共演可否を決定することができる。共演要求処理部21fは、例えば、ユーザデータ23cを参照することにより共演要求を行った視聴ユーザに対する他のユーザからの評価が所定の基準より高いか否かを判定し、当該視聴ユーザに対する評価が当該基準よりも高い場合に当該視聴ユーザからの共演要求を許可することができる。逆に、視聴ユーザに対する他のユーザからの評価が所定の基準よりも低い場合には、当該視聴ユーザからの共演要求を拒否することができる。共演要求が許可された視聴ユーザ(参加ユーザ)を「ゲストユーザ」と呼ぶことがある。 When the co-starring request is received by the server device 20, the co-starring request processing unit 21f determines whether or not to allow co-starring between the viewing user (participating user) who made the co-starring request and the distribution user. The co-starring request processing unit 21f can determine whether or not co-starring is possible by using a predetermined algorithm based on various information about the viewing user who made the co-starring request. The co-starring request processing unit 21f determines, for example, whether or not the evaluation from other users for the viewing user who has made the co-starring request is higher than the predetermined standard by referring to the user data 23c, and the evaluation for the viewing user is evaluated. If it is higher than the standard, the co-starring request from the viewing user can be permitted. On the contrary, when the evaluation of the viewing user from other users is lower than the predetermined criterion, the co-starring request from the viewing user can be rejected. A viewing user (participating user) for whom a co-starring request is permitted may be referred to as a "guest user".
共演要求処理部21fは、視聴ユーザから共演要求を受け付けたことに応じて、当該視聴ユーザからの共演申請を許可するか否かを配信ユーザに問い合わせ、その回答に応じて共演の可否を決定してもよい。共演要求処理部21fは、第1視聴ユーザから共演要求を受け付けると、第1視聴ユーザを含む表示要求ユーザリストを生成し、当該表示要求ユーザリストを配信ユーザに提示してもよい。ある動画についての表示要求ユーザリストは、共演要求を行ったユーザ(又は当該ユーザのアバタ)を特定する情報(例えば、ユーザID、ユーザ名、ニックネーム、アバタID、又はこれら以外の情報)をリスト形式で示してもよい。表示要求ユーザリストには、共演要求を送信したユーザの全てを含まなくともよい。例えば、表示要求ユーザリストには、共演要求を送信したユーザのうち、当該ユーザのアバタの3D表示情報が既にロードされているユーザのみを含んでもよい。このような表示要求ユーザリストには、共演要求を送信したユーザのうち、当該ユーザのアバタの3D表示情報がロードされていないユーザを特定する情報を含まない。3D表示情報がロードされていないアバタの3D表示を行うためには3D表示情報をランタイムロードする必要があるため、サーバ装置20の処理リソースを多く消費する。共演要求に3D表示情報がロード済のアバタを使用するユーザのみが含まれるようにすることで、ランタイムロードを回避することができる。 The co-starring request processing unit 21f inquires of the distribution user whether or not to allow the co-starring application from the viewing user in response to the reception of the co-starring request from the viewing user, and determines whether or not the co-starring is possible according to the response. You may. When the co-starring request processing unit 21f receives the co-starring request from the first viewing user, it may generate a display request user list including the first viewing user and present the display request user list to the distribution user. The display request user list for a certain video is a list format of information (for example, user ID, user name, nickname, avatar ID, or other information) that identifies the user (or the avatar of the user) who made the co-starring request. It may be indicated by. The display request user list does not have to include all the users who sent the co-starring request. For example, the display request user list may include only the users who have sent the co-starring request and the 3D display information of the avatar of the user has already been loaded. Such a display request user list does not include information that identifies a user who has sent a co-starring request to which the 3D display information of the avatar of the user is not loaded. 3D display information is not loaded In order to perform 3D display of the avatar, it is necessary to load the 3D display information at runtime, which consumes a lot of processing resources of the server device 20. By including only the user who uses the loaded avatar in the 3D display information in the co-starring request, it is possible to avoid the runtime load.
共演要求処理部21fは、表示要求ユーザリストをサポーターコンピュータ40に送信することができる。サポーターB1及びサポーターB2は、サポーターコンピュータ40のディスプレイに表示された表示要求ユーザリストからキャラクタオブジェクトと共に表示することを認めるアバタのユーザを選択することができる。表示要求ユーザリストは、スタジオルームRのディスプレイ39に表示されてもよい。アクターA1は、コントローラ33aまたはコントローラ33bを操作することにより、表示要求ユーザリストから、キャラクタオブジェクト51と共に表示するアバタのユーザを選択してもよい。
The co-starring request processing unit 21f can transmit the display request user list to the
一実施形態においては、表示要求ユーザリストからあるユーザが選択されたことに応じて当該ユーザを表示要求ユーザリストから削除してもよい。他の実施形態においては、あるユーザのアバタの共演表示が終了したことに応じて、当該ユーザを表示要求ユーザリストから削除してもよい。これにより、一度共演表示されたアバタを繰り返し共演表示することを防止できる。 In one embodiment, the user may be deleted from the display request user list in response to the selection of a user from the display request user list. In another embodiment, the user may be deleted from the display request user list in response to the end of the co-starring display of the avatar of a user. As a result, it is possible to prevent the avatar that has been co-starred once from being repeatedly co-starred.
一実施形態においては、あるユーザが共演表示されている間、サポーターまたは配信ユーザが表示要求リストから共演表示するユーザを選択する指示をしたとしても、その選択されたユーザのアバタの共演表示が即座に行われなくともよい。また、共演表示が行われるまでは、その選択されたユーザが表示要求リストから削除もされなくてもよい。 In one embodiment, even if a supporter or a distribution user instructs to select a user to be co-starred from the display request list while a user is co-starred, the co-starred display of the selected user's avatar is immediately displayed. It does not have to be done in. Further, the selected user may not be deleted from the display request list until the co-starring display is performed.
共演要求処理部21fは、複数の参加ユーザから共演要求を受け付けた場合、当該複数の参加ユーザから所定の上限数以下の複数のゲストユーザを選定してもよい。 When the co-starring request processing unit 21f receives co-starring requests from a plurality of participating users, the co-starring request processing unit 21f may select a plurality of guest users having a predetermined upper limit or less from the plurality of participating users.
一実施形態において、共演要求処理部21fは、参加ユーザからの共演要求に基づいて当該参加ユーザと配信ユーザとの共演が許可された場合に、当該参加ユーザ(つまり、ゲストユーザ)のクライアント装置10に対して共演が許可されたことを通知する許可通知を送信してもよい。当該許可通知を受信したクライアント装置10は、図7dに示されているように、当該許可通知に基づいて共演が許可されたことを示すメッセージ66bをディスプレイに表示してもよい。この許可通知に基づいて表示されるメッセージ66bによって、ゲストユーザは、自らのアバタが共演動画に含められて配信されることを知ることができる。クライアント装置10は、メッセージ66b以外にも、アイコンの表示、音声通知、振動による通知、及びこれら以外の方法で許可通知を受信したことをゲストユーザに知らせることができる。
In one embodiment, the co-starring request processing unit 21f is a client device 10 of the participating user (that is, a guest user) when co-starring between the participating user and the distribution user is permitted based on the co-starring request from the participating user. You may send a permission notice notifying that the co-starring is permitted. Upon receiving the permission notification, the client device 10 may display a
ゲストユーザのクライアント装置10は、サーバ装置20から許可通知を受信すると、当該ゲストユーザに対してアバタのパーツの購入を促すことができる。例えば、クライアント装置10は、サーバ装置20から許可通知を受信したことに応じて、アバタのパーツを購入する。 Upon receiving the permission notification from the server device 20, the client device 10 of the guest user can urge the guest user to purchase the avatar parts. For example, the client device 10 purchases avatar parts in response to receiving a permission notification from the server device 20.
ゲストユーザのクライアント装置10においてサーバ装置20から許可通知が受信されると、クライアント装置10は、アバタのパーツの購入を促す表示を行うことができる。例えば、クライアント装置10は、サーバ装置20から許可通知を受信したことに応じて、そのディスプレイに、アバタ本体またはそのパーツを購入するためのウィンドウを表示することができる。ゲストユーザは、当該ウィンドウに表示されているアバタ又はそのパーツの中から購入対象を選択し、実際に購入することができる。アバタ又はそのパーツを購入するためのウィンドウは、サーバ装置20から許可通知を受信したクライアント装置10においてのみ表示されてもよいし、それ以外のクライアント装置10でも表示されてもよい。許可通知を受信したクライアント装置10は、当該許可通知を購入する前と異なる種類のアバタ又はそのパーツを購入することができるウィンドウを表示してもよい。許可通知を受信したクライアント装置10は、例えば、共演動画に適したアバタやパーツを購入するためのウィンドウを表示することができる。 When the permission notification is received from the server device 20 in the client device 10 of the guest user, the client device 10 can display a display prompting the purchase of the avatar parts. For example, the client device 10 can display a window for purchasing the avatar body or its parts on its display in response to receiving the permission notification from the server device 20. The guest user can select the purchase target from the avatar or its parts displayed in the window and actually purchase it. The window for purchasing the avatar or its parts may be displayed only on the client device 10 that has received the permission notification from the server device 20, or may be displayed on the other client devices 10. Upon receiving the permission notice, the client device 10 may display a window in which a different type of avatar or a part thereof can be purchased than before the permission notice was purchased. The client device 10 that has received the permission notification can display, for example, a window for purchasing an avatar or a part suitable for the co-starring moving image.
一実施形態において、ゲストユーザのクライアント装置10においてサーバ装置20から許可通知が受信されると、クライアント装置10は、いわゆるガチャ機能を当該ゲストユーザに利用可能としてもよい。ゲストユーザは、このガチャ機能を利用することにより、サーバ装置20に対してアバタ又はそのパーツの取得要求を送信し、サーバ装置において当該取得要求に基づいて所定のアルゴリズムで当該ゲストユーザに与えるアバタ又はそのパーツが選択される。この選択されたアバタ又はそのパーツが取得要求を行ったゲストユーザに対して与えられる。このように、ゲストユーザは、ガチャ機能を利用することにより、新たなアバタ又はそのパーツを取得することができる。アバタ又はそのパーツを取得するためのガチャ機能は、サーバ装置20から許可通知を受信したクライアント装置10においてのみ利用可能とされてもよいし、それ以外のクライアント装置10でも利用可能であってもよい。許可通知を受信したクライアント装置10は、ガチャ機能により当該許可通知を購入する前と異なる種類のアバタ又はそのパーツを取得できてもよい。 In one embodiment, when the permission notification is received from the server device 20 in the client device 10 of the guest user, the client device 10 may make the so-called gacha function available to the guest user. By using this gacha function, the guest user sends an acquisition request for the avatar or its parts to the server device 20, and the avatar or the guest user is given to the guest user by a predetermined algorithm based on the acquisition request in the server device. The part is selected. This selected avatar or its part is given to the guest user who made the acquisition request. In this way, the guest user can acquire a new avatar or a part thereof by using the gacha function. The gacha function for acquiring the avatar or its parts may be available only in the client device 10 that has received the permission notification from the server device 20, or may be available in other client devices 10. .. The client device 10 that has received the permission notification may be able to acquire a different type of avatar or a part thereof from before purchasing the permission notification by the gacha function.
このように、ゲストユーザは、新たなアバタ又はそのパーツを購入したりガチャ機能によって取得することにより、共演の開始前に、共演動画に表示される自らのアバタをアップデイトすることができる。 In this way, the guest user can update his / her own avatar displayed in the co-starring video before the start of the co-starring by purchasing a new avatar or its parts or acquiring it by the gacha function.
一実施形態において、共演要求処理部21fは、参加ユーザからの共演要求に基づいて当該参加ユーザと配信ユーザとの共演が許可された場合に、当該参加ユーザ(すなわち、ゲストユーザ)と配信ユーザとが仮想的に共演する共演動画を生成する。例えば、共演要求処理部21fは、当該ゲストユーザのアバタをキャラクタオブジェクト51と共に動画中に表示させる。共演要求処理部21fは、アバタ制御部21eと同様の処理により、ゲストユーザのアバタを構築し、このゲストユーザのアバタを仮想空間に配置することができる。一実施形態において、共演要求が許可されたゲストユーザのアバタと配信ユーザのキャラクタオブジェクト51とを含む共演動画においては、当該ゲストユーザ以外のアバタ以外の視聴ユーザのアバタは表示されない。この場合、共演要求処理部21fは、複数の視聴ユーザのアバタのうちゲストユーザのアバタのみを仮想空間内に配置する。本明細書においては、共演要求が許可されたゲストユーザのアバタを配信ユーザのキャラクタオブジェクト51とともに表示することを「共演表示」と呼び、共演要求が許可された視聴ユーザのアバタ及び配信ユーザのキャラクタオブジェクト51を含む動画を「共演動画」と呼ぶことがある。
In one embodiment, the co-starring request processing unit 21f includes the participating user (that is, the guest user) and the distribution user when co-starring between the participating user and the distribution user is permitted based on the co-starring request from the participating user. Generates a co-starring video that virtually co-stars. For example, the co-starring request processing unit 21f displays the guest user's avatar together with the
共演動画の表示例が図7eに示されている。図7eに示されている画像60eには、共演要求を行った第1視聴ユーザのアバタ56aとキャラクタオブジェクト51とが含まれている。図7eに示されている画像60eにおいては、キャラクタオブジェクト51の横に第1視聴ユーザのアバタ56aが表示されている。画像60dには、共演表示が実施されたことを告知するためのメッセージ66cが表示されてもよい。
A display example of the co-starring moving image is shown in FIG. 7e. The
第1視聴ユーザからの共演要求に基づいて当該第1視聴ユーザのアバタ56aがキャラクタオブジェクト51とともに表示される場合には、アバタ56aは3D表示されてもよい。既述のように、アバタ56aは、共演要求を行う前の画像(例えば、画像60b)では2D表示されてもよい。共演要求を行う前に2D表示されていたアバタ56aの表示態様を共演表示において3D表示に変更してもよい。共演表示においてはアバタ56aが3D表示されるため、共演要求を受信した時点よりも前にアバタ56aについての3D表示情報がロードされている場合にのみ、第1視聴ユーザのクライアント装置10aに表示される画像60bにおいて共演申請ボタン64が表示されるようにしてもよい。
When the
一実施形態において、3D表示情報がロードされているアバタを使用するユーザ用の画像において共演申請ボタン64を表示させ、3D表示情報がロードされていないアバタを使用するユーザ用の画像においては共演申請ボタン64を表示しないことにより、3D表示情報のランタイムロードが発生しないようにしてサーバ装置20の処理負荷を軽減することができる。一実施形態においては、ランタイムロードに必要な処理負荷の発生を避けるために、ユーザからアバタの共演表示を受け付けた場合に、当該アバタの3D表示情報がロード済か否かを判定し、ロード済である場合にのみ当該アバタの3D表示を行うようにしてもよい。この場合、3D表示情報がロードされているアバタを使用するユーザ用の画像において共演申請ボタン64を表示させる一方で3D表示情報がロードされていないアバタを使用するユーザ用の画像においては共演申請ボタン64を表示しないことにより、無駄な共演要求の送信及び当該共演要求に基づく処理の発生を防ぐことができる。
In one embodiment, the
アバタを動画に共演表示する場合に、当該アバタの共演表示に関連した演出効果を表示してもよい。例えば、共演表示されるアバタを強調するように、当該アバタにスポットライトが当たっているような演出を行うことができる。共演表示されているアバタの共演表示を終了させる場合にも同様のまたは別の演出効果を表示することができる。 When the avatar is co-starred in the moving image, the effect related to the co-starring display of the avatar may be displayed. For example, it is possible to create an effect in which the spotlight is shining on the avatar so as to emphasize the avatar that is co-starred. The same or another effect can be displayed when the co-starring display of the co-starring display is terminated.
共演要求処理部21fは、第1視聴ユーザのアバタ56aをキャラクタオブジェクト51と共に動画に表示されてからの経過時間を計測してもよい。共演要求処理部21fは、当該経過時間を画像60dに表示してもよい。一実施形態においては、共演要求に基づいてキャラクタオブジェクト51とユーザのアバタとがともに表示される時間(あるアバタについて共演表示がなされる時間)の上限が設定されていてもよい。共演要求処理部21fは、当該上限となる時間を画像60dに表示してもよい。共演要求処理部21fは、当該上限となる時間と、第1視聴ユーザのアバタ56aをキャラクタオブジェクト51と共に動画に表示してからの経過時間とに基づいて、アバタ56aを表示可能な残り時間を計算し、当該残り時間を画像60dに表示してもよい。第1視聴ユーザのアバタ56aをキャラクタオブジェクト51と共に動画に表示されてからの経過時間、アバタ56aに設定された表示時間の上限、アバタ56aを表示可能な残り時間は、第1視聴ユーザのクライアント装置10aに表示されている画像60dのみに含められてもよく、第1視聴ユーザ及びその他のユーザのクライアント装置に表示されている画像60dに含められてもよい。共演表示が行われる時間の上限を設定することにより、より多くの視聴ユーザに配信ユーザと共演する機会を提供することができる。また、実行中の共演表示の残り時間を表示することにより、視聴ユーザに対して次のアバタが共演表示されるまでの時間を知らせることができる。
The co-starring request processing unit 21f may measure the elapsed time since the first viewing user's
共演要求処理部21fは、動画の配信ユーザ又はそれ以外のオペレータからの指示に基づいて、当該動画に参加しているアバタを当該動画から排除することができる。排除されたアバタは、当該動画の画面に表示されなくなる。同様に、共演要求処理部21fは、動画の配信ユーザ又はそれ以外のオペレータからの指示に基づいて、共演表示されているアバタを当該共演表示から排除することができる。排除されたアバタは、当該共演表示の画面に表示されなくなる。配信ユーザは、例えば、動画内で望ましくないコメントを行ったアバタ、動画内で望ましくない行動をとったアバタ、それ以外の動画に参加させておくことが望ましくないアバタを当該動画から及び/又は共演表示の画面から排除することができる。 The co-starring request processing unit 21f can exclude the avatars participating in the video from the video based on the instructions from the video distribution user or other operators. The excluded avatar will not be displayed on the screen of the video. Similarly, the co-starring request processing unit 21f can exclude the co-starring avatar from the co-starring display based on the instruction from the video distribution user or other operators. The excluded avatar will not be displayed on the screen of the co-starring display. For example, the distribution user may perform an avatar who made an undesired comment in the video, an avatar who took an undesired action in the video, and an avatar which is not desirable to be allowed to participate in other videos from the video and / or co-starred. It can be excluded from the display screen.
一実施形態において、アバタ制御部21eは、ゲストユーザのアバタの動きを、当該ユーザからの指示に基づいて制御することができる。例えば、アバタ制御部21eは、共演表示されているアバタのユーザからのエモーション表示要求を受け付け、当該エモーション表示要求に基づいて、当該アバタの行動を制御することができる。アバタ制御部21eは、共演動画の配信中に当該共演動画で配信ユーザと共演しているゲストユーザのクライアント装置10から送信されたフェイスモーションデータやボディモーションデータを用いてアバタの動きを制御するようにしてもよい。アバタ制御部21eは、共演動画の配信中に当該共演動画で配信ユーザと共演しているゲストユーザのクライアント装置10から送信された音声データを用いてアバタに発声させてもよい。 In one embodiment, the avatar control unit 21e can control the movement of the guest user's avatar based on an instruction from the user. For example, the avatar control unit 21e can receive an emotion display request from a user of the avatar co-starring and control the behavior of the avatar based on the emotion display request. The avatar control unit 21e controls the movement of the avatar by using the face motion data and the body motion data transmitted from the client device 10 of the guest user who is co-starring with the distribution user in the co-starring video during the distribution of the co-starring video. You may do it. The avatar control unit 21e may make the avatar speak using the voice data transmitted from the client device 10 of the guest user who is co-starring with the distribution user in the co-starring video during the distribution of the co-starring video.
共演要求には、図6に示されるように、共演要求を行う参加ユーザを識別するユーザIDに対応付けて、メッセージデータ及びモーションデータの少なくとも一方が含まれていてもよい。アバタ制御部21eは、共演要求に含まれているメッセージデータに基づいて、ゲストユーザのアバタに動画内で当該メッセージデータに対応するメッセージを発声させてもよい。このメッセージとしては、例えば、「こんにちは」といった挨拶が考えられる。メッセージデータに基づいてテキストメッセージを生成し、当該共演要求を行った参加ユーザのアバタと対応付けて当該テキストメッセージを表示させてもよい。メッセージデータは、複数のメッセージに対応するデータであってもよい。 As shown in FIG. 6, the co-starring request may include at least one of message data and motion data in association with a user ID that identifies a participating user who makes a co-starring request. The avatar control unit 21e may utter a message corresponding to the message data in the moving image to the guest user avatar based on the message data included in the co-starring request. As this message, for example, a greeting such as "Hello" can be considered. A text message may be generated based on the message data, and the text message may be displayed in association with the avatar of the participating user who made the co-starring request. The message data may be data corresponding to a plurality of messages.
モーションデータは、フェイスモーションデータ及びボディモーションデータの少なくとも一方を含むことができる。共演要求に含まれるモーションデータは、クライアント装置10が備えるセンサユニットによって取得されてもよいし、クライアント装置10とは別のセンシング装置により取得されてもよい。アバタ制御部21eは、共演要求に含まれているモーションデータに基づいてゲストユーザのアバタの動きを制御してもよい。モーションデータは、例えば、アバタが右手を振って挨拶するというアバタの動きを表すデータである。モーションデータは、アバタの一連の動きのセットを表すデータであってもよい。アバタの一連の動きのセットは、例えば、アバタが手を振るという動きと、その後に当該アバタがお辞儀をするという動きとのセットである。 The motion data can include at least one of face motion data and body motion data. The motion data included in the co-starring request may be acquired by the sensor unit included in the client device 10, or may be acquired by a sensing device different from the client device 10. The avatar control unit 21e may control the movement of the guest user's avatar based on the motion data included in the co-starring request. The motion data is data representing, for example, the movement of the avatar in which the avatar waving his right hand to greet him. The motion data may be data representing a set of avatar movements. A set of avatar movements is, for example, a set of avatar waving and then the avatar bowing.
一実施形態において、配信ユーザとの共演要求を送信したが共演が拒否された参加ユーザに対しては、当該参加ユーザのアバタと当該配信ユーザのキャラクタオブジェクト51とを含む画像(2ショット画像)を与えてもよい。共演要求処理部21fは、例えば、第1視聴ユーザからの共演要求が拒否された場合には、仮に共演要求が許可された場合に生成される動画フレームと同じ動画フレームを生成し、この動画フレームを表す動画ファイルを共演が拒否された第1視聴ユーザのクライアント装置10に送信してもよい。この動画フレームは、共演要求が拒否された第1視聴ユーザのクライアント装置10にのみ送信され、他の視聴ユーザのクライアント装置10には配信されない。この動画フレームは、例えば、図7eに示されている画像60eに相当する(ただし、メッセージ66cや操作ボタン61、62、68は含まれない。これにより、配信ユーザとの共演が拒否された参加ユーザに対しても、配信ユーザとのつながりを感じるためのコンテンツを提供することができる。この配信ユーザのキャラクタオブジェクト51との2ショット画像は、動画への参加要求を行ったものの当該参加要求が拒否された視聴ユーザに対して送信してもよい
。
In one embodiment, for a participating user who has sent a co-starring request with the distribution user but the co-starring is rejected, an image (two-shot image) including the avatar of the participating user and the
続いて、図8を参照して、一態様による動画配信処理について説明する。図8は、一実施形態における動画配信処理の流れを示すフロー図である。動画配信処理においては、スタジオルームRにアクターA1が在室していることが想定されている。 Subsequently, with reference to FIG. 8, a moving image distribution process according to one aspect will be described. FIG. 8 is a flow chart showing the flow of video distribution processing in one embodiment. In the video distribution process, it is assumed that the actor A1 is present in the studio room R.
まず、ステップS11では、アクターA1の体の動きのデジタル表現であるボディモーションデータと、アクターA1の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータ及びフェイスモーションデータは、例えば、アクターA1に装着されているモーションセンサ31a〜31fの検出情報、デジタルカメラ36aが撮像した撮像情報、及び必要に応じてこれら以外のスタジオルームRに設定された各種機器が検出する情報に基づいて生成される。
First, in step S11, body motion data that is a digital representation of the body movement of the actor A1 and face motion data that is a digital representation of the face movement (facial expression) of the actor A1 are generated. The body motion data and face motion data are set in, for example, the detection information of the
次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションが生成される。 Next, in step S12, by applying the body motion data and face motion data of the actor A1 to the model data for the actor A1, an animation of a character object that moves in synchronization with the movement of the body and facial expression of the actor A1 is generated. Will be done.
次に、ステップS13において、仮想空間の画像と、アクターA1に対応するキャラクタオブジェクトのアニメーションと、を含む3次元動画データが生成される。この動画情報には、アクターA1の音声が含まれてもよい。また、この3次元動画データがレンダリングされて動画が生成される。この動画は、動画フレームのシーケンスであってもよい。この動画の生成は、例えば、上記の動画生成部21aで行われる。 Next, in step S13, three-dimensional moving image data including an image of the virtual space and an animation of a character object corresponding to the actor A1 is generated. This moving image information may include the sound of the actor A1. Further, the three-dimensional moving image data is rendered to generate a moving image. This moving image may be a sequence of moving image frames. This moving image is generated, for example, by the moving image generation unit 21a described above.
次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク15を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。
Next, the process proceeds to step S14, and the moving image generated in step S13 is delivered. This moving image is distributed to the client devices 10a to 10c and other client devices via the network 15. This moving image may be delivered to the
次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、アクターA1の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。
Next, the process proceeds to step S15, and it is determined whether or not the termination condition for terminating the distribution of the moving image is satisfied. The end condition is, for example, that the end time of the distribution has been reached, that the
続いて、図9を参照して、一態様による参加要求処理について説明する。図9は、一実施形態における参加要求処理の流れを示すフロー図である。図9の参加要求処理においては、サーバ装置20から配信された動画をクライアント装置10aによって視聴している第1視聴ユーザから当該動画への参加を求める参加要求されたことが想定されている。参加要求処理は、図8に示されている動画の配信処理と並行して行われてもよい。 Subsequently, with reference to FIG. 9, the participation request processing according to one aspect will be described. FIG. 9 is a flow chart showing a flow of participation request processing in one embodiment. In the participation request processing of FIG. 9, it is assumed that the first viewing user who is viewing the moving image delivered from the server device 20 by the client device 10a requests participation in the moving image. The participation request processing may be performed in parallel with the video distribution processing shown in FIG.
まず、ステップS16において、第1視聴ユーザのクライアント装置10から視聴中の動画への参加を要求する参加要求が受け付けられる。参加要求は、第1視聴ユーザによってクライアント装置10aに表示されている参加要求ボタン63が選択されたことに応じて、クライアント装置10aからサーバ装置20に送信される。
First, in step S16, a participation request requesting participation in the moving image being viewed is received from the client device 10 of the first viewing user. The participation request is transmitted from the client device 10a to the server device 20 in response to the selection of the
次に、ステップS16において、第1視聴ユーザからの参加要求が許可されるか否かが判定される。この判定は、例えば、上記の参加要求処理部21cにより行われる。 Next, in step S16, it is determined whether or not the participation request from the first viewing user is permitted. This determination is made, for example, by the participation request processing unit 21c described above.
参加要求が許可されると参加要求処理はステップS18に進む。ステップS18では、第1視聴ユーザのアバタ56aが仮想空間50の所定の位置に配置される。これにより、仮想カメラの描画領域にアバタ56aが配置された位置が含まれる場合には、第1視聴ユーザのアバタ56aが配信される動画に含められる。アバタ56aを動画へ含めるための処理は、例えば、上記のアバタ表示部21dにより行われる。
If the participation request is approved, the participation request processing proceeds to step S18. In step S18, the
参加要求が許可されない(拒否される)と、第1視聴ユーザのアバタ56aの表示を行わずに参加要求処理を終了する。
If the participation request is not permitted (rejected), the participation request processing is terminated without displaying the
第1視聴ユーザが参加要求を行った場合を例に参加要求処理を説明したが、サーバ装置20は、動画の配信中に複数の視聴ユーザから参加要求を随時受け付けることができる。よって、サーバ装置20は、複数の参加要求の各々に関して上記の参加要求処理を実行することができる。このようにして、サーバ装置20は、動画への参加要求を行った複数の視聴ユーザの中から複数の参加ユーザを選定することができる。 Although the participation request processing has been described by taking the case where the first viewing user makes a participation request as an example, the server device 20 can receive the participation request from a plurality of viewing users at any time during the distribution of the moving image. Therefore, the server device 20 can execute the above-mentioned participation request processing for each of the plurality of participation requests. In this way, the server device 20 can select a plurality of participating users from among the plurality of viewing users who have requested to participate in the moving image.
次に、図10を参照して、一実施形態における共演動画の配信処理について説明する。図10は、一実施形態において共演動画を配信する処理の流れを示すフロー図である。図10を参照して説明される共演動画の配信処理においては、配信ユーザのキャラクタオブジェクトを含む動画を視聴している視聴ユーザから当該配信ユーザに対して共演要求がなされることが想定されている。共演動画の配信処理は、図8に示されている動画の配信処理及び図9に示されている参加要求処理と並行して行われてもよい。 Next, with reference to FIG. 10, the distribution process of the co-starring moving image in one embodiment will be described. FIG. 10 is a flow chart showing a flow of processing for distributing a co-starring moving image in one embodiment. In the distribution process of the co-starring video described with reference to FIG. 10, it is assumed that the viewing user who is viewing the video including the character object of the distribution user makes a co-starring request to the distribution user. .. The co-starring moving image distribution processing may be performed in parallel with the moving image distribution processing shown in FIG. 8 and the participation request processing shown in FIG.
まず、ステップS21において、配信ユーザのキャラクタオブジェクトを含む動画の配信中に、当該動画への参加が許可されている視聴ユーザ(参加ユーザ)から共演要求がなされたか否かが判定される。共演要求は、例えば第1視聴ユーザからなされる。第1視聴ユーザによって共演要求がなされた場合には、処理はステップS22に進む。 First, in step S21, it is determined whether or not a co-starring request is made by a viewing user (participating user) who is permitted to participate in the moving image during distribution of the moving image including the character object of the distribution user. The co-starring request is made, for example, by the first viewing user. If the co-starring request is made by the first viewing user, the process proceeds to step S22.
ステップS22では、共演を申請した第1視聴ユーザからの共演要求に基づいて、当該第1視聴ユーザと配信ユーザとの共演を許可するか否かが判定される。共演要求を許可するか否かの判定は、例えば、共演要求処理部21fにより行われる。第1視聴ユーザと配信ユーザとの共演が許可された場合には、処理はステップS23に進む。 In step S22, it is determined whether or not to allow co-starring between the first viewing user and the distribution user based on the co-starring request from the first viewing user who applied for co-starring. For example, the co-starring request processing unit 21f determines whether or not to allow the co-starring request. If the co-starring of the first viewing user and the distribution user is permitted, the process proceeds to step S23.
ステップS23では、配信ユーザとの共演が許可された第1視聴ユーザのクライアント装置10に対して、共演が許可されたことを通知する許可通知が送信される。許可通知の送信は、例えば、共演要求処理部21fにより行われる。第1視聴ユーザのクライアント装置10は、当該許可通知に基づいて共演が許可されたことを示すメッセージ66bをディスプレイに表示してもよい。この許可通知に基づいて表示されるメッセージ66bによって、第1視聴ユーザは、自らのアバタが共演動画に含められることを知ることができ、アバタの更新などの共演のための準備を行うことができる。
In step S23, a permission notification notifying that the co-starring is permitted is transmitted to the client device 10 of the first viewing user who is permitted to co-star with the distribution user. The permission notification is transmitted, for example, by the co-starring request processing unit 21f. The client device 10 of the first viewing user may display a
続いて、ステップS24では、配信ユーザのキャラクタオブジェクトと第1視聴ユーザのアバタとを含む共演動画が生成される。ステップS24における共演動画の生成は、例えば、上記の共演要求処理部21fで行われる。 Subsequently, in step S24, a co-starring moving image including the character object of the distribution user and the avatar of the first viewing user is generated. The generation of the co-starring moving image in step S24 is performed, for example, by the co-starring request processing unit 21f described above.
次に、処理は、ステップS25に移行する。ステップS25では、ステップS24にて生成された共演動画が配信される。この共演動画は、ネットワーク50を介してクライアント装置10及びこれら以外のクライアント装置並びに配信ユーザ装置に配信される。共演動画には、例えば、図7eに示されているように、第1視聴ユーザのキャラクタオブジェクト56a及び配信ユーザのキャラクタオブジェクト51が含まれる。
Next, the process proceeds to step S25. In step S25, the co-starring moving image generated in step S24 is delivered. This co-starring moving image is distributed to the client device 10, other client devices, and the distribution user device via the network 50. As shown in FIG. 7e, the co-starring moving image includes, for example, the
次に、処理は、ステップS26に移行する。ステップS26では、共演終了条件が満たされたか否かが判定される。例えば、共演動画の配信開始から所定時間以上が経過した場合に共演終了条件が満たされたと判定される。共演終了条件が満たされた場合には、処理はステップS27に進む。 Next, the process proceeds to step S26. In step S26, it is determined whether or not the co-starring end condition is satisfied. For example, it is determined that the co-starring end condition is satisfied when a predetermined time or more has elapsed from the start of distribution of the co-starring moving image. If the co-starring end condition is satisfied, the process proceeds to step S27.
ステップS27では、共演動画の配信を終了させるための処理が行われる。例えば、共演動画から、仮想空間からゲストユーザである第1視聴ユーザのキャラクタオブジェクト51を除外することで、第1視聴ユーザと配信ユーザとの共演を終了させる。共演が終了した後に配信される動画には、第1視聴ユーザのキャラクタオブジェクト51が含まれない。複数のゲストユーザが選定されている場合には、第1視聴ユーザと配信ユーザとの共演が終了した後に、当該第1視聴ユーザ以外のゲストユーザと配信ユーザとの共演が開始されてもよい。全てのゲストユーザとの共演が終了した場合でも、動画は継続して配信されてもよい。上記の共演終了条件の判定及び共演の終了処理は、例えば、共演終了処理部61fにより行われる。
In step S27, a process for terminating the distribution of the co-starring moving image is performed. For example, by excluding the
以上の実施形態によって奏される作用効果について説明する。上記の一実施形態における動画配信システム1によれば、配信されている動画を視聴している視聴ユーザの全てから共演要求を受け付けるのではなく、当該動画への参加を要求して当該動画への参加要求が認められた参加ユーザのみから共演要求を受け付けるように構成される。例えば、動画への参加が許可された視聴ユーザ(すなわち、参加ユーザ)のクライアント装置10において共演要求を行うための機能をアクティベートし、当該動画への参加が許可されていない視聴ユーザのクライアント装置10においては共演要求を行うための機能をアクティベートしないことにより、参加ユーザのみから共演要求を受け付けることができる。これにより、視聴ユーザの数が多くなっても、クライアント装置10から受け付ける共演要求の数を抑制することができる。 The action and effect produced by the above embodiments will be described. According to the video distribution system 1 in the above embodiment, instead of accepting the co-starring request from all the viewing users who are watching the distributed video, the video is requested to participate in the video. It is configured to accept co-starring requests only from participating users who have been approved for participation. For example, the client device 10 of a viewing user who is not permitted to participate in the video is activated by activating the function for making a co-starring request in the client device 10 of the viewing user (that is, the participating user) who is permitted to participate in the video. By not activating the function for making a co-starring request, the co-starring request can be accepted only from the participating users. As a result, even if the number of viewing users increases, the number of co-starring requests received from the client device 10 can be suppressed.
上記の一実施形態においては、動画を視聴する複数の視聴ユーザ全体のうち当該動画への参加が許可された参加ユーザ以外の視聴ユーザに対しては、サーバ装置20から当該参加ユーザの選定に関する通知が送信されない。一実施形態においては、動画を視聴する複数の視聴ユーザ全体のうち当該動画への参加が許可された参加ユーザのクライアント装置10に対してのみ当該参加ユーザの選定に関する通知が送信される。これにより、サーバ装置220において、参加を許可するか否かの判定を行った結果に関する通知を生成し送信する処理負荷が軽減され、また、通信トラフィックを低減することができる。 In the above embodiment, the server device 20 notifies the viewing users other than the participating users who are permitted to participate in the video among the plurality of viewing users who view the video, regarding the selection of the participating users. Is not sent. In one embodiment, the notification regarding the selection of the participating user is transmitted only to the client device 10 of the participating user who is permitted to participate in the moving image among the plurality of viewing users who view the moving image. As a result, in the server device 220, the processing load for generating and transmitting a notification regarding the result of determining whether or not to allow participation can be reduced, and the communication traffic can be reduced.
上記の一実施形態においては、動画への参加を要求して拒否されたユーザに対しては、その拒否された旨の通知がなされない。この場合、参加要求を行った視聴ユーザは、配信される動画に自らのキャラクタオブジェクト(アバタ)が含まれているか否かを確認することにより、自らの参加要求が許可されたか否かを知ることができる。つまり、配信された動画に自らのアバタが含まれていれば参加が許可されたことが分かり、配信された動画に自らのアバタが含まれていなければ参加が許可されなかったことがわかる。このように、上記の一実施形態においては、サーバ装置20から参加ユーザのアバタを含む動画を配信することにより、当該動画以外の通知を追加的に送信しなくても、参加要求が拒否された視聴ユーザも含む全ての視聴ユーザに対して参加要求が許可されたか否かを知らしめることができる。つまり、上記の一実施形態においては、動画以外の通知を送信することなく、参加要求が拒否された視聴ユーザに対しても参加要求が許可されたか否かを知らせることができる。また、参加ユーザのアバタを含む動画を通じて参加要求が許可されたか否かを知らせることにより、参加要求を行った視聴ユーザの注意や関心を配信されている動画に引きつけることができる。人気がある配信ユーザの動画については、視聴ユーザの数が膨大となる可能性がある。この場合には、視聴ユーザ全員に対して参加ユーザの選定に関する通知を行わないことによるサーバ装置20の処理負荷の軽減効果が大きくなる。 In one of the above embodiments, the user who requests to participate in the video and is refused is not notified that the user has been refused. In this case, the viewing user who made the participation request knows whether or not his / her participation request is permitted by confirming whether or not his / her character object (avatar) is included in the delivered video. Can be done. In other words, it can be seen that participation was permitted if the delivered video contained one's own avatar, and that participation was not permitted if the delivered video did not contain one's own avatar. As described above, in the above embodiment, by distributing the video including the avatar of the participating user from the server device 20, the participation request is rejected without additionally transmitting the notification other than the video. It is possible to notify all viewing users including the viewing user whether or not the participation request is permitted. That is, in the above embodiment, it is possible to notify the viewing user whose participation request is rejected whether or not the participation request is permitted without transmitting a notification other than the moving image. In addition, by notifying whether or not the participation request is permitted through the video including the avatar of the participating user, it is possible to attract the attention and interest of the viewing user who made the participation request to the delivered video. For videos of popular distribution users, the number of viewing users can be enormous. In this case, the effect of reducing the processing load of the server device 20 is increased by not notifying all the viewing users regarding the selection of the participating users.
上記の一実施形態においては、サーバ装置20から参加ユーザのクライアント装置10に対して、当該クライアント装置10において当該参加ユーザが共演要求を行うための機能をアクティベートするためのコマンドが送信される。これにより、視聴ユーザ全体のうち参加ユーザのクライアント装置10において共演要求を行うことが可能となり、参加が許可されなかった視聴ユーザのクライアント装置10においては共演要求を行うことができない。よって、共演要求を行うことができるユーザの数が視聴ユーザ全体よりも少なくなるので、サーバ装置20において共演要求を処理するための処理負荷を低減することができる。共演要求に基づく共演可否の決定が配信ユーザによる選定に委ねられる場合には、配信ユーザによる決定の手間を軽減することができる。 In the above embodiment, the server device 20 transmits a command to the client device 10 of the participating user to activate the function for the participating user to make a co-starring request in the client device 10. As a result, it is possible to make a co-starring request in the client device 10 of the participating user among all the viewing users, and it is not possible to make a co-starring request in the client device 10 of the viewing user who is not permitted to participate. Therefore, since the number of users who can make the co-starring request is smaller than that of the entire viewing user, the processing load for processing the co-starring request in the server device 20 can be reduced. When the decision on whether or not to allow co-starring based on the co-starring request is left to the selection by the distribution user, it is possible to reduce the trouble of the decision by the distribution user.
上記の一実施形態において、共演要求は、当該共演要求を行う参加ユーザからのメッセージを示すメッセージデータを含んでもよい。共演要求は、当該共演要求を行う参加ユーザのアバタの動きを指定するモーションデータを含んでもよい。共演要求にメッセージデータやモーションデータを含めることにより、共演動画の配信中にゲストユーザが特段の操作を行わなくとも、メッセージデータやモーションデータの形式で共演開始前に提供されたデータに基づいて、当該ゲストユーザの動きや音声を制御することができる。 In one of the above embodiments, the co-starring request may include message data indicating a message from a participating user who makes the co-starring request. The co-starring request may include motion data that specifies the movement of the avatar of the participating user who makes the co-starring request. By including the message data and motion data in the co-starring request, the guest user does not have to perform any special operation during the distribution of the co-starring video, based on the data provided before the start of the co-starring in the form of message data or motion data. The movement and voice of the guest user can be controlled.
本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。クライアント装置10aは、アバタ56aとキャラクタオブジェクト51とがともに表示されている画像(例えば、画像60e)を他の通信装置に送信する機能を有していてもよい。例えば、第1視聴ユーザは、クライアント装置10aの機能を利用してアバタ56aとキャラクタオブジェクト51とがともに表示されている画像を、サーバ装置20が提供する動画サービス内のソーシャルネットワーキングサービス又はサーバ装置20が提供する動画サービスとは異なるソーシャルネットワーキングサービスにおいて配信することができる。
The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist thereof. For example, the moving image to be distributed may be shot and generated in a place other than the studio room R. For example, shooting for generating a video to be delivered may be performed at the home of an actor or a supporter. The client device 10a may have a function of transmitting an image (for example, an
上記のとおり、コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、クライアント装置10a〜10cのいずれかに備えられるコンピュータプロセッサにより実現されてもよい。例えば、動画生成部21a、動画配信部21b、参加要求処理部21c、アバタ表示部21d、アバタ制御部21e、及び共演要求処理部21fの機能の一部又は全部は、クライアント装置10a〜10cにおいて実行されてもよい。具体的には、クライアント装置10a〜10cのいずれかにおいて生成された動画がサーバ装置20に送信され、サーバ装置20からクライアント装置10a〜10cに配信されてもよい。 As described above, at least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by the computer processor provided in any of the client devices 10a to 10c, for example. For example, some or all of the functions of the moving image generation unit 21a, the moving image distribution unit 21b, the participation request processing unit 21c, the avatar display unit 21d, the avatar control unit 21e, and the co-starring request processing unit 21f are executed by the client devices 10a to 10c. May be done. Specifically, the moving image generated by any of the client devices 10a to 10c may be transmitted to the server device 20 and distributed from the server device 20 to the client devices 10a to 10c.
配信ユーザのキャラクタオブジェクト51を含む動画をクライアント装置10aで視聴している視聴ユーザから当該キャラクタオブジェクト51(又はその配信ユーザ)との共演申請がなされる場合には、共演申請を行った視聴ユーザのアバタ56aのアニメーションは、サーバ装置20又はクライアント装置10aのいずれで生成されてもよい。また、キャラクタオブジェクト51をと視聴ユーザのアバタ56aとを含む共演動画の生成は、サーバ装置20又はクライアント装置10aのいずれで行われてもよい。共演動画は、サーバ装置20、クライアント装置10a、及びこれら以外の装置により分担して生成されてもよい。配信ユーザのキャラクタオブジェクト51と視聴ユーザのアバタ56aとを含む共演動画がクライアント装置10aにおいて生成される場合には、サーバ装置20又はスタジオユニット30からクライアント装置10aに対して配信ユーザのモーションデータ及び音声データがクライアント装置10aに送信されてもよい。クライアント装置10aでは、受信した配信ユーザのモーションデータを当該配信ユーザ用のモデルデータに適用することでキャラクタオブジェクト51のアニメーションが生成される。この配信ユーザのモデルデータは、サーバ装置20又はスタジオユニット30からクライアント装置10aへ送信されてもよい。クライアント装置10aによって生成される共演動画にギフトオブジェクトが含められる場合には、サーバ装置20又はギフティングを行った視聴ユーザのクライアント装置から当該ギフトオブジェクトを表示するためのデータが当該クライアント装置10aへ送信されてもよい。このように、共演動画は、動画配信システム1に含まれる任意の装置で生成され得る。キャラクタオブジェクトのアニメーションは、図1に明示的に示されていない装置で生成されてもよい。キャラクタオブジェクト51とアバタ56aを含む共演動画を生成する装置には、当該キャラクタオブジェクト51に対応する配信ユーザ及びアバタ56aに対応する視聴ユーザのモーションデータ及び音声データが送信される。
When a viewing user who is watching a moving image including the
本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedure described in the present specification, particularly the processing procedure described using the flow chart, a part of the process (step) constituting the processing procedure is omitted, as a step constituting the processing procedure. It is possible to add steps not specified and / or change the order of the steps, and the processing procedure in which such omissions, additions, and changes are made is not intended to deviate from the spirit of the present invention. Included in the scope of the invention.
以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
配信ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む動画を複数の視聴ユーザの各々のクライアント装置に配信し、
前記複数の視聴ユーザから前記動画への参加要求を受け付けたことに応じて、前記複数の視聴ユーザの中から複数の参加ユーザを選定し、
前記複数の参加ユーザの各々に対応する複数の第2キャラクタオブジェクトを前記動画内に含め、
前記複数の参加ユーザの少なくとも一部から前記配信ユーザとの共演を申請する共演要求を受け付け、前記共演要求を行った参加ユーザの中から一又は複数のゲストユーザを選定し、
前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信し、
前記第2キャラクタオブジェクトのうち前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む共演動画を生成し、
前記共演動画は、前記複数の参加ユーザのうち前記一又は複数のゲストユーザとして選定されていないキャラクタオブジェクトを含まない、
動画配信システム。
[2]
前記一又は複数のコンピュータプロセッサは、前記複数の参加ユーザの各々のクライアント装置において前記共演要求を行うための機能をアクティベートさせるためのコマンドを前記複数の参加ユーザの各々のクライアント装置に送信する、
[1]に記載の動画配信システム。
[3]
前記複数の参加ユーザのうちの一の参加ユーザからの前記共演要求には前記一の参加ユーザからのメッセージが含まれる、
[1]又は[2]に記載の動画配信システム。
[4]
前記複数の参加ユーザのうちの一の参加ユーザからの前記共演要求には前記一の参加ユーザからのモーションデータが含まれ、
前記一又は複数のコンピュータプロセッサは、前記一の参加ユーザに対応する前記第2キャラクタオブジェクトに前記動画内において前記モーションデータに対応する動作を行わせる、
[1]から[3]のいずれか1項に記載の動画配信システム。
[5]
前記参加要求に基づく前記複数の参加ユーザの選定は、所定のアルゴリズムに基づいて行われる、
[1]から[4]のいずれか1項に記載の動画配信システム。
[6]
前記共演要求に基づく前記一又は複数のゲストユーザの選定は、前記配信ユーザの選択に応じて行われる、
[1]から[5]のいずれか1項に記載の動画配信システム。
[7]
前記一又は複数のコンピュータプロセッサは、前記複数の参加ユーザ以外の前記複数の視聴ユーザに対しては、前記複数の参加ユーザの選定に関する通知を送信しない、
[1]から[6]のいずれか1項に記載の動画配信システム。
[8]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
配信ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む動画を複数の視聴ユーザの各々のクライアント装置に配信する工程と、
前記複数の視聴ユーザから前記動画への参加要求を受け付けたことに応じて、前記複数の視聴ユーザの中から複数の参加ユーザを選定する工程と、
前記複数の参加ユーザの各々に対応する複数の第2キャラクタオブジェクトを前記動画内に含める工程と、
前記複数の参加ユーザの少なくとも一部から前記配信ユーザとの共演を申請する共演要求を受け付け、前記共演要求を行った参加ユーザの中から一又は複数のゲストユーザを選定する工程と、
前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信する工程と、
前記第2キャラクタオブジェクトのうち前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む共演動画を生成する工程と、
を備え、
前記共演動画は、前記複数の参加ユーザのうち前記一又は複数のゲストユーザとして選定されていないキャラクタオブジェクトを含まない、
動画配信方法。
[9]
一又は複数のコンピュータプロセッサに、
配信ユーザの動きに基づいて生成される第1キャラクタオブジェクトを含む動画を複数の視聴ユーザの各々のクライアント装置に配信する工程と、
前記複数の視聴ユーザから前記動画への参加要求を受け付けたことに応じて、前記複数の視聴ユーザの中から複数の参加ユーザを選定する工程と、
前記複数の参加ユーザの各々に対応する複数の第2キャラクタオブジェクトを前記動画内に含める工程と、
前記複数の参加ユーザの少なくとも一部から前記配信ユーザとの共演を申請する共演要求を受け付け、前記共演要求を行った参加ユーザの中から一又は複数のゲストユーザを選定する工程と、
前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信する工程と、
前記第2キャラクタオブジェクトのうち前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む共演動画を生成する工程と、
を実行させ、
前記共演動画は、前記複数の参加ユーザのうち前記一又は複数のゲストユーザとして選定されていないキャラクタオブジェクトを含まない、
動画配信プログラム。
The inventions described in the claims at the time of filing the original application of the present application are described below.
[1]
Equipped with one or more computer processors
The one or more computer processors may execute computer-readable instructions.
A video containing a first character object generated based on the movement of a distribution user is distributed to each client device of a plurality of viewing users.
In response to receiving requests for participation in the video from the plurality of viewing users, a plurality of participating users are selected from the plurality of viewing users.
A plurality of second character objects corresponding to each of the plurality of participating users are included in the moving image.
A co-star request for co-starring with the distribution user is received from at least a part of the plurality of participating users, and one or more guest users are selected from the participating users who have made the co-starring request.
A notification regarding the selection of the one or more guest users is sent to each of the one or more guest users.
A co-star movie including the guest character object corresponding to at least a part of the one or more guest users and the first character object among the second character objects is generated.
The co-starring video does not include a character object that has not been selected as the one or more guest users among the plurality of participating users.
Video distribution system.
[2]
The one or more computer processors transmit a command for activating the function for making the co-starring request in each client device of the plurality of participating users to each client device of the plurality of participating users.
The video distribution system according to [1].
[3]
The co-starring request from one of the plurality of participating users includes a message from the one participating user.
The video distribution system according to [1] or [2].
[4]
The co-starring request from one of the plurality of participating users includes motion data from the one participating user.
The one or more computer processors causes the second character object corresponding to the one participating user to perform an operation corresponding to the motion data in the moving image.
The video distribution system according to any one of [1] to [3].
[5]
The selection of the plurality of participating users based on the participation request is performed based on a predetermined algorithm.
The video distribution system according to any one of [1] to [4].
[6]
The selection of the one or more guest users based on the co-starring request is performed according to the selection of the distribution user.
The video distribution system according to any one of [1] to [5].
[7]
The one or more computer processors do not send a notification regarding the selection of the plurality of participating users to the plurality of viewing users other than the plurality of participating users.
The video distribution system according to any one of [1] to [6].
[8]
A method of video distribution performed by one or more computer processors executing computer-readable instructions.
A process of distributing a video including a first character object generated based on a movement of a distribution user to each client device of a plurality of viewing users, and a process of distributing the video to each client device of a plurality of viewing users.
A process of selecting a plurality of participating users from the plurality of viewing users in response to receiving a request for participation in the video from the plurality of viewing users, and a process of selecting a plurality of participating users from the plurality of viewing users.
A step of including a plurality of second character objects corresponding to each of the plurality of participating users in the moving image, and
A process of receiving a co-starring request for co-starring with the distribution user from at least a part of the plurality of participating users and selecting one or more guest users from the participating users who have made the co-starring request.
The step of transmitting a notification regarding the selection of the one or more guest users to each of the one or more guest users, and
A step of generating a co-starring moving image including a guest character object corresponding to at least a part of the one or a plurality of guest users among the second character objects and the first character object.
Equipped with
The co-starring video does not include a character object that has not been selected as the one or more guest users among the plurality of participating users.
Video distribution method.
[9]
For one or more computer processors
A process of distributing a video including a first character object generated based on a movement of a distribution user to each client device of a plurality of viewing users, and a process of distributing the video to each client device of a plurality of viewing users.
A process of selecting a plurality of participating users from the plurality of viewing users in response to receiving a request for participation in the video from the plurality of viewing users, and a process of selecting a plurality of participating users from the plurality of viewing users.
A step of including a plurality of second character objects corresponding to each of the plurality of participating users in the moving image, and
A process of receiving a co-starring request for co-starring with the distribution user from at least a part of the plurality of participating users and selecting one or more guest users from the participating users who have made the co-starring request.
The step of transmitting a notification regarding the selection of the one or more guest users to each of the one or more guest users, and
A step of generating a co-starring moving image including a guest character object corresponding to at least a part of the one or a plurality of guest users among the second character objects and the first character object.
To execute,
The co-starring video does not include a character object that has not been selected as the one or more guest users among the plurality of participating users.
Video distribution program.
1 動画配信システム
10 クライアント装置
20 サーバ装置
1 Video distribution system 10 Client device 20 Server device
Claims (14)
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
複数のユーザから前記動画への参加要求を受け付け、前記複数のユーザの中から複数の参加ユーザを選定し、
前記複数の参加ユーザの中から一又は複数のゲストユーザを選定し、
前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信し、
前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む共演動画を生成する、
動画配信システム。 A video distribution system that distributes a video containing a first character object generated based on the movement of a distribution user.
Equipped with one or more computer processors
The one or more computer processors may execute computer-readable instructions.
Accepting requests to participate in the video from multiple users, selecting multiple participating users from the plurality of users,
Select one or more guest users from the plurality of participating users,
A notification regarding the selection of the one or more guest users is sent to each of the one or more guest users.
Generating a co-star video containing a guest character object corresponding to at least a portion of the one or more guest users and the first character object.
Video distribution system.
前記第1キャラクタオブジェクト及び前記ゲストキャラクタオブジェクトは、前記動画内に3D表示情報に基づいて立体的に表示され、
前記一又は複数のゲストユーザは、前記複数の参加ユーザのうち前記3D表示情報を前記サーバにロードしたロード実行済み参加ユーザの中から選定される、
請求項1に記載の動画配信システム。 Equipped with a server that distributes the video
The first character object and the guest character object are three-dimensionally displayed in the moving image based on 3D display information.
The one or more guest users are selected from the loaded participating users who have loaded the 3D display information into the server among the plurality of participating users.
The video distribution system according to claim 1.
前記一又は複数のコンピュータプロセッサは、前記ゲストユーザの選定に関する通知を受信した前記一又は複数のゲストユーザのうちの一のゲストユーザのクライアント装置に、前記一のゲストユーザの前記ゲストキャラクタオブジェクトを構築するためのパーツ情報の購入を促すウィンドウを表示させる、
請求項1又は2に記載の動画配信システム。 The guest character object is constructed based on one or more part information associated with the guest user.
The one or more computer processors constructs the guest character object of the one guest user on the client device of one of the one or more guest users who has received the notification regarding the selection of the guest user. Display a window prompting you to purchase parts information for
The video distribution system according to claim 1 or 2.
前記一又は複数のコンピュータプロセッサは、前記ゲストユーザの選定に関する通知を受信した前記一又は複数のゲストユーザのうちの一のゲストユーザのクライアント装置からのパーツ取得要求に基づいて、前記一のゲストユーザに取得させるパーツ情報を所定のアルゴリズムに基づいて選択する、
請求項1から3のいずれか1項に記載の動画配信システム。 The guest character object is constructed based on one or more part information associated with the guest user.
The one or more computer processors receive the notification regarding the selection of the guest user, and the one guest user is based on a part acquisition request from the client device of one of the guest users. Select the part information to be acquired by the computer based on a predetermined algorithm.
The video distribution system according to any one of claims 1 to 3.
請求項1から4のいずれか1項に記載の動画配信システム。 The participation request is accepted during the reception period before the video is distributed.
The video distribution system according to any one of claims 1 to 4.
請求項1から5のいずれか1項に記載の動画配信システム。 The one or more guest users are selected from among the co-starring request participating users who have made a co-starring request among the plurality of participating users.
The video distribution system according to any one of claims 1 to 5.
請求項6に記載の動画配信システム。 The co-starring request from one of the plurality of participating users includes a message from the one participating user.
The video distribution system according to claim 6.
前記一又は複数のコンピュータプロセッサは、前記一の参加ユーザに対応する第2キャラクタオブジェクトに前記動画内において前記モーションデータに対応する動作を行わせる、
請求項6又は7に記載の動画配信システム。 The co-starring request from one of the plurality of participating users includes motion data from the one participating user.
The one or more computer processors causes a second character object corresponding to the one participating user to perform an operation corresponding to the motion data in the moving image.
The video distribution system according to claim 6 or 7.
請求項6から8のいずれか1項に記載の動画配信システム。 The selection of the one or more guest users based on the co-starring request is performed according to the selection of the distribution user.
The video distribution system according to any one of claims 6 to 8.
前記共演動画は、前記第1ゲストユーザの前記ゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む第1共演動画、及び、前記第2ゲストユーザの前記ゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む第2共演動画を含み、
前記第2共演動画は、前記第1共演動画における前記第1ゲストユーザと前記配信ユーザとの共演が終了した後に配信される、
請求項1から10のいずれか1項に記載の動画配信システム。 The one or more guest users include a first guest user and a second guest user.
The co-starring moving image includes the guest character object of the first guest user, the first co-starring moving image including the first character object, and the guest character object of the second guest user and the first character object. Including co-starring videos
The second co-starring video is distributed after the co-starring of the first guest user and the distribution user in the first co-starring video is completed.
The video distribution system according to any one of claims 1 to 10.
請求項1から11のいずれか1項に記載の動画配信システム。 A command for activating a function for making a co-star request to apply for co-starring with the distribution user in each client device of the plurality of participating users is given to the client devices of the plurality of participating users among the plurality of users. Send only,
The video distribution system according to any one of claims 1 to 11.
複数のユーザから前記動画への参加要求を受け付け、前記複数のユーザの中から複数の参加ユーザを選定する工程と、
前記複数の参加ユーザの中から一又は複数のゲストユーザを選定する工程と、
前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信する工程と、
前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む共演動画を生成する工程と、
を備える動画配信方法。 A video distribution method that distributes a video containing a first character object generated based on the movement of a distribution user, which is executed by one or more computer processors executing computer-readable instructions.
The process of accepting participation requests for the video from a plurality of users and selecting a plurality of participating users from the plurality of users, and
The process of selecting one or more guest users from the plurality of participating users, and
The step of transmitting a notification regarding the selection of the one or more guest users to each of the one or more guest users, and
A step of generating a co-starring moving image including a guest character object corresponding to at least a part of the one or a plurality of guest users and the first character object.
Video distribution method with.
複数のユーザから前記動画への参加要求を受け付け、前記複数のユーザの中から複数の参加ユーザを選定する工程と、
前記複数の参加ユーザの中から一又は複数のゲストユーザを選定する工程と、
前記一又は複数のゲストユーザの選定に関する通知を前記一又は複数のゲストユーザの各々に送信する工程と、
前記一又は複数のゲストユーザの少なくとも一部に対応するゲストキャラクタオブジェクト及び前記第1キャラクタオブジェクトを含む共演動画を生成する工程と、
を実行させる動画配信プログラム。 Distribution A video distribution program for distributing a video containing a first character object generated based on the movement of a user, to one or more computer processors.
The process of accepting participation requests for the video from a plurality of users and selecting a plurality of participating users from the plurality of users, and
The process of selecting one or more guest users from the plurality of participating users, and
The step of transmitting a notification regarding the selection of the one or more guest users to each of the one or more guest users, and
A step of generating a co-starring moving image including a guest character object corresponding to at least a part of the one or a plurality of guest users and the first character object.
A video distribution program that runs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021141247A JP7379427B2 (en) | 2019-08-29 | 2021-08-31 | Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019157010A JP6937803B2 (en) | 2019-08-29 | 2019-08-29 | Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user. |
JP2021141247A JP7379427B2 (en) | 2019-08-29 | 2021-08-31 | Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019157010A Division JP6937803B2 (en) | 2019-08-29 | 2019-08-29 | Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022003776A true JP2022003776A (en) | 2022-01-11 |
JP7379427B2 JP7379427B2 (en) | 2023-11-14 |
Family
ID=74676334
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019157010A Active JP6937803B2 (en) | 2019-08-29 | 2019-08-29 | Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user. |
JP2021141247A Active JP7379427B2 (en) | 2019-08-29 | 2021-08-31 | Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019157010A Active JP6937803B2 (en) | 2019-08-29 | 2019-08-29 | Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user. |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6937803B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010029397A (en) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
JP2017204112A (en) * | 2016-05-11 | 2017-11-16 | 神戸電気工業株式会社 | Video data distribution system |
JP6543403B1 (en) * | 2018-12-12 | 2019-07-10 | グリー株式会社 | Video distribution system, video distribution method and video distribution program |
JP6550522B1 (en) * | 2018-12-18 | 2019-07-24 | グリー株式会社 | Video distribution system, video distribution method and video distribution program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6463535B1 (en) * | 2018-04-27 | 2019-02-06 | 株式会社コロプラ | Program, information processing apparatus, and method |
JP6527627B1 (en) * | 2018-08-31 | 2019-06-05 | 株式会社バーチャルキャスト | Content distribution server, content distribution system, content distribution method and program |
-
2019
- 2019-08-29 JP JP2019157010A patent/JP6937803B2/en active Active
-
2021
- 2021-08-31 JP JP2021141247A patent/JP7379427B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010029397A (en) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
JP2017204112A (en) * | 2016-05-11 | 2017-11-16 | 神戸電気工業株式会社 | Video data distribution system |
JP6543403B1 (en) * | 2018-12-12 | 2019-07-10 | グリー株式会社 | Video distribution system, video distribution method and video distribution program |
JP6550522B1 (en) * | 2018-12-18 | 2019-07-24 | グリー株式会社 | Video distribution system, video distribution method and video distribution program |
Non-Patent Citations (1)
Title |
---|
庄司亮一, INSTAGRAM、ライブ配信視聴者をゲスト招待して一緒に配信可能に, [ONLINE], JPN6023029335, 25 October 2017 (2017-10-25), ISSN: 0005108726 * |
Also Published As
Publication number | Publication date |
---|---|
JP2021035017A (en) | 2021-03-01 |
JP6937803B2 (en) | 2021-09-22 |
JP7379427B2 (en) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094216B2 (en) | A video distribution system, video distribution method, and video distribution program that live-distributes videos containing animations of character objects generated based on the movements of distribution users. | |
JP6382468B1 (en) | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor | |
JP6431233B1 (en) | Video distribution system that distributes video including messages from viewing users | |
JP6420930B1 (en) | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor | |
KR102585051B1 (en) | Moving picture delivery system for delivering moving picture including animation of character object generated based on motions of actor, moving picture delivery method, and moving picture delivery program | |
JP2020036134A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user | |
JP2020036305A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user | |
JP6671528B1 (en) | Video distribution system, video distribution method, and video distribution program | |
JP2020202575A (en) | Video distribution system, video distribution method, and video distribution program | |
JP2020036303A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user | |
JP6847138B2 (en) | A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors. | |
JP6951394B2 (en) | Video distribution system that distributes videos including messages from viewers | |
JP2024041749A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program | |
JP6937803B2 (en) | Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user. | |
JP7032461B2 (en) | A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors. | |
JP6828106B1 (en) | Video distribution system, video distribution method and video distribution program | |
JP2021177409A (en) | Video distribution system for distributing video including message from viewing user | |
JP6498832B1 (en) | Video distribution system that distributes video including messages from viewing users | |
JP2020043578A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor | |
JP2020036309A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user | |
JP6764442B2 (en) | Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors. | |
JP6431242B1 (en) | Video distribution system that distributes video including messages from viewing users | |
JP2019198057A (en) | Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement | |
JP2020005238A (en) | Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7379427 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |