[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015184689A - Moving image generation device and program - Google Patents

Moving image generation device and program Download PDF

Info

Publication number
JP2015184689A
JP2015184689A JP2014057582A JP2014057582A JP2015184689A JP 2015184689 A JP2015184689 A JP 2015184689A JP 2014057582 A JP2014057582 A JP 2014057582A JP 2014057582 A JP2014057582 A JP 2014057582A JP 2015184689 A JP2015184689 A JP 2015184689A
Authority
JP
Japan
Prior art keywords
moving image
character
face
movement
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014057582A
Other languages
Japanese (ja)
Inventor
理彦 西山
Michihiko Nishiyama
理彦 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mugenup
Mugenup Inc
Original Assignee
Mugenup
Mugenup Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mugenup, Mugenup Inc filed Critical Mugenup
Priority to JP2014057582A priority Critical patent/JP2015184689A/en
Publication of JP2015184689A publication Critical patent/JP2015184689A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To real-timely provide a moving image in which the face components and the body parts of a character move in response to the movement of the face components of a person and the body parts other than the person's face.SOLUTION: The moving image generation device is provided with: a first face-movement detection unit that continuously detects the movement of the face components of a first person from a moving image of the first person, the moving image being continuously input; a first body-movement detection unit that continuously detects the movement of the body parts thereof other than the first person's face; a storage unit that stores the three dimensional information of a first virtual character; and a moving image generation output unit that generates a character moving image, in which the face components of the first character and the body parts thereof other than the first character's face move in response to the movement of the face components and the body parts of the first person, on the basis of the movement of the face components, which has been continuously detected by the first face-movement detection unit, the movement of the body parts, which has been continuously detected by the first body-movement detection unit, and the three dimensional information of the first character, which is stored in the storage unit, the moving image generation output units outputting the generated character moving image after synchronizing same with the input of the moving image of the first person.

Description

本発明は、動画生成装置及びプログラムに関する。   The present invention relates to a moving image generating apparatus and a program.

音声データから音素データを生成する手段と、音素データに基づいて二次元ないし三次元のモデルの口の部分のアニメーションを生成する手段と、上記音素データを基準にして上記音声データと上記アニメーションとを同期させて再生する手段とを有するアニメーション生成装置が知られている(例えば、特許文献1参照)。
特許文献1 特開2002−108382号公報
Means for generating phoneme data from voice data; means for generating an animation of a mouth portion of a two-dimensional or three-dimensional model based on phoneme data; and the voice data and the animation based on the phoneme data. 2. Description of the Related Art An animation generation apparatus having a means for reproducing in synchronization is known (see, for example, Patent Document 1).
Japanese Patent Application Laid-Open No. 2002-108382

人物の顔部品及び人物の顔以外の体部の動きに応じて、キャラクタの顔部品及び体部が動く動画をリアルタイムで提供することができない。   It is not possible to provide a moving image in which a character's face part and body part move in real time in accordance with the movement of the body part other than the person's face part and person's face.

第1の態様においては、動画生成装置は、連続的に入力される第1の人物の動画から、第1の人物の顔部品の動きを連続的に検出する第1顔動き検出部と、第1の人物の顔以外の体部の動きを連続的に検出する第1体動き検出部と、仮想的な第1のキャラクタの3次元情報を格納している格納部と、第1顔動き検出部が連続的に検出した顔部品の動きと、第1体動き検出部が連続的に検出した体部の動きと、格納部が格納している第1のキャラクタの3次元情報とに基づいて、第1の人物の顔部品及び体部の動きに応じて第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が動くキャラクタ動画を生成して、生成したキャラクタ動画を、第1の人物の動画の入力に同期して出力する動画生成出力部とを備える。   In the first aspect, the moving image generating apparatus includes a first face motion detecting unit that continuously detects the movement of the facial part of the first person from the continuously input moving images of the first person, A first body motion detection unit that continuously detects the motion of a body part other than the face of one person, a storage unit that stores three-dimensional information of a virtual first character, and a first face motion detection Based on the movement of the face part continuously detected by the body part, the movement of the body part continuously detected by the first body motion detection part, and the three-dimensional information of the first character stored in the storage part , Generating a character video in which the body part other than the face part of the first character and the face of the first character moves according to the movement of the face part and body of the first person, A moving image generation / output unit that outputs in synchronization with the input of the moving image of one person.

第1の人物の動画の入力に同期して、第1の人物が発した音声を連続的に取得する音声取得部をさらに備え、動画生成出力部は、音声取得部が連続的に取得した音声を、キャラクタ動画に合成して出力してよい。   A voice acquisition unit that continuously acquires the voice uttered by the first person in synchronization with the input of the first person's video is further provided, and the video generation output unit is a voice that the voice acquisition unit continuously acquires. May be combined with a character video and output.

格納部は、仮想的な第2のキャラクタの3次元情報を更に格納しており、動画生成装置は、第1の人物の動画に同期して連続的に入力される第2の人物の動画から、第2の人物の顔の顔部品の動きを検出する第2顔動き検出部と、第2の人物の顔以外の体部の動きを連続的に検出する第2体動き検出部とをさらに備え、動画生成出力部は、第1顔動き検出部が連続的に検出した顔部品の動きと、第1体動き検出部が連続的に検出した体部の動きと、格納部が格納している第1のキャラクタの3次元情報と、第2顔動き検出部が連続的に検出した顔部品の動きと、第2体動き検出部が連続的に検出した体部の動きと、格納部が格納している第2のキャラクタの3次元情報とに基づいて、第1の人物の顔部品及び体部の動きに応じて第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が動き、第2の人物の顔部品の動き及び体部の動きに応じて第2のキャラクタの顔部品及び第2のキャラクタの顔以外の体部が動くキャラクタ動画を生成して、生成したキャラクタ動画を、第1の人物の動画及び第2の人物の動画の入力に同期して出力してよい。   The storage unit further stores the three-dimensional information of the virtual second character, and the moving image generation device starts from the moving image of the second person that is continuously input in synchronization with the moving image of the first person. A second face motion detection unit that detects the movement of the facial part of the face of the second person, and a second body motion detection unit that continuously detects the movement of the body part other than the face of the second person The moving image generation output unit stores the movement of the facial part continuously detected by the first face movement detection unit, the movement of the body part continuously detected by the first body movement detection unit, and the storage unit. The three-dimensional information of the first character, the movement of the facial part continuously detected by the second face movement detection unit, the movement of the body part continuously detected by the second body movement detection unit, and the storage unit Based on the stored three-dimensional information of the second character, the first character according to the movement of the facial part and body part of the first person. Body parts other than the face part of the first character and the face of the first character move, and other than the face parts of the second character and the face of the second character according to the movement of the face part of the second person and the movement of the body part A character moving image in which the body part moves may be generated, and the generated character moving image may be output in synchronization with the input of the first person moving image and the second person moving image.

第1の人物を連続的に撮像するカメラ部と、カメラ部の撮像方向を示す情報を連続的に取得するカメラ情報取得部とをさらに備え、動画生成出力部は、カメラ情報取得部が取得したカメラ部の撮像方向を示す情報に基づいて、カメラ部から見た第1の人物の向きに合致する向きの第1のキャラクタの動画を生成することにより、カメラ部の撮像方向の変化に応じてアングルが変化するキャラクタ動画を生成してよい。   A camera unit that continuously captures the first person; and a camera information acquisition unit that continuously acquires information indicating the imaging direction of the camera unit. Based on the information indicating the imaging direction of the camera unit, by generating a moving image of the first character in a direction that matches the orientation of the first person viewed from the camera unit, according to a change in the imaging direction of the camera unit You may generate the character animation from which an angle changes.

第2の態様においては、プログラムは、コンピュータを、上記動画生成装置として機能させる。   In the second aspect, the program causes a computer to function as the moving image generating apparatus.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The summary of the invention does not enumerate all the features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態におけるインタラクティブシステム5の利用環境の一例を概略的に示す。An example of the use environment of interactive system 5 in one embodiment is shown roughly. 第1実施形態における動画生成出力システム10のブロック構成の一例を模式的に示す。An example of the block configuration of the moving image generation output system 10 in the first embodiment is schematically shown. 第2実施形態における動画生成出力システム12のブロック構成の一例を模式的に示す。An example of the block configuration of the moving image generation output system 12 in the second embodiment is schematically shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態におけるインタラクティブシステム5の一例を概略的に示す。インタラクティブシステム5は、動画生成出力システム10と、ユーザ端末80と、ユーザ端末81とを備える。   FIG. 1 schematically illustrates an example of an interactive system 5 in one embodiment. The interactive system 5 includes a moving image generation / output system 10, a user terminal 80, and a user terminal 81.

動画生成出力システム10は、ユーザ端末80及びユーザ端末81と、ネットワーク9を通じて通信する。ネットワーク9は、インターネット、携帯電話網等を含む。ユーザ端末80及びユーザ端末81は、例えば、スマートフォン等の携帯端末、パーソナルコンピュータ等である。ユーザ90は、ユーザ端末80のユーザである。ユーザ91は、ユーザ端末81のユーザである。   The moving image generation / output system 10 communicates with the user terminal 80 and the user terminal 81 through the network 9. The network 9 includes the Internet, a mobile phone network, and the like. The user terminal 80 and the user terminal 81 are, for example, a mobile terminal such as a smartphone, a personal computer, or the like. A user 90 is a user of the user terminal 80. A user 91 is a user of the user terminal 81.

動画生成出力システム10は、声優60及び声優61の動作をリアルタイムに検出する。動作とは、顔の表情、顔の動き、手足等の動き等を含む。また、動画生成出力システム10は、声優60及び声優61が発した音声をリアルタイムに取得する。そして、動画生成出力システム10は、検出した声優60及び声優61の動作に応じて動くキャラクタの動画であるキャラクタ動画をリアルタイムに生成するとともに、声優60及び声優61の音声をキャラクタ動画にリアルタイムに合成して、ネットワーク9を通じて配信する。   The moving image generation / output system 10 detects the actions of the voice actor 60 and the voice actor 61 in real time. The movement includes facial expressions, facial movements, limb movements, and the like. In addition, the moving image generation / output system 10 acquires the voices produced by the voice actor 60 and the voice actor 61 in real time. Then, the moving image generating / outputting system 10 generates a character moving image that is a moving image of the character that moves in accordance with the detected actions of the voice actor 60 and the voice actor 61 in real time, and synthesizes the voice of the voice actor 60 and the voice actor 61 into the character video in real time. And distributed through the network 9.

ユーザ端末80及びユーザ端末81は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受ける。また、ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、ネットワーク9を通じて、動画生成出力システム10に送信する。ユーザ端末81は、ユーザ91から入力されたテキストメッセージ等のデータを、ネットワーク9を通じて、動画生成出力システム10に送信する。   The user terminal 80 and the user terminal 81 receive distribution of moving images from the moving image generation / output system 10 through the network 9. Further, the user terminal 80 transmits data such as a text message input from the user 90 to the moving image generation / output system 10 through the network 9. The user terminal 81 transmits data such as a text message input from the user 91 to the moving image generation / output system 10 through the network 9.

動画生成出力システム10は、ユーザ端末80及びユーザ端末81の少なくとも一方から取得したテキストメッセージを受信すると、受信したテキストメッセージを表示する。声優60及び声優61は、動画生成出力システム10で表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行う。声優60及び声優61が動作及び音声でリアクションを行うと、動画生成出力システム10は、声優60及び声優61が行った動作に応じて動き、声優60及び声優61が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じて配信する。   When receiving the text message acquired from at least one of the user terminal 80 and the user terminal 81, the moving image generation / output system 10 displays the received text message. The voice actor 60 and the voice actor 61 see the message displayed on the moving image generating / outputting system 10 and perform a reaction on the message with an action and voice. When the voice actor 60 and the voice actor 61 react with motion and voice, the video generation / output system 10 moves in accordance with the motion performed by the voice actor 60 and voice actor 61, and the character video including the voice generated by the voice actor 60 and voice actor 61 is displayed. Generate and distribute through the network 9.

インタラクティブシステム5によれば、動画生成出力システム10は、ユーザ90やユーザ91が発したメッセージに対して、キャラクタが動作や音声でリアルタイムに反応する、ライブ感のある動画を配信できる。そのため、ユーザ90やユーザ91は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる。   According to the interactive system 5, the moving image generating / outputting system 10 can deliver a moving image with a live feeling in which a character reacts in real time with motion or voice in response to a message issued by the user 90 or the user 91. Therefore, the user 90 and the user 91 can enjoy chatting as if they were talking to a character.

図2は、動画生成出力システム10のブロック構成の一例を模式的に示す。動画生成出力システム10は、カメラ20と、カメラ21と、モーションセンサ30と、モーションセンサ31と、カメラ40と、表示装置50と、表示装置51と、動画処理装置100と、動画処理装置200と、サーバ300とを備える。   FIG. 2 schematically illustrates an example of a block configuration of the moving image generation / output system 10. The moving image generation / output system 10 includes a camera 20, a camera 21, a motion sensor 30, a motion sensor 31, a camera 40, a display device 50, a display device 51, a moving image processing device 100, and a moving image processing device 200. And a server 300.

まず、声優60の動きに応じて動くキャラクタ動画を生成する場合を取り上げて、動画生成出力システム10の各部の動作を説明する。   First, taking the case of generating a character moving image that moves according to the movement of the voice actor 60, the operation of each part of the moving image generating / outputting system 10 will be described.

カメラ20は、声優60の顔を撮像できる位置に設けられる。カメラ20は、声優60の顔を連続的に撮像する。カメラ20は、声優60を連続的に撮像することにより生成した動画を、動画処理装置100に出力する。カメラ20は、声優60の顔を撮像する位置に固定して設けられる固定カメラであってよい。   The camera 20 is provided at a position where the face of the voice actor 60 can be imaged. The camera 20 continuously captures the face of the voice actor 60. The camera 20 outputs a moving image generated by continuously capturing the voice actor 60 to the moving image processing apparatus 100. The camera 20 may be a fixed camera that is fixedly provided at a position where the face of the voice actor 60 is imaged.

モーションセンサ30は、声優60の体の動きを示す情報を出力する。モーションセンサ30は、声優60の体部に設けられる。モーションセンサ30が設けられる声優60の体部としては、声優60の頭部、手、腕、足等を例示できる。モーションセンサ30は、モーションセンサ30の位置及び向きを連続的に検出して、検出したモーションセンサ30の位置及び向きを示す情報を、動画処理装置100に出力する。   The motion sensor 30 outputs information indicating the body movement of the voice actor 60. The motion sensor 30 is provided on the body part of the voice actor 60. Examples of the body part of the voice actor 60 provided with the motion sensor 30 include the head, hands, arms, and feet of the voice actor 60. The motion sensor 30 continuously detects the position and orientation of the motion sensor 30 and outputs information indicating the detected position and orientation of the motion sensor 30 to the moving image processing apparatus 100.

マイク70は、声優60に装着される。マイク70は、声優60の発した音声によって生成した音声信号を、動画処理装置100に出力する。   The microphone 70 is attached to the voice actor 60. The microphone 70 outputs an audio signal generated by the sound produced by the voice actor 60 to the moving image processing apparatus 100.

動画処理装置100は、顔動き検出部110と、体動き検出部120と、格納部140と、音声取得部150と、カメラ情報取得部160と、動画生成出力部180とを備える。動画生成出力部180は、動画生成部130と、動画出力部170とを備える。顔動き検出部110、体動き検出部120、動画生成部130、音声取得部150、カメラ情報取得部160及び動画出力部170は、例えばMPU等のプロセッサで実現される。格納部140は、ハードディスク等の不揮発性の記録媒体で実現される。   The moving image processing apparatus 100 includes a face movement detection unit 110, a body movement detection unit 120, a storage unit 140, an audio acquisition unit 150, a camera information acquisition unit 160, and a moving image generation output unit 180. The moving image generation / output unit 180 includes a moving image generation unit 130 and a moving image output unit 170. The face motion detection unit 110, the body motion detection unit 120, the moving image generation unit 130, the sound acquisition unit 150, the camera information acquisition unit 160, and the moving image output unit 170 are realized by a processor such as an MPU, for example. The storage unit 140 is realized by a non-volatile recording medium such as a hard disk.

顔動き検出部110は、連続的に入力される声優60の動画から、声優60の顔部品の動きを連続的に検出する。具体的には、顔動き検出部110は、カメラ20から出力された動画から、声優60の顔部品の動きを連続的に検出する。なお、顔部品とは、動く要素である。顔部品とは、例えば口、目等である。顔部品の動きとは、例えば、口の大きさの時間変化、口の形状の時間変化、目の大きさの時間変化、目の形状の時間変化、目の位置の時間変化等である。   The face motion detection unit 110 continuously detects the motion of the facial parts of the voice actor 60 from the continuously input moving image of the voice actor 60. Specifically, the face motion detection unit 110 continuously detects the motion of the facial part of the voice actor 60 from the moving image output from the camera 20. The face part is a moving element. The facial parts are, for example, the mouth and eyes. The movement of the facial part includes, for example, a time change of the mouth size, a time change of the mouth shape, a time change of the eye size, a time change of the eye shape, and a time change of the eye position.

体動き検出部120は、声優60の顔以外の体部の動きを連続的に検出する。具体的には、体動き検出部120は、モーションセンサ30から出力された情報と、モーションセンサ30が設けられた体部の部位に基づいて、モーションセンサ30が設けられた声優60の頭部、手、腕、足等の位置及び向きを検出する。   The body movement detection unit 120 continuously detects the movements of body parts other than the face of the voice actor 60. Specifically, the body motion detection unit 120 is based on the information output from the motion sensor 30 and the part of the body part where the motion sensor 30 is provided, the head of the voice actor 60 provided with the motion sensor 30, Detect the position and orientation of hands, arms, legs, etc.

格納部140は、仮想的な第1のキャラクタの3次元情報を格納している。キャラクタとは、例えば人物のキャラクタである。キャラクタとは、動物のキャラクタであってもよい。また、キャラクタとは、無機物のキャラクタであってもよいし、仮想上のキャラクタであってよい。動画生成出力システム10が扱うキャラクタとしては、擬人化されるキャラクタであることが好ましいが、擬人化されないキャラクタであっても構わない。なお、格納部140が格納しているキャラクタのことを、単に「キャラクタ」と総称する場合がある。   The storage unit 140 stores the virtual three-dimensional information of the first character. The character is, for example, a human character. The character may be an animal character. The character may be an inorganic character or a virtual character. The character handled by the moving image generation / output system 10 is preferably a personified character, but may be a character that is not personified. Note that the characters stored in the storage unit 140 may be collectively referred to simply as “characters”.

また、格納部140は、キャラクタの背景の3次元情報を更に格納している。なお、3次元情報とは、キャラクタや背景の画像をレンダリングするための情報であり、例えば、物体の形状、色、物体表面の質感等を記述する情報である。   The storage unit 140 further stores three-dimensional information of the character background. The three-dimensional information is information for rendering an image of a character or a background, for example, information describing the shape, color, texture of the object surface, etc.

動画生成出力部180は、声優60の動きに応じてキャラクタが動くキャラクタ動画を生成して、生成したキャラクタ動画を、声優60の動画の入力に同期して出力する。具体的には、動画生成出力部180は、声優60の音声を含むキャラクタ動画を、声優60の動画の入力に同期して出力する。動画生成出力部180が備える動画生成部130及び動画出力部170の動作について具体的に説明する。   The moving image generation / output unit 180 generates a character moving image in which the character moves according to the movement of the voice actor 60, and outputs the generated character moving image in synchronization with the input of the moving image of the voice actor 60. Specifically, the moving image generation output unit 180 outputs a character moving image including the voice of the voice actor 60 in synchronization with the input of the voice actor 60's moving image. The operations of the moving image generation unit 130 and the moving image output unit 170 included in the moving image generation / output unit 180 will be specifically described.

動画生成部130は、顔動き検出部110が連続的に検出した顔部品の動きと、体動き検出部120が連続的に検出した体部の動きと、格納部140が格納しているキャラクタの3次元情報とに基づいて、声優60の顔部品及び体部の動きに応じて第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が動くキャラクタ動画を生成して、生成したキャラクタ動画を、声優60の動画の入力に同期して出力する。動画生成部130は、格納部140が格納している背景の3次元情報に更に基づいて、格納部140が格納している3次元情報で表される背景の前景において、第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が声優60の顔部品及び体部の動きに応じて動くキャラクタ動画を生成する。動画生成部130は、キャラクタ動画を構成する複数の動画構成画像を、レンダリングによって逐次に生成することにより、複数の動画構成画像を含むキャラクタ動画を生成する。なお、動画構成画像とは、例えば動画を構成するフレーム画像であってよい。動画生成部130は、生成したキャラクタ動画を動画出力部170に出力する。このように、動画生成部130は、声優60の動きに応じてキャラクタが動くキャラクタ動画を生成して、生成したキャラクタ動画を、声優60の動画の入力に同期して出力する機能ブロックである。   The moving image generation unit 130 detects the movement of the facial part continuously detected by the face movement detection unit 110, the movement of the body part continuously detected by the body movement detection unit 120, and the character stored in the storage unit 140. Based on the three-dimensional information, a character animation in which the body part other than the face part of the first character and the face of the first character moves according to the movement of the face part and body part of the voice actor 60 is generated and generated. The character video is output in synchronization with the input of the voice actor 60 video. Based on the background three-dimensional information stored in the storage unit 140, the moving image generation unit 130 uses the first character face in the background foreground represented by the three-dimensional information stored in the storage unit 140. A character moving image in which a body part other than the part and the face of the first character moves according to the movement of the facial part and body part of the voice actor 60 is generated. The moving image generation unit 130 generates a character moving image including a plurality of moving image forming images by sequentially generating a plurality of moving image forming images constituting the character moving image by rendering. Note that the moving image constituent image may be a frame image forming a moving image, for example. The moving image generating unit 130 outputs the generated character moving image to the moving image output unit 170. As described above, the moving image generation unit 130 is a functional block that generates a character moving image in which a character moves in accordance with the movement of the voice actor 60 and outputs the generated character moving image in synchronization with the input of the moving image of the voice actor 60.

音声取得部150は、声優60の動画の入力に同期して、声優60が発した音声を連続的に取得する。具体的には、音声取得部150は、声優60に装着されたマイク70の音声信号を取得する。音声取得部150は、連続的に取得した音声を動画出力部170に逐次に出力する。動画出力部170は、音声取得部150が連続的に取得した音声を、キャラクタ動画に合成して出力する。動画出力部170は、音声取得部150が連続的に取得した音声を、キャラクタ動画と同期して合成する。動画出力部170は、音声が合成されたキャラクタ動画を、サーバ300に出力する。   The voice acquisition unit 150 continuously acquires the voice generated by the voice actor 60 in synchronization with the input of the moving picture of the voice actor 60. Specifically, the voice acquisition unit 150 acquires a voice signal of the microphone 70 attached to the voice actor 60. The sound acquisition unit 150 sequentially outputs the continuously acquired sound to the moving image output unit 170. The video output unit 170 synthesizes and outputs the voice continuously acquired by the voice acquisition unit 150 into a character video. The video output unit 170 synthesizes the voice continuously acquired by the voice acquisition unit 150 in synchronization with the character video. The moving image output unit 170 outputs a character moving image synthesized with sound to the server 300.

カメラ40は、声優60を連続的に撮像する。カメラ40は、例えばカメラ40を操作する操作者42の操作により、撮像方向、位置及び画角が可変である。カメラ40の撮像方向、位置及び画角を示す情報は、連続的に動画処理装置100に出力される。なお、カメラ40は、撮像することにより生成された動画を、操作者42に提示してよい。カメラ40は、撮像することにより得られた動画を、動画処理装置100に出力しなくてよい。   The camera 40 continuously captures the voice actor 60. The camera 40 can change an imaging direction, a position, and an angle of view by an operation of an operator 42 who operates the camera 40, for example. Information indicating the imaging direction, position, and angle of view of the camera 40 is continuously output to the moving image processing apparatus 100. Note that the camera 40 may present a moving image generated by capturing an image to the operator 42. The camera 40 does not have to output a moving image obtained by imaging to the moving image processing apparatus 100.

カメラ情報取得部160は、カメラ40の撮像方向、位置及び画角を示す情報を連続的に取得する。具体的には、カメラ情報取得部160は、カメラ40から連続的に出力された情報を取得する。動画生成部130は、カメラ情報取得部160が取得したカメラ40の撮像方向を示す情報に基づいて、カメラ40の撮像方向の向きからの声優60の向きに合致する向きのキャラクタの動画を生成する。これにより、動画生成部130は、カメラ40の撮像方向の変化に応じてアングルが変化するキャラクタ動画を生成する。また、動画生成部130は、カメラ情報取得部160が取得したカメラ40の位置を示す情報に基づいて、カメラ40の位置からカメラ40の撮像方向の向きに見た場合の声優60の向きに合致する向きの第1のキャラクタの動画を生成する。また、動画生成部130は、カメラ情報取得部160が取得したカメラ40の画角を示す情報に基づいて、当該画角に対応する倍率の第1のキャラクタの動画を生成する。このように、動画生成部130は、カメラ40の操作者42の操作に応じて撮像方向、位置及び画角が変わるキャラクタ動画を生成する。   The camera information acquisition unit 160 continuously acquires information indicating the imaging direction, position, and angle of view of the camera 40. Specifically, the camera information acquisition unit 160 acquires information continuously output from the camera 40. Based on the information indicating the imaging direction of the camera 40 acquired by the camera information acquisition unit 160, the video generation unit 130 generates a video of a character whose direction matches the direction of the voice actor 60 from the direction of the imaging direction of the camera 40. . Thereby, the moving image generation unit 130 generates a character moving image in which the angle changes in accordance with the change in the imaging direction of the camera 40. Further, the moving image generation unit 130 matches the direction of the voice actor 60 when viewed from the position of the camera 40 in the direction of the imaging direction of the camera 40 based on the information indicating the position of the camera 40 acquired by the camera information acquisition unit 160. A moving image of the first character in the orientation is generated. Further, based on the information indicating the angle of view of the camera 40 acquired by the camera information acquisition unit 160, the moving image generation unit 130 generates a moving image of the first character having a magnification corresponding to the angle of view. As described above, the moving image generation unit 130 generates a character moving image in which the imaging direction, position, and angle of view change according to the operation of the operator 42 of the camera 40.

動画生成出力システム10において、キャラクタ動画は、いわゆるリアルタイムに生成される。例えば、動画生成出力システム10において、顔動き検出部110、体動き検出部120、音声取得部150、カメラ情報取得部160、動画生成部130及び動画出力部170における各処理は、実時間処理で行われる。例えば、カメラ20で繰り返し露光動作を行う時刻から、予め定められた一定の時間内で、キャラクタ画像の対応する動画構成画像が動画生成部130から出力される。これにより、声優60の動きに応じたキャラクタ動画が、リアルタイムに出力される。   In the moving image generating / outputting system 10, the character moving image is generated in a so-called real time. For example, in the video generation / output system 10, each process in the face motion detection unit 110, body motion detection unit 120, audio acquisition unit 150, camera information acquisition unit 160, video generation unit 130, and video output unit 170 is a real-time process. Done. For example, the moving image composition image corresponding to the character image is output from the moving image generation unit 130 within a predetermined time from the time when the camera 20 repeatedly performs the exposure operation. Thereby, the character animation according to the movement of the voice actor 60 is output in real time.

サーバ300は、動画出力部170が出力したキャラクタ動画を、ネットワーク9を介して、ユーザ端末80及びユーザ端末81に配信する。また、サーバ300は、ネットワーク9を介して、ユーザ端末80及びユーザ端末81からテキストメッセージを取得する。表示装置50は、声優60が見ることができる位置に設けられる。サーバ300は、ユーザ端末80及びユーザ端末81から取得したメッセージを、表示装置50に表示させる。   The server 300 distributes the character moving image output from the moving image output unit 170 to the user terminal 80 and the user terminal 81 via the network 9. In addition, the server 300 acquires a text message from the user terminal 80 and the user terminal 81 via the network 9. The display device 50 is provided at a position where the voice actor 60 can see. The server 300 displays the message acquired from the user terminal 80 and the user terminal 81 on the display device 50.

以上に説明した動画処理装置100によれば、声優60が、ユーザ端末80で入力されたメッセージを見てリアクションを行うと、そのリアクションがキャラクタ動画にリアルタイムに反映されてユーザ端末80に配信される。そのため、ユーザ90及びユーザ91は、ライブ感のあるチャットを楽しむことができる。   According to the moving image processing apparatus 100 described above, when the voice actor 60 performs a reaction by looking at a message input at the user terminal 80, the reaction is reflected in the character video in real time and distributed to the user terminal 80. . Therefore, the user 90 and the user 91 can enjoy a chat with a live feeling.

次に、声優60及び声優61に対応する2つのキャラクタが動くキャラクタ動画を生成する場合を取り上げて、動画生成出力システム10の各部の動作を説明する。なお、声優60に対応する第1のキャラクタに係る処理は、上述したとおりであるので、説明を省略する。また、声優61に対応するキャラクタの動きに関する処理について、声優60に対応するキャラクタの動きに関する処理との相違点を主として説明する。   Next, the operation of each part of the moving image generation / output system 10 will be described by taking up a case where a character moving image in which two characters corresponding to the voice actor 60 and the voice actor 61 move is taken up. Note that the processing related to the first character corresponding to the voice actor 60 is as described above, and thus the description thereof is omitted. The difference between the process related to the movement of the character corresponding to the voice actor 61 and the process related to the movement of the character corresponding to the voice actor 60 will be mainly described.

カメラ21は、声優61の顔を撮像できる位置に設けられる。カメラ21は、声優61の顔を連続的に撮像する。カメラ21は、声優61を連続的に撮像することにより生成した動画を、動画処理装置200に出力する。カメラ21は、声優61の顔を撮像する位置に固定して設けられる固定カメラであってよい。   The camera 21 is provided at a position where the face of the voice actor 61 can be imaged. The camera 21 continuously captures the face of the voice actor 61. The camera 21 outputs a moving image generated by continuously capturing the voice actor 61 to the moving image processing apparatus 200. The camera 21 may be a fixed camera that is fixedly provided at a position where the face of the voice actor 61 is imaged.

モーションセンサ31は、声優61の体の動きを示す情報を出力する。モーションセンサ31は、声優61の体部に設けられる。モーションセンサ31が設けられる声優61の体部としては、声優61の頭部、手、腕、足等を例示できる。モーションセンサ31は、モーションセンサ31の位置及び向きを連続的に検出して、検出したモーションセンサ31の位置及び向きを示す情報を、動画処理装置200に出力する。   The motion sensor 31 outputs information indicating the body movement of the voice actor 61. The motion sensor 31 is provided on the body part of the voice actor 61. Examples of the body part of the voice actor 61 provided with the motion sensor 31 include the head, hands, arms, and feet of the voice actor 61. The motion sensor 31 continuously detects the position and orientation of the motion sensor 31 and outputs information indicating the detected position and orientation of the motion sensor 31 to the moving image processing apparatus 200.

マイク71は、声優61に装着される。マイク71は、声優61の発した音声によって生成した音声信号を、動画処理装置100に出力する。また、表示装置51は、声優61が見ることができる位置に設けられる。サーバ300は、ユーザ端末80及びユーザ端末81から取得したメッセージを、表示装置51に表示する。   The microphone 71 is attached to the voice actor 61. The microphone 71 outputs an audio signal generated by the sound produced by the voice actor 61 to the moving image processing apparatus 100. The display device 51 is provided at a position where the voice actor 61 can see. The server 300 displays the message acquired from the user terminal 80 and the user terminal 81 on the display device 51.

顔動き検出部210の機能は、顔動き検出部110の機能と略同様である。そのため、顔動き検出部210の機能については、顔動き検出部110の機能との相違点を主として説明して、顔動き検出部110の機能と略同様の機能については説明を省略する。顔動き検出部210は、声優60の動画に同期して連続的に入力される声優61の動画から、声優61の顔の顔部品の動きを連続的に検出する。具体的には、顔動き検出部210は、カメラ21から出力された動画から、声優61の顔部品の動きを連続的に検出する。顔動き検出部210は、検出した顔部品の動きを示す情報を、動画処理装置100に出力する。   The function of the face motion detection unit 210 is substantially the same as the function of the face motion detection unit 110. Therefore, regarding the function of the face motion detection unit 210, differences from the function of the face motion detection unit 110 will be mainly described, and description of functions that are substantially the same as the functions of the face motion detection unit 110 will be omitted. The face motion detection unit 210 continuously detects the movement of the facial parts of the voice actor 61 from the video of the voice actor 61 continuously input in synchronization with the video of the voice actor 60. Specifically, the face motion detection unit 210 continuously detects the motion of the facial part of the voice actor 61 from the moving image output from the camera 21. The face movement detection unit 210 outputs information indicating the detected movement of the face part to the moving image processing apparatus 100.

体動き検出部220は、声優61の顔以外の体部の動きを連続的に検出する。なお、体動き検出部220は、体動き検出部120と略同様の機能を有する。具体的には、体動き検出部220は、モーションセンサ31から出力された情報と、モーションセンサ31が設けられた体部の部位に基づいて、モーションセンサ31が設けられた声優60の頭部、手、腕、足等の位置及び向きを検出する。体動き検出部220は、検出した体部の動きの動きを示す情報を、動画処理装置100に出力する。   The body movement detection unit 220 continuously detects the movements of the body parts other than the voice actor 61 face. Note that the body movement detection unit 220 has substantially the same function as the body movement detection unit 120. Specifically, the body motion detection unit 220 is based on the information output from the motion sensor 31 and the part of the body part on which the motion sensor 31 is provided, the head of the voice actor 60 on which the motion sensor 31 is provided, Detect the position and orientation of hands, arms, legs, etc. The body movement detection unit 220 outputs information indicating the detected movement of the body part to the moving image processing apparatus 100.

格納部140は、仮想的な第2のキャラクタの3次元情報を更に格納している。第2のキャラクタは、第1のキャラクタとは異なるキャラクタである。   The storage unit 140 further stores three-dimensional information of the virtual second character. The second character is a character different from the first character.

動画生成部130は、顔動き検出部110が連続的に検出した顔部品の動きと、体動き検出部120が連続的に検出した体部の動きと、格納部140が格納している第1のキャラクタの3次元情報と、顔動き検出部210が連続的に検出した顔部品の動きと、体動き検出部220が連続的に検出した体部の動きと、格納部140が格納している第2のキャラクタの3次元情報とに基づいて、声優60の顔部品及び体部の動きに応じて第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が動き、第2の人物の顔部品の動き及び体部の動きに応じて第2のキャラクタの顔部品及び第2のキャラクタの顔以外の体部が動くキャラクタ動画を生成して、生成したキャラクタ動画を、声優60の動画及び第2の人物の動画の入力に同期して出力する。なお、動画生成部130は、格納部140が格納している背景の3次元情報に更に基づいて、格納部140が格納している3次元情報で表される背景の前景において、第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が声優60の顔部品及び体部の動きに応じて動き、かつ、第2のキャラクタの顔部品及び第2のキャラクタの顔以外の体部が声優61の顔部品及び体部の動きに応じて動くキャラクタ動画を生成する。   The moving image generation unit 130 stores the movement of the facial part continuously detected by the face movement detection unit 110, the movement of the body part continuously detected by the body movement detection unit 120, and the first stored in the storage unit 140. The storage unit 140 stores the three-dimensional information of the character, the movement of the facial part continuously detected by the face movement detection unit 210, the movement of the body part continuously detected by the body movement detection unit 220, and the like. Based on the movement of the face part and body part of the voice actor 60, the body part other than the face part of the first character and the face of the first character moves based on the three-dimensional information of the second character, A character video in which the body part other than the face part of the second character and the face of the second character moves according to the movement of the human face part and the movement of the body part is generated. Synchronized with the input of the video and the video of the second person Forces. Note that the moving image generation unit 130 further uses the first character in the foreground of the background represented by the three-dimensional information stored in the storage unit 140 based on the three-dimensional information of the background stored in the storage unit 140. Body parts other than the face part of the first character and the face part of the first character move according to the movement of the face part and body part of the voice actor 60, and the body part other than the face part of the second character and the face of the second character Generates a character animation that moves according to the movement of the facial parts and body part of the voice actor 61.

音声取得部150は、声優61の動画の入力に同期して、声優61が発した音声を連続的に取得する。具体的には、音声取得部150は、声優61に装着されたマイク71の音声信号を取得する。音声取得部150は、連続的に取得した、声優60及び声優61が発した音声を、動画出力部170に逐次に出力する。動画出力部170は、声優60及び声優61が発した音声を、キャラクタ動画に合成して出力する。動画生成部130は、声優60及び声優61が発した音声を、キャラクタ動画と同期して合成する。   The voice acquisition unit 150 continuously acquires the voice uttered by the voice actor 61 in synchronization with the input of the moving picture of the voice actor 61. Specifically, the voice acquisition unit 150 acquires a voice signal of the microphone 71 attached to the voice actor 61. The voice acquisition unit 150 sequentially outputs the voices obtained by the voice actor 60 and the voice actor 61, which are continuously acquired, to the video output unit 170. The moving image output unit 170 synthesizes and outputs the sound generated by the voice actor 60 and the voice actor 61 into a character moving image. The moving image generating unit 130 synthesizes the sound produced by the voice actor 60 and the voice actor 61 in synchronization with the character moving image.

なお、カメラ40は、声優60及び声優61を連続的に撮像する。動画生成部130は、カメラ情報取得部160が取得したカメラ40の撮像方向を示す情報に基づいて、カメラ40の撮像方向の向きからの声優61の向きに合致する向きの第2のキャラクタの動画を生成する。これにより、動画生成部130は、カメラ40の撮像方向の変化に応じてアングルが変化するキャラクタ動画を生成する。また、動画生成部130は、カメラ情報取得部160が取得したカメラ40の位置を示す情報に基づいて、カメラ40の位置からカメラ40の撮像方向の向きに見た場合の声優61の向きに合致する向きの第2のキャラクタの動画を生成する。また、動画生成部130は、カメラ情報取得部160が取得したカメラ40の画角を示す情報に基づいて、当該画角に対応する倍率の第2のキャラクタの動画を生成する。   Note that the camera 40 continuously captures the voice actor 60 and the voice actor 61. Based on the information indicating the imaging direction of the camera 40 acquired by the camera information acquisition unit 160, the video generation unit 130 is a video of the second character in a direction that matches the direction of the voice actor 61 from the direction of the imaging direction of the camera 40. Is generated. Thereby, the moving image generation unit 130 generates a character moving image in which the angle changes in accordance with the change in the imaging direction of the camera 40. Further, the moving image generation unit 130 matches the direction of the voice actor 61 when viewed from the position of the camera 40 in the direction of the imaging direction of the camera 40 based on the information indicating the position of the camera 40 acquired by the camera information acquisition unit 160. A moving image of the second character in the orientation is generated. Further, based on the information indicating the angle of view of the camera 40 acquired by the camera information acquisition unit 160, the moving image generation unit 130 generates a moving image of the second character having a magnification corresponding to the angle of view.

動画生成出力システム10によれば、動画処理装置200が声優61の顔部品の動きの検出及び声優61の体部の動きの検出を担い、動画処理装置100は、声優61の顔部品の動き及び声優61の体部の動きの検出結果を、動画処理装置200から取得する。そのため、動画処理装置100における演算負荷を軽減することができる。これにより、複数の声優に対応する複数のキャラクタの3次元情報に基づきレンダリングを行って、キャラクタ動画をリアルタイムに生成することが容易になる。また、1つの動画処理装置100の動画生成部130がレンダリングを担うので、複数の声優に対応する複数のキャラクタ及び背景のレンダリングを統合的に行うことが容易になる。   According to the moving image generating / outputting system 10, the moving image processing apparatus 200 is responsible for detecting the movement of the facial part of the voice actor 61 and detecting the movement of the body part of the voice actor 61, and the moving picture processing apparatus 100 performs the movement of the facial part of the voice actor 61 and The detection result of the movement of the body part of the voice actor 61 is acquired from the moving image processing apparatus 200. Therefore, the calculation load in the moving image processing apparatus 100 can be reduced. This makes it easy to generate a character animation in real time by rendering based on the three-dimensional information of a plurality of characters corresponding to a plurality of voice actors. In addition, since the moving image generation unit 130 of one moving image processing apparatus 100 is responsible for rendering, it becomes easy to perform integrated rendering of a plurality of characters and backgrounds corresponding to a plurality of voice actors.

図3は、第2実施形態における動画生成出力システム12のブロック構成の一例を模式的に示す。動画生成出力システム12は、カメラ20と、カメラ21と、モーションセンサ30と、モーションセンサ31と、カメラ40と、表示装置50と、表示装置51と、動画処理装置102と、動画処理装置202と、サーバ300とを備える。   FIG. 3 schematically illustrates an example of a block configuration of the moving image generation / output system 12 according to the second embodiment. The moving image generation / output system 12 includes a camera 20, a camera 21, a motion sensor 30, a motion sensor 31, a camera 40, a display device 50, a display device 51, a moving image processing device 102, and a moving image processing device 202. And a server 300.

動画処理装置102は、動画処理装置100が有する機能と類似の機能を持つ。動画処理装置102は、動画処理装置100が備える機能ブロックと類似の機能を持つ機能ブロックを備える。動画処理装置102において、顔動き検出部110、体動き検出部120、動画生成部130、格納部140、音声取得部150及びカメラ情報取得部160は、動画処理装置100に関連して説明した機能と類似の機能を有する。そのため、ここでは動画処理装置100に関連して説明した機能との相違点を主として説明して、動画処理装置100に関連して説明した機能と同様の機能については、説明を省略する場合がある。   The moving image processing apparatus 102 has a function similar to that of the moving image processing apparatus 100. The moving image processing apparatus 102 includes functional blocks having functions similar to the functional blocks included in the moving image processing apparatus 100. In the video processing device 102, the face motion detection unit 110, the body motion detection unit 120, the video generation unit 130, the storage unit 140, the sound acquisition unit 150, and the camera information acquisition unit 160 are functions described in relation to the video processing device 100. And has similar functions. Therefore, here, differences from the functions described in relation to the moving image processing apparatus 100 will be mainly described, and description of functions similar to those described in relation to the moving image processing apparatus 100 may be omitted. .

また、動画処理装置202は、動画処理装置200が備える機能ブロックに加えて、動画生成部230、格納部240、及びカメラ情報取得部260を備える。動画処理装置102において、顔動き検出部210及び体動き検出部220は、動画処理装置200に関連して説明した機能と類似の機能を有する。そのため、ここでは動画処理装置200に関連して説明した機能との相違点を主として説明して、動画処理装置200に関連して説明した機能と同様の機能については、説明を省略する場合がある。   The moving image processing apparatus 202 includes a moving image generation unit 230, a storage unit 240, and a camera information acquisition unit 260 in addition to the functional blocks provided in the moving image processing apparatus 200. In the moving image processing apparatus 102, the face movement detecting unit 210 and the body movement detecting unit 220 have functions similar to the functions described in relation to the moving image processing apparatus 200. Therefore, here, differences from the functions described in relation to the moving image processing apparatus 200 will be mainly described, and description of functions similar to those described in relation to the moving image processing apparatus 200 may be omitted. .

動画処理装置102において、格納部140は、第1のキャラクタの3次元情報及び背景の3次元情報を格納している。格納部140は、第2のキャラクタの3次元情報を格納していない。   In the moving image processing apparatus 102, the storage unit 140 stores the three-dimensional information of the first character and the three-dimensional information of the background. The storage unit 140 does not store the 3D information of the second character.

動画生成部130は、顔動き検出部110が連続的に検出した声優60の顔部品の動き情報と体動き検出部120が連続的に検出した声優60の体部の動き情報とを取得する。動画生成部130は、声優61に関する動き情報を取得しない。顔動き検出部110が連続的に検出した声優60の顔部品の動きと、体動き検出部120が連続的に検出した声優60の体部の動きと、格納部140が格納している第1のキャラクタの3次元情報とに基づいて、声優60の顔部品及び体部の動きに応じて第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が動く第1のキャラクタ動画を生成する。このように、動画生成部130は、顔動き検出部110が連続的に検出した声優60の顔部品の動きと体動き検出部120が連続的に検出した声優60の体部の動きに基づいて、第1のキャラクタのレンダリングを行う。なお、動画生成部130は、動画処理装置100における動画生成部130の処理と同様に、カメラ情報取得部160が取得したカメラ40の撮像方向、位置及び画角を示す情報に基づいて、第1のキャラクタ動画を生成する。   The moving image generation unit 130 acquires the movement information of the facial part of the voice actor 60 continuously detected by the face movement detection unit 110 and the movement information of the body part of the voice actor 60 continuously detected by the body movement detection unit 120. The moving image generation unit 130 does not acquire motion information regarding the voice actor 61. The movement of the facial part of the voice actor 60 continuously detected by the face movement detection unit 110, the movement of the body part of the voice actor 60 continuously detected by the body movement detection unit 120, and the first stored in the storage unit 140. The first character moving image in which the body part other than the face part of the first character and the face of the first character moves in accordance with the movement of the face part and body part of the voice actor 60 based on the three-dimensional information of the character. Generate. As described above, the moving image generation unit 130 is based on the movement of the facial part of the voice actor 60 continuously detected by the face movement detection unit 110 and the movement of the body part of the voice actor 60 continuously detected by the body movement detection unit 120. The first character is rendered. Note that, similarly to the processing of the moving image generating unit 130 in the moving image processing apparatus 100, the moving image generating unit 130 is based on the information indicating the imaging direction, position, and angle of view of the camera 40 acquired by the camera information acquiring unit 160. The character animation is generated.

動画処理装置202において、格納部240は、第2のキャラクタの3次元情報を格納している。動画生成部230は、顔動き検出部210が連続的に検出した声優61の顔部品の動き情報と体動き検出部220が連続的に検出した声優61の体部の動き情報とを取得する。動画生成部230は、顔動き検出部210が連続的に検出した声優61の顔部品の動きと、体動き検出部220が連続的に検出した声優61の体部の動きと、格納部240が格納している第2のキャラクタの3次元情報とに基づいて、声優61の顔部品及び体部の動きに応じて第2のキャラクタの顔部品及び第2のキャラクタの顔以外の体部が動く第2のキャラクタ動画を生成する。このように、動画生成部230は、顔動き検出部210が連続的に検出した声優61の顔部品の動きと体動き検出部220が連続的に検出した声優61の体部の動きに基づいて、第2のキャラクタのレンダリングを行う。動画生成部230は、生成した第2のキャラクタ動画を、動画処理装置102に出力する。   In the moving image processing apparatus 202, the storage unit 240 stores the three-dimensional information of the second character. The moving image generation unit 230 acquires the movement information of the facial part of the voice actor 61 continuously detected by the face movement detection unit 210 and the movement information of the body part of the voice actor 61 continuously detected by the body movement detection unit 220. The moving image generation unit 230 includes the movement of the facial part of the voice actor 61 continuously detected by the face movement detection unit 210, the movement of the body part of the voice actor 61 continuously detected by the body movement detection unit 220, and the storage unit 240. Based on the stored 3D information of the second character, the body part other than the face part of the second character and the face of the second character moves according to the movement of the face part and body part of the voice actor 61. A second character moving image is generated. As described above, the moving image generation unit 230 is based on the movement of the facial part of the voice actor 61 continuously detected by the face movement detection unit 210 and the movement of the body part of the voice actor 61 continuously detected by the body movement detection unit 220. The second character is rendered. The moving image generation unit 230 outputs the generated second character moving image to the moving image processing apparatus 102.

なお、カメラ情報取得部260は、カメラ情報取得部160と同様に、カメラ40の撮像方向、位置及び画角を示す情報を連続的に取得する。動画生成部230は、動画処理装置100における動画生成部130と同様に、カメラ情報取得部260が取得したカメラ40の撮像方向、位置及び画角を示す情報に基づいて、第2のキャラクタ動画を生成する。   Similar to the camera information acquisition unit 160, the camera information acquisition unit 260 continuously acquires information indicating the imaging direction, position, and angle of view of the camera 40. Similar to the moving image generating unit 130 in the moving image processing apparatus 100, the moving image generating unit 230 generates the second character moving image based on the information indicating the imaging direction, position, and angle of view of the camera 40 acquired by the camera information acquiring unit 260. Generate.

動画処理装置102において、動画出力部170は、動画生成部130が生成した第1のキャラクタ動画と、動画生成部230が生成した第2のキャラクタ動画とを合成して、1つのキャラクタ動画を生成する。また、動画出力部170は、格納部140が格納している背景の3次元情報を用いて、格納部140が格納している3次元情報で表される背景の前景において、第1のキャラクタの顔部品及び第1のキャラクタの顔以外の体部が声優60の顔部品及び体部の動きに応じて動き、第2のキャラクタの顔部品及び第2のキャラクタの顔以外の体部が声優61の顔部品及び体部の動きに応じて動くキャラクタ動画を生成する。また、動画出力部170は、音声取得部150が取得した声優60及び声優61の音声を、キャラクタ動画に合成して出力する。   In the video processing device 102, the video output unit 170 generates a single character video by combining the first character video generated by the video generation unit 130 and the second character video generated by the video generation unit 230. To do. In addition, the moving image output unit 170 uses the background three-dimensional information stored in the storage unit 140 and uses the three-dimensional information stored in the storage unit 140 for the background of the first character. The body parts other than the face parts and the face of the first character move according to the movement of the face parts and body parts of the voice actor 60, and the body parts other than the face parts of the second character and the second character face are voice actors 61. Character animation that moves according to the movement of the face part and body part is generated. Also, the moving image output unit 170 synthesizes the voice of the voice actor 60 and the voice actor 61 acquired by the voice acquisition unit 150 into a character moving image and outputs it.

第2実施形態における動画生成出力システム12によっても、複数の声優に対応する複数のキャラクタの3次元情報に基づきレンダリングを行って、キャラクタ動画をリアルタイムに生成することができる。   The moving image generating / outputting system 12 in the second embodiment can also generate character moving images in real time by performing rendering based on the three-dimensional information of a plurality of characters corresponding to a plurality of voice actors.

上記の説明において、動画処理装置100の動作として説明した処理は、プロセッサがプログラムに従って動画処理装置100が有する各ハードウェア(例えば、ハードディスク、メモリ等)を制御することにより実現される。このように、本実施形態の動画処理装置100に関連して説明した、動画処理装置100の少なくとも一部の処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、ハードディスク、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータによって実現することができる。コンピュータは、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータは、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。   In the above description, the processing described as the operation of the moving image processing apparatus 100 is realized by the processor controlling each hardware (for example, hard disk, memory, etc.) included in the moving image processing apparatus 100 according to the program. As described above, at least a part of the processing of the moving image processing apparatus 100 described in relation to the moving image processing apparatus 100 according to the present embodiment is performed by the processor operating the program according to the program to control each hardware, so that the processor, the hard disk It can be realized by the hardware and the program including the memory and the like operating together. That is, the process can be realized by a so-called computer. The computer may load a program for controlling execution of the above-described processing, operate according to the read program, and execute the processing. The computer can load the program from a computer-readable recording medium storing the program.

同様に、動画処理装置200の動作として説明した処理は、プロセッサがプログラムに従ってコンピュータが有する各ハードウェアを制御することにより実現できる。また、動画処理装置102の動作として説明した処理は、プロセッサがプログラムに従ってコンピュータが有する各ハードウェアを制御することにより実現できる。また、動画処理装置202の動作として説明した処理は、プロセッサがプログラムに従ってコンピュータが有する各ハードウェアを制御することにより実現される。   Similarly, the processing described as the operation of the moving image processing apparatus 200 can be realized by the processor controlling each hardware of the computer according to the program. The processing described as the operation of the moving image processing apparatus 102 can be realized by the processor controlling each hardware of the computer according to the program. The processing described as the operation of the moving image processing apparatus 202 is realized by the processor controlling each hardware of the computer according to the program.

なお、顔動き検出部110、動画生成部130、顔動き検出部210及び動画生成部230の機能は全体として、Unity Technologies社のゲームエンジン「Unity」によって、コンピュータに実装できる。顔動き検出部110及び顔動き検出部210の処理は、顔の動きを検出するプラグインをUnityに組み込むことによって、コンピュータに実装できる。   The functions of the face motion detection unit 110, the moving image generation unit 130, the face movement detection unit 210, and the moving image generation unit 230 can be implemented on a computer as a whole by a game engine “Unity” of Unity Technologies. The processing of the face motion detection unit 110 and the face motion detection unit 210 can be implemented in a computer by incorporating a plug-in for detecting the motion of the face into Unity.

なお、以上の説明において、インタラクティブシステム5が2つのユーザ端末80及びユーザ端末80を備える形態を取り上げて説明したが、ユーザ端末の数は2に限られない。ユーザ端末の数は、1であってよいし、3以上であってよい。同様に、キャラクタ及び声優の数は、2に限られず、1であってよいし、3以上であってよい。   In the above description, the interactive system 5 includes two user terminals 80 and user terminals 80. However, the number of user terminals is not limited to two. The number of user terminals may be 1 or 3 or more. Similarly, the number of characters and voice actors is not limited to 2, and may be 1 or 3 or more.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

5 インタラクティブシステム
9 ネットワーク
10、12 動画生成出力システム
20 カメラ、21 カメラ
30 モーションセンサ、31 モーションセンサ
40 カメラ
42 操作者
50 表示装置、51 表示装置
60 声優、61 声優
70 マイク、71 マイク
80 ユーザ端末、81 ユーザ端末
90 ユーザ、91 ユーザ
100、102 動画処理装置
110 顔動き検出部
120 体動き検出部
130 動画生成部
140 格納部
150 音声取得部
160 カメラ情報取得部
170 動画出力部
180 動画生成出力部
200、202 動画処理装置
210 顔動き検出部
220 体動き検出部
230 動画生成部
240 格納部
260 カメラ情報取得部
300 サーバ
5 Interactive system 9 Network 10, 12 Video generation / output system 20 Camera, 21 Camera 30 Motion sensor, 31 Motion sensor 40 Camera 42 Operator 50 Display device, 51 Display device 60 Voice actor, 61 Voice actor 70 Microphone, 71 Microphone 80 User terminal, 81 User terminal 90 User, 91 User 100, 102 Movie processing device 110 Face motion detection unit 120 Body motion detection unit 130 Movie generation unit 140 Storage unit 150 Audio acquisition unit 160 Camera information acquisition unit 170 Movie output unit 180 Movie generation output unit 200 202 Moving image processing apparatus 210 Face motion detecting unit 220 Body motion detecting unit 230 Moving image generating unit 240 Storage unit 260 Camera information acquisition unit 300 Server

Claims (5)

連続的に入力される第1の人物の動画から、前記第1の人物の顔部品の動きを連続的に検出する第1顔動き検出部と、
前記第1の人物の顔以外の体部の動きを連続的に検出する第1体動き検出部と、
仮想的な第1のキャラクタの3次元情報を格納している格納部と、
前記第1顔動き検出部が連続的に検出した前記顔部品の動きと、前記第1体動き検出部が連続的に検出した前記体部の動きと、前記格納部が格納している前記第1のキャラクタの3次元情報とに基づいて、前記第1の人物の前記顔部品及び前記体部の動きに応じて前記第1のキャラクタの顔部品及び前記第1のキャラクタの顔以外の体部が動くキャラクタ動画を生成して、生成した前記キャラクタ動画を、前記第1の人物の動画の入力に同期して出力する動画生成出力部と
を備える動画生成装置。
A first face motion detection unit that continuously detects the motion of the facial parts of the first person from a continuously input video of the first person;
A first body movement detection unit that continuously detects movement of a body part other than the face of the first person;
A storage unit storing the three-dimensional information of the virtual first character;
The movement of the face part continuously detected by the first face movement detection unit, the movement of the body part continuously detected by the first body movement detection unit, and the storage unit storing the first movement Body parts other than the face parts of the first character and the face of the first character according to the movement of the face parts and the body part of the first person based on the three-dimensional information of the one character A moving image generating apparatus comprising: a moving image generating / outputting unit that generates a moving character moving image and outputs the generated character moving image in synchronization with an input of the moving image of the first person.
前記第1の人物の動画の入力に同期して、前記第1の人物が発した音声を連続的に取得する音声取得部
をさらに備え、
前記動画生成出力部は、前記音声取得部が連続的に取得した前記音声を、前記キャラクタ動画に合成して出力する
請求項1に記載の動画生成装置。
A voice acquisition unit for continuously acquiring the voice uttered by the first person in synchronization with the input of the first person's video;
The moving image generation apparatus according to claim 1, wherein the moving image generation / output unit synthesizes and outputs the sound continuously acquired by the sound acquisition unit to the character moving image.
前記格納部は、仮想的な第2のキャラクタの3次元情報を更に格納しており、
前記動画生成装置は、
前記第1の人物の動画に同期して連続的に入力される第2の人物の動画から、前記第2の人物の顔の顔部品の動きを連続的に検出する第2顔動き検出部と、
前記第2の人物の顔以外の体部の動きを連続的に検出する第2体動き検出部と
をさらに備え、
前記動画生成出力部は、前記第1顔動き検出部が連続的に検出した前記顔部品の動きと、前記第1体動き検出部が連続的に検出した前記体部の動きと、前記格納部が格納している前記第1のキャラクタの3次元情報と、前記第2顔動き検出部が連続的に検出した前記顔部品の動きと、前記第2体動き検出部が連続的に検出した前記体部の動きと、前記格納部が格納している前記第2のキャラクタの3次元情報とに基づいて、前記第1の人物の前記顔部品及び前記体部の動きに応じて前記第1のキャラクタの顔部品及び前記第1のキャラクタの顔以外の体部が動き、前記第2の人物の前記顔部品の動き及び前記体部の動きに応じて前記第2のキャラクタの顔部品及び前記第2のキャラクタの顔以外の体部が動く前記キャラクタ動画を生成して、生成した前記キャラクタ動画を、前記第1の人物の動画及び前記第2の人物の動画の入力に同期して出力する
請求項1または2に記載の動画生成装置。
The storage unit further stores three-dimensional information of the virtual second character,
The moving image generating device
A second face motion detection unit for continuously detecting the motion of facial parts of the face of the second person from the second person's video continuously input in synchronization with the first person's video; ,
A second body motion detector that continuously detects the motion of the body other than the face of the second person,
The moving image generation output unit includes: the movement of the facial part continuously detected by the first face movement detection unit; the movement of the body part continuously detected by the first body movement detection unit; and the storage unit. Stored in the first character, the movement of the facial part detected by the second facial motion detection unit, and the continuous detection of the second body motion detection unit. Based on the movement of the body part and the three-dimensional information of the second character stored in the storage part, the first part is moved according to the movement of the facial part and the body part of the first person. Body parts other than the character's face part and the face of the first character move, and the face part of the second character and the first part according to the movement of the face part and the body part of the second person. Generating the character animation in which the body part other than the face of the character 2 moves, The character videos form, the first person video and moving image generating apparatus according to claim 1 or 2, output in synchronization with video input of the second person.
前記第1の人物を連続的に撮像するカメラ部と、
前記カメラ部の撮像方向を示す情報を連続的に取得するカメラ情報取得部と
をさらに備え、
前記動画生成出力部は、前記カメラ情報取得部が取得した前記カメラ部の撮像方向を示す情報に基づいて、前記カメラ部から見た前記第1の人物の向きに合致する向きの前記第1のキャラクタの動画を生成することにより、前記カメラ部の撮像方向の変化に応じてアングルが変化する前記キャラクタ動画を生成する
請求項1から3のいずれか一項に記載の動画生成装置。
A camera unit that continuously images the first person;
A camera information acquisition unit that continuously acquires information indicating the imaging direction of the camera unit;
The moving image generation / output unit is configured to match the first person in a direction that matches the direction of the first person viewed from the camera unit based on information indicating an imaging direction of the camera unit acquired by the camera information acquisition unit. The moving image generating apparatus according to any one of claims 1 to 3, wherein the moving image of the character is generated to generate the character moving image in which an angle changes according to a change in an imaging direction of the camera unit.
コンピュータを、請求項1から4のいずれか一項に記載の動画生成装置として機能させるためのプログラム。   The program for functioning a computer as a moving image production | generation apparatus as described in any one of Claim 1 to 4.
JP2014057582A 2014-03-20 2014-03-20 Moving image generation device and program Pending JP2015184689A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014057582A JP2015184689A (en) 2014-03-20 2014-03-20 Moving image generation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057582A JP2015184689A (en) 2014-03-20 2014-03-20 Moving image generation device and program

Publications (1)

Publication Number Publication Date
JP2015184689A true JP2015184689A (en) 2015-10-22

Family

ID=54351211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057582A Pending JP2015184689A (en) 2014-03-20 2014-03-20 Moving image generation device and program

Country Status (1)

Country Link
JP (1) JP2015184689A (en)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951882A (en) * 2017-03-31 2017-07-14 广州帕克西软件开发有限公司 The identification method for tracing and device of a kind of shape of face
JP2019024748A (en) * 2017-07-27 2019-02-21 株式会社バンダイナムコエンターテインメント Image generation device and program
WO2019203190A1 (en) * 2018-04-17 2019-10-24 ソニー株式会社 Program, information processing device, and information processing method
EP3567866A1 (en) 2018-05-08 2019-11-13 Gree, Inc. Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor
JP2019198060A (en) * 2019-01-23 2019-11-14 グリー株式会社 Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement
JP2019205176A (en) * 2019-06-25 2019-11-28 グリー株式会社 Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor
JP2019204244A (en) * 2018-05-22 2019-11-28 株式会社 ディー・エヌ・エー System for animated cartoon distribution, method, and program
JP2019207509A (en) * 2018-05-28 2019-12-05 株式会社 ディー・エヌ・エー Moving image creation system, method, and program
JP2020017981A (en) * 2019-03-13 2020-01-30 グリー株式会社 Moving image distribution system distributing moving image including message from viewer user
WO2020044749A1 (en) * 2018-08-28 2020-03-05 グリー株式会社 Moving-image delivery system for delivering moving-image live that includes animation of character object generated on the basis of motion of delivering user, moving-image delivery method, and moving-image delivery program
JP2020043578A (en) * 2019-11-11 2020-03-19 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
JP2020049286A (en) * 2018-05-29 2020-04-02 株式会社コロプラ Game program, method, and information processing device
JP2020072804A (en) * 2019-09-25 2020-05-14 株式会社コロプラ Game program, method, and information processing device
JP2021002087A (en) * 2019-06-19 2021-01-07 グリー株式会社 Computer program, information processing method and information processing system
JP2021002327A (en) * 2020-04-14 2021-01-07 グリー株式会社 Computer program, information processing method and information processing system
US11044535B2 (en) 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
US11128932B2 (en) 2018-05-09 2021-09-21 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP2021177409A (en) * 2019-09-19 2021-11-11 グリー株式会社 Video distribution system for distributing video including message from viewing user
US11190848B2 (en) 2018-05-08 2021-11-30 Gree, Inc. Video distribution system distributing video that includes message from viewing user
JP2022088365A (en) * 2020-02-06 2022-06-14 グリー株式会社 Video distribution system distributing videos including animations of character objects generated based on motion of actors, video distribution method, and video distribution program
JP2022118192A (en) * 2020-03-04 2022-08-12 株式会社コロプラ Program and information processor
JP2022164730A (en) * 2019-03-13 2022-10-27 バルス株式会社 Live distribution system and live distribution method
US11496807B2 (en) 2019-06-28 2022-11-08 Gree, Inc. Video distribution system, video distribution method, information processing device, and video viewing program
JP2022184845A (en) * 2020-02-18 2022-12-13 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program
US11563998B2 (en) 2018-12-28 2023-01-24 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and video distribution program
US11595739B2 (en) 2019-11-29 2023-02-28 Gree, Inc. Video distribution system, information processing method, and computer program
JP2023036650A (en) * 2018-05-10 2023-03-14 株式会社 ディー・エヌ・エー System, method and program for distributing moving image
US11704854B2 (en) 2021-01-27 2023-07-18 Gree, Inc. Information processing system, information processing method, and computer program
US11736779B2 (en) 2018-11-20 2023-08-22 Gree, Inc. System method and program for distributing video
US11740766B2 (en) 2020-12-18 2023-08-29 Gree, Inc. Information processing system, information processing method, and computer program
US11843643B2 (en) 2019-12-27 2023-12-12 Gree, Inc. Information processing system, information processing method, and computer program
JP7421738B1 (en) 2022-11-09 2024-01-25 グリー株式会社 Information processing system, information processing method and computer program
US11949934B2 (en) 2018-12-28 2024-04-02 Gree, Inc. Video distribution system, video distribution method, video distribution program, information processing terminal, and video viewing program
US11989811B2 (en) 2021-10-29 2024-05-21 Gree, Inc. Information processing system, information processing method, and computer program
US11997368B2 (en) 2018-12-12 2024-05-28 GREE Inc. Video distribution system, video distribution method, and storage medium storing video distribution program
JP7493188B2 (en) 2018-12-28 2024-05-31 グリー株式会社 Video distribution system, video distribution method, and video distribution program
US12035010B2 (en) 2019-06-28 2024-07-09 Gree, Inc. Video distribution system, video distribution method, information processing device, video distribution program, and video viewing program for displaying avatar objects
US12100085B2 (en) 2021-08-28 2024-09-24 Gree, Inc. Information processing system, information processing method and non-transitory computer readable medium storing program

Cited By (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951882A (en) * 2017-03-31 2017-07-14 广州帕克西软件开发有限公司 The identification method for tracing and device of a kind of shape of face
CN106951882B (en) * 2017-03-31 2021-03-23 广州帕克西软件开发有限公司 Face shape recognition and tracking method and device
JP2019024748A (en) * 2017-07-27 2019-02-21 株式会社バンダイナムコエンターテインメント Image generation device and program
EP3782549A4 (en) * 2018-04-17 2021-11-10 Sony Group Corporation Program, information processing device, and information processing method
US11726549B2 (en) 2018-04-17 2023-08-15 Sony Corporation Program, information processor, and information processing method
WO2019203190A1 (en) * 2018-04-17 2019-10-24 ソニー株式会社 Program, information processing device, and information processing method
US11675418B2 (en) 2018-04-17 2023-06-13 Sony Corporation Program, information processor, and information processing method for blending motions of a plurality of actors
JP7318641B2 (en) 2018-04-17 2023-08-01 ソニーグループ株式会社 Program, information processing device, and information processing method
JPWO2019203190A1 (en) * 2018-04-17 2021-07-08 ソニーグループ株式会社 Programs, information processing devices, and information processing methods
KR20230006652A (en) 2018-05-08 2023-01-10 그리 가부시키가이샤 Moving picture delivery system for delivering moving picture including animation of character object generated based on motions of actor, moving picture delivery method, and moving picture delivery program
US11190848B2 (en) 2018-05-08 2021-11-30 Gree, Inc. Video distribution system distributing video that includes message from viewing user
US12137274B2 (en) 2018-05-08 2024-11-05 Gree, Inc. Video distribution system distributing video that includes message from viewing user
CN115086736A (en) * 2018-05-08 2022-09-20 日本聚逸株式会社 Moving image distribution system, method thereof, and recording medium
EP3567866A1 (en) 2018-05-08 2019-11-13 Gree, Inc. Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor
US11202118B2 (en) 2018-05-08 2021-12-14 Gree, Inc. Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor
CN110460892B (en) * 2018-05-08 2022-06-14 日本聚逸株式会社 Moving image distribution system, moving image distribution method, and recording medium
CN110460892A (en) * 2018-05-08 2019-11-15 日本聚逸株式会社 Dynamic image dissemination system, dynamic image distribution method and recording medium
WO2019216146A1 (en) * 2018-05-08 2019-11-14 グリー株式会社 Moving picture delivery system for delivering moving picture including animation of character object generated based on motions of actor, moving picture delivery method, and moving picture delivery program
KR20210005183A (en) 2018-05-08 2021-01-13 그리 가부시키가이샤 A moving image distribution system, a moving image distribution method, and a moving image distribution program that distributes moving images including animations of character objects generated based on the movement of actors
US11128932B2 (en) 2018-05-09 2021-09-21 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP2023036650A (en) * 2018-05-10 2023-03-14 株式会社 ディー・エヌ・エー System, method and program for distributing moving image
JP7510994B2 (en) 2018-05-10 2024-07-04 株式会社 ディー・エヌ・エー System, method, and program for distributing video
JP7228338B2 (en) 2018-05-22 2023-02-24 株式会社 ディー・エヌ・エー System, method and program for distributing videos
JP2019204244A (en) * 2018-05-22 2019-11-28 株式会社 ディー・エヌ・エー System for animated cartoon distribution, method, and program
JP2022095625A (en) * 2018-05-28 2022-06-28 株式会社 ディー・エヌ・エー System, method, and program for creating video
JP7373599B2 (en) 2018-05-28 2023-11-02 株式会社 ディー・エヌ・エー Systems, methods and programs for creating videos
JP2019207509A (en) * 2018-05-28 2019-12-05 株式会社 ディー・エヌ・エー Moving image creation system, method, and program
JP7038602B2 (en) 2018-05-28 2022-03-18 株式会社 ディー・エヌ・エー Systems, methods, and programs for creating videos
JP2020049286A (en) * 2018-05-29 2020-04-02 株式会社コロプラ Game program, method, and information processing device
JP7349348B2 (en) 2018-05-29 2023-09-22 株式会社コロプラ Character control program, method, and information processing device
US11044535B2 (en) 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
WO2020044749A1 (en) * 2018-08-28 2020-03-05 グリー株式会社 Moving-image delivery system for delivering moving-image live that includes animation of character object generated on the basis of motion of delivering user, moving-image delivery method, and moving-image delivery program
KR20210025102A (en) 2018-08-28 2021-03-08 그리 가부시키가이샤 A moving image distribution system, a moving image distribution method, and a moving image distribution program for live distribution of moving images including animations of character objects generated based on the movement of the distribution user
US11736779B2 (en) 2018-11-20 2023-08-22 Gree, Inc. System method and program for distributing video
US11997368B2 (en) 2018-12-12 2024-05-28 GREE Inc. Video distribution system, video distribution method, and storage medium storing video distribution program
US11563998B2 (en) 2018-12-28 2023-01-24 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and video distribution program
JP7493188B2 (en) 2018-12-28 2024-05-31 グリー株式会社 Video distribution system, video distribution method, and video distribution program
US11949934B2 (en) 2018-12-28 2024-04-02 Gree, Inc. Video distribution system, video distribution method, video distribution program, information processing terminal, and video viewing program
JP2019198060A (en) * 2019-01-23 2019-11-14 グリー株式会社 Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement
JP2022164730A (en) * 2019-03-13 2022-10-27 バルス株式会社 Live distribution system and live distribution method
JP2020017981A (en) * 2019-03-13 2020-01-30 グリー株式会社 Moving image distribution system distributing moving image including message from viewer user
JP7188831B2 (en) 2019-03-13 2022-12-13 バルス株式会社 Live distribution system and live distribution method
JP2021002087A (en) * 2019-06-19 2021-01-07 グリー株式会社 Computer program, information processing method and information processing system
JP7460059B2 (en) 2019-06-25 2024-04-02 グリー株式会社 A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors
JP2023015139A (en) * 2019-06-25 2023-01-31 グリー株式会社 Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor
JP7167242B2 (en) 2019-06-25 2022-11-08 グリー株式会社 A video delivery system that delivers live videos containing animations of character objects generated based on the movements of actors
JP2021132393A (en) * 2019-06-25 2021-09-09 グリー株式会社 Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor
JP2019205176A (en) * 2019-06-25 2019-11-28 グリー株式会社 Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor
JP7098575B2 (en) 2019-06-25 2022-07-11 グリー株式会社 A video distribution system that delivers live video containing animations of character objects generated based on the movement of actors.
US12035010B2 (en) 2019-06-28 2024-07-09 Gree, Inc. Video distribution system, video distribution method, information processing device, video distribution program, and video viewing program for displaying avatar objects
US11805299B2 (en) 2019-06-28 2023-10-31 Gree, Inc. Video distribution system, video distribution method, information processing device, and video viewing program
US11496807B2 (en) 2019-06-28 2022-11-08 Gree, Inc. Video distribution system, video distribution method, information processing device, and video viewing program
US12120397B2 (en) 2019-06-28 2024-10-15 Gree, Inc. Video distribution system, video distribution method, information processing device, and video viewing program
JP2021177409A (en) * 2019-09-19 2021-11-11 グリー株式会社 Video distribution system for distributing video including message from viewing user
JP7279114B2 (en) 2019-09-19 2023-05-22 グリー株式会社 A video distribution system that distributes videos containing messages from viewing users
JP7509389B2 (en) 2019-09-19 2024-07-02 グリー株式会社 Video distribution system for distributing videos including messages from viewers
JP2020072804A (en) * 2019-09-25 2020-05-14 株式会社コロプラ Game program, method, and information processing device
JP7078585B2 (en) 2019-09-25 2022-05-31 株式会社コロプラ Game programs, methods, and information processing equipment
JP2020043578A (en) * 2019-11-11 2020-03-19 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
US11595739B2 (en) 2019-11-29 2023-02-28 Gree, Inc. Video distribution system, information processing method, and computer program
US12022165B2 (en) 2019-11-29 2024-06-25 Gree, Inc. Video distribution system, information processing method, and computer program
US11843643B2 (en) 2019-12-27 2023-12-12 Gree, Inc. Information processing system, information processing method, and computer program
JP7385689B2 (en) 2020-02-06 2023-11-22 グリー株式会社 Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors
JP2022088365A (en) * 2020-02-06 2022-06-14 グリー株式会社 Video distribution system distributing videos including animations of character objects generated based on motion of actors, video distribution method, and video distribution program
JP2022184845A (en) * 2020-02-18 2022-12-13 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program
JP2022118192A (en) * 2020-03-04 2022-08-12 株式会社コロプラ Program and information processor
JP7457753B2 (en) 2020-03-04 2024-03-28 株式会社コロプラ PROGRAM AND INFORMATION PROCESSING APPARATUS
JP2021002327A (en) * 2020-04-14 2021-01-07 グリー株式会社 Computer program, information processing method and information processing system
JP7220173B2 (en) 2020-04-14 2023-02-09 グリー株式会社 Computer program, information processing method and information processing system
US11740766B2 (en) 2020-12-18 2023-08-29 Gree, Inc. Information processing system, information processing method, and computer program
US11704854B2 (en) 2021-01-27 2023-07-18 Gree, Inc. Information processing system, information processing method, and computer program
US12100085B2 (en) 2021-08-28 2024-09-24 Gree, Inc. Information processing system, information processing method and non-transitory computer readable medium storing program
US11989811B2 (en) 2021-10-29 2024-05-21 Gree, Inc. Information processing system, information processing method, and computer program
JP7421738B1 (en) 2022-11-09 2024-01-25 グリー株式会社 Information processing system, information processing method and computer program

Similar Documents

Publication Publication Date Title
JP2015184689A (en) Moving image generation device and program
US11620780B2 (en) Multiple device sensor input based avatar
JP7504968B2 (en) Avatar display device, avatar generation device and program
US9654734B1 (en) Virtual conference room
US10609332B1 (en) Video conferencing supporting a composite video stream
US20160110922A1 (en) Method and system for enhancing communication by using augmented reality
JP2022177053A (en) Information processing system, information processing method, and information processing program
US20100079491A1 (en) Image compositing apparatus and method of controlling same
TWI255141B (en) Method and system for real-time interactive video
EP3573026B1 (en) Information processing apparatus, information processing method, and program
CN113973190A (en) Video virtual background image processing method and device and computer equipment
Gonzalez-Franco et al. Movebox: Democratizing mocap for the microsoft rocketbox avatar library
WO2019056904A1 (en) Video transmission method, server, vr playback terminal and computer-readable storage medium
US11461942B2 (en) Generating and signaling transition between panoramic images
JP6563580B1 (en) Communication system and program
WO2017094527A1 (en) Moving image generating system and moving image display system
KR101672691B1 (en) Method and apparatus for generating emoticon in social network service platform
US20210235168A1 (en) Video modification and transmission using tokens
US20240257409A1 (en) Computer program, server device, terminal device, and method for moving gift in virtual space
WO2020250106A1 (en) A system and a method for teleportation for enhanced audio-visual interaction in mixed reality (mr) using a head mounted device (hmd)
JP5833525B2 (en) Video communication system and video communication method
JP5894505B2 (en) Image communication system, image generation apparatus, and program
JP2014086773A (en) Video communication system and video communication method
KR20120092960A (en) System and method for controlling virtual character
JP7065708B2 (en) Recording / playback device and program