[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7344084B2 - Content distribution system, content distribution method, and content distribution program - Google Patents

Content distribution system, content distribution method, and content distribution program Download PDF

Info

Publication number
JP7344084B2
JP7344084B2 JP2019193351A JP2019193351A JP7344084B2 JP 7344084 B2 JP7344084 B2 JP 7344084B2 JP 2019193351 A JP2019193351 A JP 2019193351A JP 2019193351 A JP2019193351 A JP 2019193351A JP 7344084 B2 JP7344084 B2 JP 7344084B2
Authority
JP
Japan
Prior art keywords
content
virtual object
image
virtual
nominal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019193351A
Other languages
Japanese (ja)
Other versions
JP2020167661A (en
JP2020167661A5 (en
Inventor
量生 川上
尚 小嶋
寛明 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019062517A external-priority patent/JP6609078B1/en
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2019193351A priority Critical patent/JP7344084B2/en
Publication of JP2020167661A publication Critical patent/JP2020167661A/en
Publication of JP2020167661A5 publication Critical patent/JP2020167661A5/ja
Application granted granted Critical
Publication of JP7344084B2 publication Critical patent/JP7344084B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示の一側面はコンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラムに関する。 One aspect of the present disclosure relates to a content distribution system, a content distribution method, and a content distribution program.

実写画像と仮想オブジェクトとを含むコンテンツ画像を提供する仕組みが知られている。例えば、特許文献1には、取得した現実空間の画像における実オブジェクトを認識し、その実オブジェクトに対する仮想オブジェクトの重畳を許容する程度を示した情報と、仮想オブジェクトを対応づけて表示する実オブジェクトからの距離とに基づいて、現実空間の画像に対する該仮想オブジェクトの表示条件を決定し、その表示条件に基づいて現実空間の画像に仮想オブジェクトを重畳して表示する情報処理装置が記載されている。 2. Description of the Related Art A mechanism for providing a content image including a real image and a virtual object is known. For example, Patent Document 1 discloses that a real object in an acquired real space image is recognized, information indicating the degree to which a virtual object is allowed to be superimposed on the real object, and information from a real object that is displayed in association with the virtual object. An information processing apparatus is described that determines a display condition for the virtual object with respect to an image in real space based on the distance, and displays the virtual object in a superimposed manner on the image in real space based on the display condition.

特開2016-95579号公報Japanese Patent Application Publication No. 2016-95579

実写画像と仮想オブジェクトとを含むコンテンツ画像において、該仮想オブジェクトをユーザに違和感なく見せることが望まれている。 In a content image that includes a real image and a virtual object, it is desired that the virtual object be shown to the user without causing any discomfort.

本開示の一側面に係るコンテンツ配信システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、実写画像領域を含むコンテンツ画像を取得し、第1仮想オブジェクトの第1公称寸法と、基準オブジェクトの基準公称寸法とを取得し、第1公称寸法と基準公称寸法との相対的関係が維持されるように、コンテンツ画像によって表現される空間内に第1仮想オブジェクトおよび基準オブジェクトを配置し、第1仮想オブジェクトおよび基準オブジェクトが配置された空間を表現するコンテンツ画像をユーザ端末上に表示させる。 A content distribution system according to one aspect of the present disclosure includes at least one processor. At least one processor obtains a content image including a live image region, obtains a first nominal dimension of a first virtual object and a reference nominal dimension of a reference object, and determines a relative relationship between the first nominal dimension and the reference nominal dimension. The first virtual object and the reference object are arranged in the space represented by the content image so that the virtual relationship is maintained, and the content image representing the space in which the first virtual object and the reference object are arranged is displayed on the user terminal. to be displayed.

本開示の一側面によれば、実写画像と仮想オブジェクトとを含むコンテンツ画像において、該仮想オブジェクトをユーザに違和感なく見せることができる。 According to one aspect of the present disclosure, in a content image that includes a live-action image and a virtual object, the virtual object can be shown to the user without feeling strange.

実施形態に係るコンテンツ配信システムの適用の一例を示す図である。FIG. 1 is a diagram illustrating an example of application of a content distribution system according to an embodiment. 実施形態に係るコンテンツ配信システムに関連するハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration related to a content distribution system according to an embodiment. 実施形態に係るコンテンツ配信システムに関連する機能構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a functional configuration related to a content distribution system according to an embodiment. 実写画像に基づくコンテンツ画像のいくつかの例を示す図である。FIG. 3 is a diagram illustrating several examples of content images based on real images. 実施形態に係るコンテンツ配信システムの動作を示すシーケンス図である。FIG. 2 is a sequence diagram showing the operation of the content distribution system according to the embodiment. マーカが表されたコンテンツ画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of a content image in which a marker is displayed.

以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in the description of the drawings, the same or equivalent elements are given the same reference numerals, and redundant description will be omitted.

[システムの概要]
実施形態に係るコンテンツ配信システム1はコンテンツ画像を少なくとも一つのユーザ端末20に配信するコンピュータシステムである。コンテンツ画像とは、人が視覚を通して何らかの情報を認識することができる像のことをいう。コンテンツ画像は動画像(映像)でもよいし静止画でもよい。ユーザ端末20は、コンテンツ配信システム1を利用する人であるユーザによって用いられるコンピュータである。配信とは、通信ネットワークまたは放送ネットワークを経由して情報をユーザに向けて送信する処理のことをいう。本開示では、配信は放送を含み得る概念である。コンテンツ配信システム1は、コンテンツ画像を示す電子データであるコンテンツ画像データを生成して該コンテンツ画像データをユーザ端末に送信する。ユーザ端末20はそのコンテンツ画像データを受信および処理してコンテンツ画像を表示装置上に表示する。
[System overview]
The content distribution system 1 according to the embodiment is a computer system that distributes content images to at least one user terminal 20. A content image is an image that allows a person to visually recognize some information. The content image may be a moving image (video) or a still image. The user terminal 20 is a computer used by a user who uses the content distribution system 1. Distribution refers to the process of transmitting information to users via a communications or broadcast network. In this disclosure, distribution is a concept that may include broadcasting. The content distribution system 1 generates content image data, which is electronic data representing a content image, and transmits the content image data to a user terminal. User terminal 20 receives and processes the content image data and displays the content image on a display device.

図1はコンテンツ配信システム1の適用の一例を示す図である。本実施形態では、コンテンツ配信システム1はサーバ10を備える。サーバ10は、コンテンツ画像を少なくとも一つのユーザ端末20に配信するコンピュータ(コンテンツ配信サーバ)である。サーバ10は通信ネットワークNを介して複数のユーザ端末20と接続する。図1では5台のユーザ端末20を示すが、ユーザ端末20の個数は限定されない。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。図1に例示するようにユーザ端末20の種類は限定されない。例えば、ユーザ端末20は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、ユーザ端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。 FIG. 1 is a diagram showing an example of application of the content distribution system 1. In this embodiment, the content distribution system 1 includes a server 10. The server 10 is a computer (content distribution server) that distributes content images to at least one user terminal 20. The server 10 is connected to a plurality of user terminals 20 via a communication network N. Although five user terminals 20 are shown in FIG. 1, the number of user terminals 20 is not limited. The configuration of the communication network N is not limited. For example, the communication network N may include the Internet or may include an intranet. The type of user terminal 20 is not limited as illustrated in FIG. 1 . For example, the user terminal 20 may be a mobile terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (for example, a head mounted display (HMD), smart glasses, etc.), a laptop personal computer, or a mobile phone. Alternatively, the user terminal 20 may be a stationary terminal such as a desktop personal computer.

本開示では、コンテンツ画像は、実写画像と仮想オブジェクトとが組み合わされることで生成される画像である。実写画像とは現実世界を映した画像のことをいい、カメラなどの撮像装置によって得られる。当然ながら実写画像により映された物体(本開示ではこれを「現実オブジェクト」という。)は現実世界に実際に存在する。仮想オブジェクトとは、現実世界(より具体的には、実写画像で表現される領域)には実際に存在せず、コンピュータシステム上でのみ表現される物体のことをいう。仮想オブジェクトは、実写画像とは独立した画像素材を用いて、2次元または3次元のコンピュータグラフィック(CG)によって表現される。仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトはアニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。コンテンツ画像は、現実オブジェクトと仮想オブジェクトとが存在する仮想空間を表現する画像であるともいえる。仮想空間とは、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間のことをいう。見方を変えると、コンテンツ画像は、仮想空間内に設定された仮想カメラから見える風景を示す画像ということができる。仮想カメラは、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。 In the present disclosure, a content image is an image generated by combining a real image and a virtual object. A live-action image is an image that reflects the real world, and is obtained using an imaging device such as a camera. Naturally, the object shown in the live-action image (referred to as a "real object" in this disclosure) actually exists in the real world. A virtual object is an object that does not actually exist in the real world (more specifically, an area represented by a real image) and is represented only on a computer system. A virtual object is expressed by two-dimensional or three-dimensional computer graphics (CG) using image materials independent of real images. The method of representing the virtual object is not limited. For example, the virtual object may be expressed using animation materials, or may be expressed based on a live-action image to appear close to the real thing. The content image can also be said to be an image representing a virtual space in which real objects and virtual objects exist. A virtual space refers to a virtual two-dimensional or three-dimensional space expressed by images displayed on a computer. From a different perspective, a content image can be said to be an image showing a landscape seen from a virtual camera set in a virtual space. The virtual camera is set in the virtual space so as to correspond to the line of sight of the user viewing the content image.

コンテンツ配信システム1は、第1仮想オブジェクトの公称寸法を仮想空間内の基準オブジェクトの公称寸法との相対的関係が維持されるように該第1仮想オブジェクトを該仮想空間内に配置する。「オブジェクトを配置する」とは、オブジェクト(例えば第1仮想オブジェクト)を決められた位置に置くことをいい、オブジェクトの位置の変更を含む概念である。コンテンツ配信システム1は第1仮想オブジェクトが配置された仮想空間を表現するコンテンツ画像をユーザ端末20上に表示させる。第1仮想オブジェクトとは、その仮想空間に追加される仮想オブジェクトのことをいう。基準オブジェクトとは、仮想空間内に配置する第1仮想オブジェクトの寸法を決めるために用いられるオブジェクトのことをいう。基準オブジェクトは現実オブジェクトでもよいし仮想オブジェクトでもよい。 The content distribution system 1 arranges the first virtual object in the virtual space so that the relative relationship between the nominal dimensions of the first virtual object and the nominal dimensions of the reference object in the virtual space is maintained. "Placing an object" refers to placing an object (for example, a first virtual object) in a predetermined position, and is a concept that includes changing the position of the object. The content distribution system 1 displays on the user terminal 20 a content image representing a virtual space in which a first virtual object is placed. The first virtual object refers to a virtual object added to the virtual space. The reference object is an object used to determine the dimensions of a first virtual object to be placed in the virtual space. The reference object may be a real object or a virtual object.

公称寸法とは、オブジェクトそのものの属性として設定されており且つ一般に公開されている寸法のことをいう。したがって、ユーザなどの人々は任意の情報源にアクセスしてその公称寸法を知ることができる。本実施形態では公称寸法の具体例として高さを示すが、公称寸法は他の長さを示してもよい。例えば公称寸法は幅を示してもよい。公称寸法は複数の長さの組合せ(例えば、高さと幅との組合せ)であってもよい。オブジェクトが人または人型のキャラクタであれば、高さを身長といい、幅を身幅と言い換えることができる。本実施形態では、第1仮想オブジェクトの公称寸法を「第1公称寸法」といい、基準オブジェクトの公称寸法を「基準公称寸法」という。現実オブジェクトを例に説明すると、エベレストの公称寸法(高さ)は8848mであり、東京タワーの公称寸法(高さ)は333mである。「公称寸法の相対的関係」とは、二つのオブジェクト間での公称寸法の大小関係のことをいい、比率で表すことができる。例えば、東京タワーの公称寸法とエッフェル塔(高さは324m)との公称寸法との相対的関係は、1.03(≒333/324)、0.97(≒324/333)、333:324、324:333などのように数学的に表すことができる。 Nominal dimensions refer to dimensions that are set as attributes of the object itself and are publicly available. Therefore, people such as users can access any source of information to know its nominal dimensions. In this embodiment, height is shown as a specific example of the nominal dimension, but the nominal dimension may also indicate other lengths. For example, a nominal dimension may indicate width. The nominal dimensions may be a combination of lengths (eg, a combination of height and width). If the object is a person or a humanoid character, the height can be called height, and the width can be called body width. In this embodiment, the nominal dimensions of the first virtual object are referred to as "first nominal dimensions," and the nominal dimensions of the reference object are referred to as "reference nominal dimensions." Using real objects as an example, the nominal dimensions (height) of Everest are 8,848 m, and the nominal dimensions (height) of Tokyo Tower are 333 m. The term "relative relationship between nominal dimensions" refers to the relationship between the nominal dimensions of two objects, and can be expressed as a ratio. For example, the relative relationship between the nominal dimensions of Tokyo Tower and the nominal dimensions of the Eiffel Tower (height is 324 m) is 1.03 (≒333/324), 0.97 (≒324/333), 333:324. , 324:333, etc.

第1仮想オブジェクトと基準オブジェクトとの間の公称寸法の相対的関係が維持されるように第1仮想オブジェクトが仮想空間内に配置されるので、これら二つのオブジェクト間の寸法の大小関係は公称寸法に従う。したがって、コンテンツ画像上では第1仮想オブジェクトが違和感なく表示される。言い換えると、第1仮想オブジェクトの大きさをその公称寸法に従ってリアルにユーザに見せることができる。 Since the first virtual object is placed in the virtual space so that the relative relationship of the nominal dimensions between the first virtual object and the reference object is maintained, the size relationship between these two objects is based on the nominal dimensions. Follow. Therefore, the first virtual object is displayed without any discomfort on the content image. In other words, the size of the first virtual object can be realistically shown to the user according to its nominal dimensions.

コンテンツ配信システム1は様々な目的で用いられてよい。例えば、コンテンツ配信システム1は、ある一人のユーザが他のユーザに向けてライブコンテンツを配信するサービスのために用いられてもよい。このサービスはインターネット生放送ともいわれる。すなわち、コンテンツ配信システム1は配信者から提供されるコンテンツ映像をリアルタイムに視聴者に配信するために用いられてもよい。したがって、コンテンツ画像は、リアルタイムに配信されるライブコンテンツの画像であり得る。あるいは、コンテンツ配信システム1は、過去に撮影されたコンテンツ映像を視聴者に配信するために用いられてもよく、例えば、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。コンテンツ配信システム1は静止画を配信するために用いられてもよい。 Content distribution system 1 may be used for various purposes. For example, the content distribution system 1 may be used for a service in which a certain user distributes live content to other users. This service is also called live internet broadcasting. That is, the content distribution system 1 may be used to distribute content videos provided by a distributor to viewers in real time. Therefore, the content image may be an image of live content delivered in real time. Alternatively, the content distribution system 1 may be used to distribute content videos shot in the past to viewers, such as a time shift that allows content to be viewed in a given period after real-time distribution. may be used for. Content distribution system 1 may be used to distribute still images.

コンテンツ画像上には、仮想空間内で表現されるユーザの分身であるアバターが表現され得る。アバターは仮想オブジェクトの一例である。コンテンツ画像に含まれるアバターは限定されず、例えば、アバターは、配信者に対応してもよいし、配信者と共にコンテンツに参加すると共に該コンテンツを視聴するユーザである参加者に対応してもよい。参加者は視聴者の一種であるといえる。 An avatar, which is a user's alter ego expressed in a virtual space, may be displayed on the content image. An avatar is an example of a virtual object. The avatar included in the content image is not limited; for example, the avatar may correspond to the distributor, or may correspond to a participant who is a user who participates in the content together with the distributor and views the content. . Participants can be said to be a type of audience.

本実施形態では、ライブコンテンツの配信、すなわちコンテンツ映像のリアルタイム配信を例示する。また、配信者によって用いられるユーザ端末20を配信者端末21といい、視聴者によって用いられるユーザ端末20を視聴者端末22という。 In this embodiment, live content distribution, that is, real-time distribution of content video will be exemplified. Further, the user terminal 20 used by a distributor is referred to as a distributor terminal 21, and the user terminal 20 used by a viewer is referred to as a viewer terminal 22.

[システムの構成]
図2はコンテンツ配信システム1に関連するハードウェア構成の一例を示す図である。一例として、サーバ10はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。
[System configuration]
FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1. As an example, the server 10 includes a processor 101, a main storage section 102, an auxiliary storage section 103, and a communication section 104 as hardware components.

プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサの例としてCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。 Processor 101 is a computing device that executes an operating system and application programs. Examples of processors include a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), but the type of processor 101 is not limited to these.

主記憶部102は、サーバ10を機能させるためのプログラム、プロセッサ101から出力された演算結果などを記憶する装置である。主記憶部102は例えばROM(Read Only Memory)およびRAM(Random Access Memory)のうちの少なくとも一つにより構成される。 The main storage unit 102 is a device that stores programs for making the server 10 function, calculation results output from the processor 101, and the like. The main storage unit 102 includes, for example, at least one of ROM (Read Only Memory) and RAM (Random Access Memory).

補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、少なくとも一つのコンピュータをサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。例えば、補助記憶部103は仮想オブジェクトおよび仮想空間のうちの少なくとも一つに関するデータを記憶してもよい。本実施形態では、コンテンツ配信プログラムはサーバプログラムP1として実装される。 The auxiliary storage unit 103 is generally a device that can store a larger amount of data than the main storage unit 102. The auxiliary storage unit 103 is configured by a nonvolatile storage medium such as a hard disk or flash memory. The auxiliary storage unit 103 stores a server program P1 and various data for causing at least one computer to function as the server 10. For example, the auxiliary storage unit 103 may store data regarding at least one of a virtual object and a virtual space. In this embodiment, the content distribution program is implemented as a server program P1.

通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は例えばネットワークカードまたは無線通信モジュールにより構成される。 The communication unit 104 is a device that performs data communication with other computers via the communication network N. The communication unit 104 is configured by, for example, a network card or a wireless communication module.

サーバ10の各機能要素は、プロセッサ101または主記憶部102の上にサーバプログラムP1を読み込ませてそのプログラムを実行させることで実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。このような処理によりサーバ10の各機能要素が実現される。 Each functional element of the server 10 is realized by loading the server program P1 onto the processor 101 or the main storage unit 102 and executing the program. The server program P1 includes codes for realizing each functional element of the server 10. The processor 101 operates the communication unit 104 according to the server program P1 to read and write data in the main storage unit 102 or the auxiliary storage unit 103. Each functional element of the server 10 is realized through such processing.

サーバ10は一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバ10が構成される。 Server 10 may be composed of one or more computers. When a plurality of computers are used, one logical server 10 is configured by connecting these computers to each other via a communication network.

一例として、ユーザ端末20はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、および通信部204、入力インタフェース205、出力インタフェース206、および撮像部207を備える。 As an example, the user terminal 20 includes a processor 201, a main storage section 202, an auxiliary storage section 203, a communication section 204, an input interface 205, an output interface 206, and an imaging section 207 as hardware components.

プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサ201は例えばCPUまたはGPUであり得るが、プロセッサ201の種類はこれらに限定されない。 Processor 201 is a computing device that executes an operating system and application programs. Processor 201 may be, for example, a CPU or a GPU, but the type of processor 201 is not limited thereto.

主記憶部202は、ユーザ端末20を機能させるためのプログラム、プロセッサ201から出力された演算結果などを記憶する装置である。主記憶部202は例えばROMおよびRAMのうちの少なくとも一つにより構成される。 The main storage unit 202 is a device that stores programs for making the user terminal 20 function, calculation results output from the processor 201, and the like. The main storage unit 202 is composed of, for example, at least one of a ROM and a RAM.

補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、コンピュータをユーザ端末20として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。例えば、補助記憶部203は仮想オブジェクトおよび仮想空間のうちの少なくとも一つに関するデータを記憶してもよい。 The auxiliary storage unit 203 is generally a device that can store a larger amount of data than the main storage unit 202. The auxiliary storage unit 203 is configured by a nonvolatile storage medium such as a hard disk or flash memory. The auxiliary storage unit 203 stores a client program P2 and various data for making the computer function as the user terminal 20. For example, the auxiliary storage unit 203 may store data regarding at least one of a virtual object and a virtual space.

通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は例えばネットワークカードまたは無線通信モジュールにより構成される。 The communication unit 204 is a device that performs data communication with other computers via the communication network N. The communication unit 204 is configured by, for example, a network card or a wireless communication module.

入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置である。例えば、入力インタフェース205は、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。キーボードおよび操作ボタンはタッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力されるデータは限定されない。例えば、入力インタフェース205はキーボード、操作ボタン、またはポインティングデバイスによって入力または選択されたデータを受け付けてもよい。あるいは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。あるいは、入力インタフェース205はセンサまたはカメラを用いたモーションキャプチャ機能によって検知されたユーザの非言語行動(例えば、視線、ジェスチャ、表情など)を示すデータをモーションデータとして受け付けてもよい。 The input interface 205 is a device that accepts data based on user operations or actions. For example, the input interface 205 includes at least one of a keyboard, an operation button, a pointing device, a microphone, a sensor, and a camera. The keyboard and operation buttons may be displayed on the touch panel. Corresponding to the fact that the type of input interface 205 is not limited, the input data is not limited. For example, input interface 205 may accept data entered or selected through a keyboard, operating buttons, or pointing device. Alternatively, the input interface 205 may accept audio data input through a microphone. Alternatively, the input interface 205 may accept data indicating the user's nonverbal behavior (eg, gaze, gesture, facial expression, etc.) detected by a motion capture function using a sensor or camera as motion data.

出力インタフェース206は、ユーザ端末20で処理されたデータを出力する装置である。例えば、出力インタフェース206はモニタ、タッチパネル、HMDおよびスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMDなどの表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データで示される音声を出力する。 The output interface 206 is a device that outputs data processed by the user terminal 20. For example, the output interface 206 is configured by at least one of a monitor, a touch panel, an HMD, and a speaker. Display devices such as monitors, touch panels, and HMDs display processed data on screens. The speaker outputs audio indicated by the processed audio data.

撮像部207は、現実世界を映した画像を撮影する装置であり、具体的にはカメラである。撮像部207は動画像(映像)を撮影してもよいし静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は映像信号を所与のフレームレートに基づいて処理することで、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は入力インタフェース205としても機能し得る。 The image capturing unit 207 is a device that captures an image of the real world, and is specifically a camera. The imaging unit 207 may take moving images (videos) or still images (photos). When photographing a moving image, the imaging unit 207 processes a video signal based on a given frame rate to obtain a series of frame images arranged in time series as a moving image. The imaging unit 207 can also function as an input interface 205.

ユーザ端末20の各機能要素は、プロセッサ201または主記憶部202の上にクライアントプログラムP2を読み込ませてそのプログラムを実行させることで実現される。クライアントプログラムP2は、ユーザ端末20の各機能要素を実現するためのコードを含む。プロセッサ201はクライアントプログラムP2に従って通信部204、入力インタフェース205、出力インタフェース206、または撮像部207を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。この処理によりユーザ端末20の各機能要素が実現される。 Each functional element of the user terminal 20 is realized by loading a client program P2 onto the processor 201 or main storage unit 202 and executing the program. The client program P2 includes codes for realizing each functional element of the user terminal 20. The processor 201 operates the communication unit 204, input interface 205, output interface 206, or imaging unit 207 according to the client program P2, and reads and writes data in the main storage unit 202 or the auxiliary storage unit 203. Through this processing, each functional element of the user terminal 20 is realized.

サーバプログラムP1およびクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。 At least one of the server program P1 and the client program P2 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory. Alternatively, at least one of these programs may be provided via a communication network as a data signal superimposed on a carrier wave. These programs may be provided separately or together.

図3はコンテンツ配信システム1に関連する機能構成の一例を示す図である。機能構成については、ユーザ端末20を配信者端末21と視聴者端末22とに区別してその機能構成を説明する。 FIG. 3 is a diagram showing an example of a functional configuration related to the content distribution system 1. Regarding the functional configuration, the functional configuration will be explained by distinguishing the user terminal 20 into a distributor terminal 21 and a viewer terminal 22.

サーバ10は機能要素として受信部11、オブジェクト設定部12、および送信部13を備える。受信部11は、配信者端末21からコンテンツ画像データを受信する機能要素である。オブジェクト設定部12は、コンテンツ画像によって表現される仮想空間内に仮想オブジェクトを配置する機能要素である。送信部13は、仮想オブジェクトが配置された仮想空間を示すコンテンツ画像データを配信者端末21に送信する機能要素である。 The server 10 includes a receiving section 11, an object setting section 12, and a transmitting section 13 as functional elements. The receiving unit 11 is a functional element that receives content image data from the distributor terminal 21. The object setting unit 12 is a functional element that arranges virtual objects in a virtual space represented by content images. The transmitter 13 is a functional element that transmits content image data indicating a virtual space in which virtual objects are placed to the distributor terminal 21.

サーバ10は機能要素としてさらに収集部14を備えてもよい。収集部14は、インターネット上の電子文書を周期的に検索または取得することで、コンテンツ配信システム1で用いられる可能性があるオブジェクトの公称寸法を予め収集する機能要素である。すなわち、収集部14はクローラ(crawler)として機能する。収集部14はオブジェクトを一意に特定する識別子を用いた検索によって公称寸法を取得する。収集の対象となるオブジェクトは現実オブジェクトおよび仮想オブジェクトの少なくとも一方を含み、第1仮想オブジェクトおよび基準オブジェクトの少なくとも一方を含み得る。したがって、取得される公称寸法は第1公称寸法および基準公称寸法の少なくとも一方を含み得る。オブジェクトの識別子の構成は限定されず、例えば識別子はオブジェクトの名称で表されてもよいし、アルファベットおよび数字の少なくとも一方を用いて表されてもよい。収集部14は、収集した公称寸法に関する情報を寸法データとして寸法データベース30に予め格納する。寸法データベース30は補助記憶部103内に構築されてもよいし、サーバ10とは別のコンピュータ上に構築されてもよい。収集部14が必須の構成要素ではないことに対応して、寸法データベース30もコンテンツ配信システム1における必須の要素ではない。 The server 10 may further include a collection unit 14 as a functional element. The collection unit 14 is a functional element that collects in advance the nominal dimensions of objects that may be used in the content distribution system 1 by periodically searching or acquiring electronic documents on the Internet. That is, the collection unit 14 functions as a crawler. The collection unit 14 obtains the nominal dimensions by searching using an identifier that uniquely identifies the object. Objects to be collected include at least one of a real object and a virtual object, and may include at least one of a first virtual object and a reference object. Accordingly, the obtained nominal dimension may include at least one of the first nominal dimension and the reference nominal dimension. The configuration of the object identifier is not limited, and for example, the identifier may be represented by the name of the object, or may be represented using at least one of alphabets and numbers. The collection unit 14 stores the collected information regarding the nominal dimensions in the dimension database 30 in advance as dimension data. The dimension database 30 may be constructed within the auxiliary storage unit 103 or may be constructed on a computer separate from the server 10. Corresponding to the fact that the collection unit 14 is not an essential component, the dimension database 30 is also not an essential component in the content distribution system 1.

寸法データの各レコードはオブジェクトの識別子および公称寸法を含み、寸法種別をさらに含んでもよい。寸法種別は、一つのオブジェクトが複数の寸法を有する場合に用いることができる。架空の怪獣であるゴジラ(登録商標)を例にとると、映画などの作品内で設定されたゴジラ(登録商標)の寸法(例えば50m、118.5m、300mなど)、ゴジラ(登録商標)の演者が着る着ぐるみの寸法(例えば2mなど)などの様々な公称寸法が存在する。寸法種別は、一つのオブジェクトについて複数の公称寸法を関連付けるために用いられる。 Each record of dimension data includes an object identifier and nominal dimensions, and may further include a dimension type. The dimension type can be used when one object has multiple dimensions. Taking the fictional monster Godzilla (registered trademark) as an example, the dimensions of Godzilla (registered trademark) set in movies and other works (for example, 50 m, 118.5 m, 300 m, etc.), and the dimensions of Godzilla (registered trademark) There are various nominal dimensions, such as the dimensions of a costume worn by a performer (for example, 2 meters). The dimension type is used to associate multiple nominal dimensions for one object.

配信者端末21は機能要素として画像処理部211および送信部212を備える。画像処理部211は、撮像部207により撮影された実写画像に基づくコンテンツ画像データを生成する機能要素である。送信部212はそのコンテンツ画像データをサーバ10に送信する機能要素である。 The distributor terminal 21 includes an image processing section 211 and a transmitting section 212 as functional elements. The image processing unit 211 is a functional element that generates content image data based on a real image captured by the imaging unit 207. The transmitter 212 is a functional element that transmits the content image data to the server 10.

視聴者端末22は機能要素として受信部221および表示制御部222を備える。受信部221は、サーバ10からコンテンツ画像データを受信する機能要素である。表示制御部222はそのコンテンツ画像データを処理して、コンテンツ画像を表示装置上に表示する機能要素である。 The viewer terminal 22 includes a receiving section 221 and a display control section 222 as functional elements. The receiving unit 221 is a functional element that receives content image data from the server 10. The display control unit 222 is a functional element that processes the content image data and displays the content image on the display device.

ユーザ端末20は、或る状況では配信者端末21として機能し、別の状況では視聴者端末22として機能してもよい。したがって、ユーザ端末20は配信者端末21および視聴者端末22の双方の機能要素を備えてもよい。 The user terminal 20 may function as a broadcaster terminal 21 in some situations and as a viewer terminal 22 in other situations. Therefore, the user terminal 20 may include functional elements of both the distributor terminal 21 and the viewer terminal 22.

[システムの動作]
図4は実写画像に基づくコンテンツ画像300のいくつかの例を示す図である。実写画像は動画像(映像)を構成する一つのフレーム画像でもよいし、1枚の静止画でもよい。実写画像に対応して、コンテンツ画像300もフレーム画像または静止画であり得る。配信者が屋外で撮影して配信者端末21の撮像部207が実写画像を生成したとする。コンテンツ画像300は、実写画像で表される領域である実写画像領域と、戦士301および巨人302という二つの仮想オブジェクトとを示す。戦士301および巨人302のうちの少なくとも一つはユーザに対応するアバターであってもよい。実写画像領域内には、道路311と複数のビル312という複数の現実オブジェクトが映っている。巨人302の身長(公称寸法)は戦士301の身長(公称寸法)の2倍であるとする。戦士301および巨人302の一方が第1仮想オブジェクトであり、他方が基準オブジェクトであるとする。図4の例(a),(b),(c)のいずれにおいても、戦士301および巨人302は道路311上に立っている。
[System operation]
FIG. 4 is a diagram showing some examples of content images 300 based on real-life images. The live-action image may be one frame image constituting a moving image (video) or one still image. The content image 300 may also be a frame image or a still image, corresponding to a live-action image. Assume that the distributor takes a picture outdoors and the imaging unit 207 of the distributor terminal 21 generates a live-action image. The content image 300 shows a live-action image area, which is an area represented by a live-action image, and two virtual objects, a warrior 301 and a giant 302. At least one of the warrior 301 and the giant 302 may be an avatar corresponding to the user. A plurality of real objects such as a road 311 and a plurality of buildings 312 are shown in the real image area. It is assumed that the height (nominal dimensions) of the giant 302 is twice the height (nominal dimensions) of the warrior 301. It is assumed that one of the warrior 301 and the giant 302 is the first virtual object, and the other is the reference object. In any of the examples (a), (b), and (c) of FIG. 4, the warrior 301 and the giant 302 are standing on the road 311.

コンテンツ配信システム1は戦士301と巨人302との間の身長の相対的関係が1:2であることに基づいて、その相対的関係を維持するように戦士301および巨人302を仮想空間内に配置する。この結果、図4の例(a)のように戦士301と巨人302が横並びになった場合(厳密には、仮想カメラからの距離が戦士301と巨人302とで同じ場合)には、コンテンツ画像300上での巨人302の見かけの長さも戦士301の2倍になる。 Based on the fact that the relative height relationship between the warrior 301 and the giant 302 is 1:2, the content distribution system 1 arranges the warrior 301 and the giant 302 in the virtual space so as to maintain that relative relationship. do. As a result, when the warrior 301 and the giant 302 are lined up side by side as in example (a) in FIG. The apparent length of the giant 302 on the 300 is also twice that of the warrior 301.

図4の例(b)は、コンテンツ画像300が状態(a)であるときに配信者端末21の撮像部207をティルティング(tilting)したことに伴って、仮想カメラがさらに上方に向いた場面を示す。例(b)では、身長が低い戦士301は顔の半分程度しか映っていないが、身長が戦士301の2倍ある巨人302は身体の半分以上が映っている。 Example (b) in FIG. 4 is a scene in which the virtual camera is directed further upward as a result of tilting the imaging unit 207 of the distributor terminal 21 when the content image 300 is in the state (a). shows. In example (b), only about half of the face of the short warrior 301 is shown, but more than half of the body of the giant 302, who is twice the height of the warrior 301, is shown.

図4の例(c)は、巨人302が戦士301よりも奥に位置する場面を示す。これは、仮想空間において巨人302が戦士301よりも仮想カメラから離れていることを意味する。コンテンツ配信システム1は戦士301と巨人302との間の身長の相対的関係が1:2であることに基づいて、その相対的関係を維持するように戦士301および巨人302を仮想空間内に配置する。この場面でも、巨人302は戦士301との公称寸法の相対的関係と、仮想空間上での戦士301との位置関係とを反映して表示される。 Example (c) in FIG. 4 shows a scene where the giant 302 is located further back than the warrior 301. This means that the giant 302 is further away from the virtual camera than the warrior 301 in the virtual space. Based on the fact that the relative height relationship between the warrior 301 and the giant 302 is 1:2, the content distribution system 1 arranges the warrior 301 and the giant 302 in the virtual space so as to maintain that relative relationship. do. In this scene as well, the giant 302 is displayed reflecting the relative relationship of the nominal dimensions with the warrior 301 and the positional relationship with the warrior 301 in the virtual space.

第1仮想オブジェクトが配置される前のコンテンツ画像は、配信者端末21で生成されてもよいし、サーバ10で生成されてもよい。いずれにせよ、サーバ10は、コンテンツ画像内で、第1仮想オブジェクトと基準オブジェクトとの間の公称寸法の相対的関係が維持されるように、仮想空間内に第1仮想オブジェクトを配置する。そして、サーバ10は、第1仮想オブジェクトおよび基準オブジェクトが配置された仮想空間を示すコンテンツ画像を視聴者端末22上に表示させる。基準オブジェクトは、第1仮想オブジェクトを仮想空間内に配置しようとする際に既に仮想空間内に存在してもよいし、第1仮想オブジェクトと同時にまたはその後に仮想空間内に配置されてもよい。 The content image before the first virtual object is placed may be generated by the distributor terminal 21 or by the server 10. In any case, the server 10 positions the first virtual object within the virtual space such that the relative relationship of nominal dimensions between the first virtual object and the reference object is maintained within the content image. Then, the server 10 displays on the viewer terminal 22 a content image showing the virtual space in which the first virtual object and the reference object are arranged. The reference object may already exist in the virtual space when the first virtual object is to be placed in the virtual space, or may be placed in the virtual space at the same time as or after the first virtual object.

コンテンツ配信システム1の動作を説明するとともに、本実施形態に係るコンテンツ配信方法について説明する。図5は、コンテンツ配信システム1の動作を処理フローS1として示すシーケンス図である。以下では、配信者および視聴者がコンテンツ配信システム1にログインしており、配信者が視聴者に向けてコンテンツを配信可能であることを前提とする。また、以下では、画像処理に関して特に説明し、画像と共に配信者端末21から視聴者端末22に送信される音声データに関しては詳細な説明を省略する。 The operation of the content distribution system 1 will be explained, as well as the content distribution method according to this embodiment. FIG. 5 is a sequence diagram showing the operation of the content distribution system 1 as a processing flow S1. In the following, it is assumed that the distributor and the viewer have logged in to the content distribution system 1, and that the distributor can distribute content to the viewer. Further, below, image processing will be particularly explained, and detailed explanation will be omitted regarding audio data transmitted from the distributor terminal 21 to the viewer terminal 22 together with the image.

ステップS11では、配信者端末21が撮像部207を動作させて撮影を実行する。画像処理部211はその撮影により得られた実写画像に基づいてコンテンツ画像データを生成する。コンテンツ画像データの生成方法およびデータ構造は限定されない。例えば、画像処理部211は撮像部207から得られた実写画像をコンテンツ画像データに含めてもよい。あるいは、画像処理部211は、実写画像に映った配信者のモーションデータをコンテンツ画像データに含めてもよい。 In step S11, the distributor terminal 21 operates the imaging unit 207 to perform imaging. The image processing unit 211 generates content image data based on the photographed image obtained by the photographing. The content image data generation method and data structure are not limited. For example, the image processing unit 211 may include the real image obtained from the imaging unit 207 in the content image data. Alternatively, the image processing unit 211 may include motion data of the distributor appearing in the live-action image in the content image data.

あるいは、画像処理部211は仮想オブジェクトに関するデータをコンテンツ画像データの少なくとも一部として設定してもよい。仮想オブジェクトは、実写画像に映った配信者に代わって表示されるアバター(すなわち、配信者に対応するアバター)を含んでもよい。配信者に対応するアバターを設定する場合には、画像処理部211は、実写画像に映った該配信者のモーションデータに基づいて該アバターの動作を設定し、その動作を示すモーションデータをコンテンツ画像データに含めてもよい。 Alternatively, the image processing unit 211 may set data regarding the virtual object as at least part of the content image data. The virtual object may include an avatar displayed in place of the broadcaster in the live-action image (that is, an avatar corresponding to the broadcaster). When setting an avatar corresponding to a broadcaster, the image processing unit 211 sets the motion of the avatar based on the motion data of the broadcaster appearing in the live-action image, and converts the motion data indicating the motion into the content image. May be included in the data.

あるいは、画像処理部211は実写画像に基づいて仮想空間を特定し、その仮想空間に関するデータ(仮想空間データ)をコンテンツ画像データに含めてもよい。仮想空間データは、配信者端末21の位置に対応して設定される仮想カメラの位置を含んでもよい。仮想空間データは、仮想カメラの光軸方向(言い換えると、z方向または奥行き方向)における各オブジェクトの位置に関する情報を含んでもよい。例えば、仮想空間データは、仮想カメラから各オブジェクトまでの距離(すなわち奥行き)を含んでもよい。撮像部207がデプスカメラを用いて構成される場合には、画像処理部211はそのデプスカメラによって測定された実写画像内の各現実オブジェクトまでの距離を取得してもよい。あるいは、画像処理部211は実写画像を機械学習などの手法により解析することで、仮想カメラの光軸方向におけるオブジェクト間の位置関係を算出してもよい。あるいは、画像処理部211は各仮想オブジェクトについて設定された位置または奥行きを取得してもよい。 Alternatively, the image processing unit 211 may identify a virtual space based on the real image, and include data regarding the virtual space (virtual space data) in the content image data. The virtual space data may include the position of a virtual camera set corresponding to the position of the distributor terminal 21. The virtual space data may include information regarding the position of each object in the optical axis direction (in other words, the z direction or the depth direction) of the virtual camera. For example, the virtual space data may include the distance (i.e., depth) from the virtual camera to each object. When the imaging unit 207 is configured using a depth camera, the image processing unit 211 may obtain the distance to each real object in the real image measured by the depth camera. Alternatively, the image processing unit 211 may calculate the positional relationship between objects in the optical axis direction of the virtual camera by analyzing the real image using a method such as machine learning. Alternatively, the image processing unit 211 may acquire the position or depth set for each virtual object.

ステップS12では、画像処理部211が、オブジェクトが配置される位置を指定する。例えば、画像処理部211はその位置に関するユーザ入力を受け付けてもよいし、ライブコンテンツのシナリオに基づいてオブジェクトの位置を指定してもよい。位置が指定されるオブジェクトは限定されない。例えば、画像処理部211は第1仮想オブジェクトの位置を指定してもよいし、他の仮想オブジェクトの位置を指定してもよい。画像処理部211は、指定されたオブジェクトの位置をコンテンツ画像データに含める。 In step S12, the image processing unit 211 specifies the position where the object is placed. For example, the image processing unit 211 may accept user input regarding the position of the object, or may specify the position of the object based on the scenario of the live content. The object whose position is specified is not limited. For example, the image processing unit 211 may specify the position of the first virtual object or may specify the position of another virtual object. The image processing unit 211 includes the position of the specified object in the content image data.

ステップS13では、配信者端末21の送信部212がコンテンツ画像データをサーバ10に送信する。サーバ10では受信部11がそのコンテンツ画像データを受信する。送信部212はコンテンツ画像データに対応する音声データもサーバ10に送信する。 In step S13, the transmitter 212 of the distributor terminal 21 transmits the content image data to the server 10. In the server 10, a receiving unit 11 receives the content image data. The transmitter 212 also transmits audio data corresponding to the content image data to the server 10.

ステップS14では、サーバ10のオブジェクト設定部12が、コンテンツ画像によって表現される仮想空間を特定する。仮想空間の特定は、仮想空間内での仮想カメラ、1以上の現実オブジェクト、および、もしあれば1以上の仮想オブジェクトのそれぞれについて位置を特定する処理と、この段階での各現実オブジェクト(および、もしあれば各仮想オブジェクト)の寸法を特定する処理とを含み得る。配信者端末21から受信したコンテンツ画像データのデータ構造が限定されないことに対応して、仮想空間の特定方法も限定されない。コンテンツ画像データが仮想空間データを含む場合には、オブジェクト設定部12はその仮想空間データに基づいて仮想空間を特定してもよい。仮想空間データが、仮想カメラの光軸方向における各オブジェクトの位置情報を含まない場合には、オブジェクト設定部12はコンテンツ画像データに基づいて、各オブジェクトの位置、またはオブジェクト間の位置関係を算出してもよい。コンテンツ画像データが仮想空間データを含まない場合には、オブジェクト設定部12は実写画像を機械学習などの手法により解析することで仮想空間を特定してもよい。 In step S14, the object setting unit 12 of the server 10 specifies the virtual space represented by the content image. Identifying the virtual space includes the process of identifying the position of a virtual camera, one or more real objects, and one or more virtual objects, if any, in the virtual space, and each real object (and, and specifying the dimensions of each virtual object (if any). Corresponding to the fact that the data structure of the content image data received from the distributor terminal 21 is not limited, the method for specifying the virtual space is also not limited. When the content image data includes virtual space data, the object setting unit 12 may specify the virtual space based on the virtual space data. If the virtual space data does not include position information of each object in the optical axis direction of the virtual camera, the object setting unit 12 calculates the position of each object or the positional relationship between objects based on the content image data. You can. If the content image data does not include virtual space data, the object setting unit 12 may identify the virtual space by analyzing the real image using a method such as machine learning.

ステップS15では、オブジェクト設定部12が第1仮想オブジェクトを取得する。第1仮想オブジェクトの取得方法は限定されない。オブジェクト設定部12は第1仮想オブジェクトを補助記憶部103から読み出してもよい。例えば、オブジェクト設定部12は配信者または視聴者によって指定された第1仮想オブジェクトを読み出してもよいし、ライブコンテンツのシナリオに基づいて第1仮想オブジェクトを読み出してもよい。あるいは、オブジェクト設定部12は配信者端末21または視聴者端末22から第1仮想オブジェクトのデータを受信することで第1仮想オブジェクトを取得してもよい。 In step S15, the object setting unit 12 acquires the first virtual object. The method of acquiring the first virtual object is not limited. The object setting unit 12 may read the first virtual object from the auxiliary storage unit 103. For example, the object setting unit 12 may read the first virtual object specified by the distributor or the viewer, or may read the first virtual object based on the scenario of the live content. Alternatively, the object setting unit 12 may acquire the first virtual object by receiving data of the first virtual object from the distributor terminal 21 or the viewer terminal 22.

第1仮想オブジェクトは任意の物体を表現してよい。第1仮想オブジェクトは、現実世界には存在しない物体(例えば、架空のキャラクタ)を表現してもよいし、現実世界に存在する自然物または人工物(例えば、星、人、動物、植物、飛行機、自動車、建物)などを模したものでもよい。第1仮想オブジェクトは、配信者または参加者に対応するアバターでもよい。 The first virtual object may represent any object. The first virtual object may represent an object that does not exist in the real world (for example, a fictional character), or may represent a natural or artificial object that exists in the real world (for example, a star, a person, an animal, a plant, an airplane, It may also be an imitation of a car, building, etc. The first virtual object may be an avatar corresponding to a broadcaster or a participant.

ステップS16では、オブジェクト設定部12が第1公称寸法を取得する。オブジェクト設定部12は、取得された第1仮想オブジェクトの識別子を用いた検索によって第1公称寸法を取得する。オブジェクト設定部12は第1仮想オブジェクトの各種情報を含むモデルデータを記憶する記憶部を検索することで第1公称寸法を取得してもよい。モデルデータの各レコードはオブジェクトの識別子および公称寸法を含み、寸法種別をさらに含んでもよい。モデルデータを記憶する装置は限定されず、例えば補助記憶部103でもよいし、サーバ10が通信ネットワークNを介してアクセス可能なデータベースでもよい。このデータベースはコンテンツ配信システム1内に設けられてもよいし、コンテンツ配信システム1とは異なるコンピュータシステムに設けられてもよい。あるいは、オブジェクト設定部12は寸法データベース30を検索して、第1仮想オブジェクトの識別子に対応する公称寸法を取得してもよい。第1仮想オブジェクトについて複数の公称寸法が設定されている場合には、オブジェクト設定部12は識別子および寸法種別に合致する第1公称寸法を取得する。寸法種別は、ユーザ(配信者または視聴者)によって設定されてもよいし、ライブコンテンツのシナリオに基づいて設定されてもよい。 In step S16, the object setting unit 12 acquires the first nominal dimension. The object setting unit 12 obtains the first nominal dimensions by searching using the obtained identifier of the first virtual object. The object setting unit 12 may acquire the first nominal dimensions by searching a storage unit that stores model data including various information about the first virtual object. Each record of model data includes an object identifier and nominal dimensions, and may further include a dimension type. The device that stores the model data is not limited, and may be, for example, the auxiliary storage unit 103 or a database that can be accessed by the server 10 via the communication network N. This database may be provided within the content distribution system 1 or may be provided in a computer system different from the content distribution system 1. Alternatively, the object setting unit 12 may search the dimension database 30 to obtain the nominal dimensions corresponding to the identifier of the first virtual object. If a plurality of nominal dimensions are set for the first virtual object, the object setting unit 12 acquires the first nominal dimension that matches the identifier and the dimension type. The size type may be set by the user (distributor or viewer), or may be set based on the scenario of the live content.

ステップS17では、オブジェクト設定部12が基準オブジェクトを選択して基準公称寸法を取得する。基準オブジェクトの選択方法は限定されない。例えば、オブジェクト設定部12は仮想空間内の現実オブジェクト(すなわち、実写画像領域内に映っている現実オブジェクト)を基準オブジェクトして選択してもよい。あるいは、オブジェクト設定部12は仮想空間内に既に配置されている仮想オブジェクト、または仮想空間にこれから配置される仮想オブジェクトを基準オブジェクトして選択してもよい。オブジェクト設定部12は基準オブジェクトを、ユーザ(配信者または視聴者)に基づいて選択してもよいし、ライブコンテンツのシナリオに基づいて選択してもよい。基準オブジェクトは、配信者または参加者に対応するアバターでもよい。オブジェクト設定部12は、選択した基準オブジェクトの公称寸法を基準公称寸法として取得する。オブジェクト設定部12は、第1公称寸法に関して上述した様々な手法のうちの一つを用いて基準公称寸法を取得することができる。 In step S17, the object setting unit 12 selects a reference object and obtains reference nominal dimensions. The method for selecting the reference object is not limited. For example, the object setting unit 12 may select a real object in the virtual space (that is, a real object appearing in the real image area) as the reference object. Alternatively, the object setting unit 12 may select a virtual object that has already been placed in the virtual space or a virtual object that will be placed in the virtual space as the reference object. The object setting unit 12 may select the reference object based on the user (distributor or viewer) or based on the scenario of the live content. The reference object may be an avatar corresponding to a broadcaster or a participant. The object setting unit 12 acquires the nominal dimensions of the selected reference object as the reference nominal dimensions. The object setting unit 12 can obtain the reference nominal dimension using one of the various techniques described above regarding the first nominal dimension.

ステップS18では、オブジェクト設定部12が、第1公称寸法と基準公称寸法との相対的関係を維持するように第1仮想オブジェクトおよび基準オブジェクトを仮想空間に配置する。この処理により、仮想空間内での第1仮想オブジェクトおよび基準オブジェクトのそれぞれの寸法はその相対的関係に拘束される。 In step S18, the object setting unit 12 arranges the first virtual object and the reference object in the virtual space so as to maintain the relative relationship between the first nominal dimension and the reference nominal dimension. Through this process, the respective dimensions of the first virtual object and the reference object in the virtual space are constrained by their relative relationships.

基準オブジェクトが仮想オブジェクトである場合には、オブジェクト設定部12は、仮想空間における第1仮想オブジェクトおよび基準オブジェクトのそれぞれの公称寸法と、仮想空間内の他のオブジェクトの公称寸法との相対的関係を維持しなくてもよい。例えば、仮想空間Vが第1仮想オブジェクト、第2仮想オブジェクトである基準オブジェクト、および別オブジェクト(これは現実オブジェクトでも仮想オブジェクトでもよい。)を含むとする。そして、第1仮想オブジェクト、基準オブジェクト、および別オブジェクトの公称高さがそれぞれ3m、2m、10mであるとする。この場合、オブジェクト設定部12は第1公称寸法と基準公称寸法との相対的関係を維持するので、仮想空間V内での第1仮想オブジェクトと基準オブジェクトとの高さの比は3:2である。しかし、オブジェクト設定部12は、仮想空間V内での第1仮想オブジェクト、基準オブジェクト、および別オブジェクトの比を3:2:10にしなくてもよい。一例として、オブジェクト設定部12は仮想空間V内での第1仮想オブジェクトおよび基準オブジェクトの高さをそれぞれ15m、10mと設定してもよい。この場合には、仮想空間V内での第1仮想オブジェクト、基準オブジェクト、および別オブジェクトの高さの比は3:2:2になる。 When the reference object is a virtual object, the object setting unit 12 determines the relative relationship between the respective nominal dimensions of the first virtual object and the reference object in the virtual space and the nominal dimensions of other objects in the virtual space. Does not need to be maintained. For example, assume that the virtual space V includes a first virtual object, a reference object that is a second virtual object, and another object (this may be a real object or a virtual object). Assume that the first virtual object, the reference object, and the other object have nominal heights of 3 m, 2 m, and 10 m, respectively. In this case, since the object setting unit 12 maintains the relative relationship between the first nominal dimension and the reference nominal dimension, the height ratio between the first virtual object and the reference object in the virtual space V is 3:2. be. However, the object setting unit 12 does not have to set the ratio of the first virtual object, reference object, and other object in the virtual space V to 3:2:10. As an example, the object setting unit 12 may set the heights of the first virtual object and the reference object in the virtual space V to 15 m and 10 m, respectively. In this case, the ratio of the heights of the first virtual object, the reference object, and the other object in the virtual space V is 3:2:2.

基準オブジェクトが仮想オブジェクトである場合には、オブジェクト設定部12は、仮想空間における第1仮想オブジェクトおよび基準オブジェクトのそれぞれの公称寸法と、仮想空間内の他のオブジェクトの公称寸法との相対的関係を維持してもよい。上記の仮想空間Vを例に説明すると、オブジェクト設定部12は第1仮想オブジェクトおよび基準オブジェクトの高さをそれぞれ3m、2mと設定する。したがって、仮想空間V内での第1仮想オブジェクト、基準オブジェクト、および別オブジェクトの高さの比は3:2:10になる。 When the reference object is a virtual object, the object setting unit 12 determines the relative relationship between the respective nominal dimensions of the first virtual object and the reference object in the virtual space and the nominal dimensions of other objects in the virtual space. May be maintained. Taking the above virtual space V as an example, the object setting unit 12 sets the heights of the first virtual object and the reference object to 3 m and 2 m, respectively. Therefore, the ratio of the heights of the first virtual object, the reference object, and the other object in the virtual space V is 3:2:10.

このように、仮想空間において、第1仮想オブジェクトおよび基準オブジェクトのそれぞれの公称寸法と、他のオブジェクトの公称寸法との関係は任意に設定されてよい。また、第1仮想オブジェクトおよび基準オブジェクトの公称寸法を寸法種別に応じて設定することも可能である。したがって、一つの第1仮想オブジェクトを様々な大きさでコンテンツ画面上に映すことができる。例えば、人間の隣に同程度の大きさのゴジラ(登録商標)を配置したり、東京タワーの隣に同程度の大きさのゴジラ(登録商標)を配置したりすることができる。現実オブジェクトの大きさと整合するように人型のアバターの身長を設定することで(すなわち、人間の一般的な身長に合わせてアバターの大きさを設定することで)、現実感のあるコンテンツ画像を提供してもよい。 In this way, in the virtual space, the relationship between the respective nominal dimensions of the first virtual object and the reference object and the nominal dimensions of other objects may be set arbitrarily. Further, it is also possible to set the nominal dimensions of the first virtual object and the reference object according to the dimension type. Therefore, one first virtual object can be displayed in various sizes on the content screen. For example, Godzilla (registered trademark) of the same size can be placed next to a human, or Godzilla (registered trademark) of the same size can be placed next to Tokyo Tower. By setting the height of the humanoid avatar to match the size of the real object (i.e., by setting the avatar's size to match the general height of humans), content images with a realistic feel can be created. May be provided.

オブジェクト設定部12は、第1仮想オブジェクトおよび基準オブジェクトを同じオブジェクト上に接するように位置させてもよい。すなわち、オブジェクト設定部12は第1仮想オブジェクトおよび基準オブジェクトが接地するオブジェクトを合わせてもよい。図4の例(a)~(c)はいずれも、オブジェクト設定部12が戦士301および巨人302を道路311上に位置させることで得られるコンテンツ画像300を示す。第1仮想オブジェクトおよび基準オブジェクトが接地するオブジェクトは平坦でなくてもよく、例えば、坂道のように傾斜していてもよいし、階段のように段状になっていてもよい。 The object setting unit 12 may position the first virtual object and the reference object so that they are in contact with each other on the same object. That is, the object setting unit 12 may match the object on which the first virtual object and the reference object touch the ground. Examples (a) to (c) in FIG. 4 all show content images 300 obtained by the object setting unit 12 positioning a warrior 301 and a giant 302 on a road 311. The object on which the first virtual object and the reference object touch the ground does not have to be flat; for example, it may be sloped like a slope, or it may be stepped like a staircase.

オブジェクト設定部12は第1仮想オブジェクトおよび基準オブジェクトのそれぞれの全体(全身)がコンテンツ画像内に収まるように、これらのオブジェクトのそれぞれについて位置および寸法を設定してもよい。オブジェクト設定部12は、第1仮想オブジェクトおよび基準オブジェクトのそれぞれがアバターである場合にこの処理を実行してもよい。オブジェクト設定部12はすべてのアバター(具体的には、配信者およびすべての参加者のアバター)の全身がコンテンツ画像内に収まるようにそれぞれのアバターの位置および寸法を設定してもよい。もちろんこれらの場合でも、オブジェクト設定部12は第1公称寸法と基準公称寸法との相対的関係を維持する。 The object setting unit 12 may set the position and dimensions of each of the first virtual object and the reference object so that the entirety (whole body) of each of these objects fits within the content image. The object setting unit 12 may perform this process when each of the first virtual object and the reference object is an avatar. The object setting unit 12 may set the positions and dimensions of all avatars (specifically, the avatars of the broadcaster and all participants) so that their entire bodies fit within the content image. Of course, even in these cases, the object setting unit 12 maintains the relative relationship between the first nominal dimension and the reference nominal dimension.

ステップS19では、オブジェクト設定部12が、第1仮想オブジェクトおよび基準オブジェクトが配置された仮想空間を示すコンテンツ画像データを生成する。コンテンツ画像データの生成方法およびデータ構造は限定されない。例えば、オブジェクト設定部12は、実写画像と、各オブジェクトが配置された仮想空間を示す仮想空間データとを含むコンテンツ画像データを生成してもよい。この場合には、コンテンツ画像データは仮想空間における各オブジェクトの位置および寸法を含んでもよい。あるいは、オブジェクト設定部12は、実写画像と仮想空間内の各オブジェクトとに基づくレンダリングを実行することでコンテンツ画像データを生成してもよい。この場合にはコンテンツ画像データはコンテンツ画像そのものを示す。 In step S19, the object setting unit 12 generates content image data indicating a virtual space in which the first virtual object and the reference object are arranged. The content image data generation method and data structure are not limited. For example, the object setting unit 12 may generate content image data including a real image and virtual space data indicating a virtual space in which each object is placed. In this case, the content image data may include the position and dimensions of each object in the virtual space. Alternatively, the object setting unit 12 may generate the content image data by performing rendering based on the real image and each object in the virtual space. In this case, the content image data indicates the content image itself.

ステップS20では、サーバ10の送信部13が、その仮想空間を示すコンテンツ画像データを視聴者端末22に送信する。視聴者端末22では受信部221がそのコンテンツ画像データを受信する。送信部13はコンテンツ画像データに対応する音声データも視聴者端末22に送信する。 In step S20, the transmitter 13 of the server 10 transmits content image data indicating the virtual space to the viewer terminal 22. In the viewer terminal 22, a receiving unit 221 receives the content image data. The transmitter 13 also transmits audio data corresponding to the content image data to the viewer terminal 22.

ステップS21では、視聴者端末22の表示制御部222がそのコンテンツ画像データを処理して、コンテンツ画像を表示装置上に表示する。サーバ10でレンダリングが実行されていない場合には、表示制御部222はコンテンツ画像データに基づくレンダリングを実行することでコンテンツ画像を表示する。コンテンツ画像データがコンテンツ画像そのものを示す場合には、表示制御部222はそのコンテンツ画像をそのまま表示する。視聴者端末22は、コンテンツ画像の表示に合わせて音声をスピーカから出力する。 In step S21, the display control unit 222 of the viewer terminal 22 processes the content image data and displays the content image on the display device. If the server 10 is not performing rendering, the display control unit 222 displays the content image by performing rendering based on the content image data. When the content image data indicates the content image itself, the display control unit 222 displays the content image as it is. The viewer terminal 22 outputs audio from the speaker in accordance with the display of the content image.

複数の視聴者端末22にライブコンテンツを提供する場合には、ステップS20において送信部13がそれぞれの視聴者端末22にコンテンツ画像データを送信し、ステップS21では、それぞれの視聴者端末22で表示制御部222がコンテンツ画像を表示する。コンテンツ画像は複数の視聴者端末22で同じであってもよい。すなわち、仮想空間における仮想カメラの位置が複数の視聴者端末22で同じであってもよい。この場合には、複数の視聴者は同じコンテンツ画像を見ることになる。あるいは、コンテンツ画像は複数の視聴者端末22の少なくとも一部において他の視聴者端末22と異なってもよい。すなわち、仮想カメラの位置が複数の視聴者端末22の少なくとも一部において他の視聴者端末22と異なってもよい。この場合には、ライブコンテンツは複数の視聴者のそれぞれの視点で視聴される。 When providing live content to a plurality of viewer terminals 22, the transmitter 13 transmits content image data to each viewer terminal 22 in step S20, and in step S21, display control is performed on each viewer terminal 22. The section 222 displays the content image. The content image may be the same on multiple viewer terminals 22. That is, the position of the virtual camera in the virtual space may be the same for a plurality of viewer terminals 22. In this case, multiple viewers will view the same content image. Alternatively, the content image may be different in at least some of the plurality of viewer terminals 22 from other viewer terminals 22 . That is, the position of the virtual camera may be different from that of other viewer terminals 22 in at least some of the plurality of viewer terminals 22. In this case, the live content is viewed from the respective viewpoints of a plurality of viewers.

ライブコンテンツなどの動画像の配信では、処理フローS1は繰り返し実行される。当然ながら、撮影が進むにつれて実写画像内での現実オブジェクトは変わり得るし、実写画像内での現実オブジェクトの位置、大きさ、および向きの少なくとも一つも変わり得る。いずれにしても、各コンテンツ画像(すなわち、各フレーム画像)において第1公称寸法と基準公称寸法との相対的関係が維持される。処理フローS1の繰り返しの少なくとも一部においてステップS12が省略されてもよい。 When distributing moving images such as live content, the processing flow S1 is repeatedly executed. Naturally, as the shooting progresses, the real object within the live image may change, and at least one of the position, size, and orientation of the real object within the live image may also change. In any case, the relative relationship between the first nominal dimension and the reference nominal dimension is maintained in each content image (ie, each frame image). Step S12 may be omitted in at least part of the repetition of the processing flow S1.

[マーカの表示]
上述したように、コンテンツ画像内にはユーザに対応するアバターが表示されてもよく、例えば配信者および1以上の参加者のアバターが表示され得る。コンテンツ画像が多くのアバターを含む場合には、配信者または参加者がコンテンツ画像内の自分のアバターを見失う可能性がある。配信者および各参加者が自分のアバターを視認できるように、オブジェクト設定部12は、配信者および参加者のユーザ端末20に表示されるコンテンツ画像データに、ユーザのアバターに関連付けて表示されるマーカの情報を含めてもよい。マーカは、或る一つのアバターを他のアバターと区別させるための表現のことをいう。配信者または参加者のユーザ端末20では、表示制御部222がそのコンテンツ画像データを処理することで、該ユーザ端末20のユーザのアバターに関連付けてマーカを表示する。オブジェクト設定部12は、表示されるコンテンツ画像内に閾値以上のアバターが表示される場合に限って、コンテンツ画像内にマーカを表示させてもよい。閾値は任意に設定されてよく、例えば、10、20などでもよい。マーカを表示する際には、オブジェクト設定部12は、第1公称寸法と基準公称寸法との相対的関係を維持するための処理を実行しなくてもよい。
[Marker display]
As mentioned above, avatars corresponding to users may be displayed within the content image, for example, avatars of the broadcaster and one or more participants may be displayed. If a content image includes many avatars, there is a possibility that a broadcaster or a participant may lose track of his or her avatar within the content image. In order for the broadcaster and each participant to visually recognize their own avatars, the object setting unit 12 adds a marker that is displayed in association with the user's avatar to the content image data displayed on the user terminals 20 of the broadcaster and participants. information may be included. A marker is an expression for distinguishing one avatar from other avatars. In the user terminal 20 of the distributor or participant, the display control unit 222 processes the content image data to display a marker in association with the avatar of the user of the user terminal 20. The object setting unit 12 may display a marker within the content image only when avatars equal to or greater than a threshold are displayed within the displayed content image. The threshold value may be set arbitrarily, for example, 10, 20, etc. When displaying the marker, the object setting unit 12 does not need to perform processing for maintaining the relative relationship between the first nominal dimension and the reference nominal dimension.

図6は、マーカが表されたコンテンツ画像の一例を示す図である。コンテンツ画像400上には配信者および多数の参加者に対応する多数のアバター410が表示され、さらに、一つのアバター410に関連付けられたマーカ420が表示されている。マーカ420が付加されたアバター410に対応するユーザは、そのマーカ420を頼りにコンテンツ画像内の自分のアバター410を操作して、他のアバター410(すなわち、他のユーザ)と交流(例えば、握手、ハイタッチ、抱擁など)することができる。 FIG. 6 is a diagram illustrating an example of a content image in which a marker is displayed. A large number of avatars 410 corresponding to a distributor and a large number of participants are displayed on the content image 400, and a marker 420 associated with one avatar 410 is also displayed. The user corresponding to the avatar 410 to which the marker 420 is attached operates his or her avatar 410 in the content image based on the marker 420, and interacts with other avatars 410 (i.e., other users) (for example, shakes hands). , high fives, hugs, etc.).

[効果]
以上説明したように、本開示の一側面に係るコンテンツ配信システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、実写画像領域を含むコンテンツ画像を取得し、第1仮想オブジェクトの第1公称寸法と、基準オブジェクトの基準公称寸法とを取得し、第1公称寸法と基準公称寸法との相対的関係が維持されるように、コンテンツ画像によって表現される空間内に第1仮想オブジェクトおよび基準オブジェクトを配置し、第1仮想オブジェクトおよび基準オブジェクトが配置された空間を表現するコンテンツ画像をユーザ端末上に表示させる。
[effect]
As described above, the content distribution system according to one aspect of the present disclosure includes at least one processor. At least one processor obtains a content image including a live image region, obtains a first nominal dimension of a first virtual object and a reference nominal dimension of a reference object, and determines a relative relationship between the first nominal dimension and the reference nominal dimension. The first virtual object and the reference object are arranged in the space represented by the content image so that the virtual relationship is maintained, and the content image representing the space in which the first virtual object and the reference object are arranged is displayed on the user terminal. to be displayed.

本開示の一側面に係るコンテンツ配信方法は、少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行される。コンテンツ配信方法は、実写画像領域を含むコンテンツ画像を取得するステップと、第1仮想オブジェクトの第1公称寸法と、基準オブジェクトの基準公称寸法とを取得するステップと、第1公称寸法と基準公称寸法との相対的関係が維持されるように、コンテンツ画像によって表現される空間内に第1仮想オブジェクトおよび基準オブジェクトを配置するステップと、第1仮想オブジェクトおよび基準オブジェクトが配置された空間を表現するコンテンツ画像をユーザ端末上に表示させるステップとを含む。 A content distribution method according to one aspect of the present disclosure is executed by a content distribution system including at least one processor. The content distribution method includes the steps of: acquiring a content image including a live-action image area; acquiring a first nominal dimension of a first virtual object; and a standard nominal dimension of a reference object; arranging the first virtual object and the reference object in the space represented by the content image so that a relative relationship with the content image is maintained; and the content representing the space in which the first virtual object and the reference object are arranged. displaying the image on the user terminal.

本開示の一側面に係るコンテンツ配信プログラムは、実写画像領域を含むコンテンツ画像を取得するステップと、第1仮想オブジェクトの第1公称寸法と、基準オブジェクトの基準公称寸法とを取得するステップと、第1公称寸法と基準公称寸法との相対的関係が維持されるように、コンテンツ画像によって表現される空間内に第1仮想オブジェクトおよび基準オブジェクトを配置するステップと、第1仮想オブジェクトおよび基準オブジェクトが配置された空間を表現するコンテンツ画像をユーザ端末上に表示させるステップとをコンピュータに実行させる。 A content distribution program according to one aspect of the present disclosure includes the steps of: acquiring a content image including a live-action image area; acquiring a first nominal dimension of a first virtual object; and a standard nominal dimension of a reference object; arranging the first virtual object and the reference object in a space represented by the content image such that a relative relationship between the first nominal dimension and the reference nominal dimension is maintained; and the first virtual object and the reference object are arranged. and displaying a content image representing the space on the user terminal.

このような側面においては、第1仮想オブジェクトと基準オブジェクトとの間の公称寸法の関係がコンテンツ画像上に反映されるので、第1仮想オブジェクトをユーザに違和感なく見せることができる。言い換えると、第1仮想オブジェクトの大きさをその公称寸法に従ってリアルにユーザに見せることができる。その結果、コンテンツ画像の魅力をより高めることが可能になる。 In this aspect, since the relationship of nominal dimensions between the first virtual object and the reference object is reflected on the content image, the first virtual object can be presented to the user without any discomfort. In other words, the size of the first virtual object can be realistically shown to the user according to its nominal dimensions. As a result, it becomes possible to further enhance the appeal of the content image.

上記の特許文献1には、50×30画素などのような、仮想オブジェクトの外接矩形サイズを取得し、その外接矩形の領域に対して画素のスコアを計算し、そのスコアに基づいて仮想オブジェクトを重畳することが記載されている。 In the above-mentioned Patent Document 1, the size of a circumscribed rectangle of a virtual object, such as 50 x 30 pixels, is obtained, a pixel score is calculated for the area of the circumscribed rectangle, and the virtual object is determined based on the score. It is stated that they overlap.

しかし、この技術は画素で示される寸法を考慮するものであって、オブジェクトの公称寸法を用いていない。したがって、特許文献1の技術は、第1仮想オブジェクトの第1公称寸法と、基準オブジェクトの基準公称寸法との相対的関係が維持されるように、空間内に第1仮想オブジェクトおよび基準オブジェクトを配置する処理を実行しない。 However, this technique considers dimensions in pixels and does not use the nominal dimensions of the object. Therefore, the technique of Patent Document 1 arranges the first virtual object and the reference object in space so that the relative relationship between the first nominal dimension of the first virtual object and the reference nominal dimension of the reference object is maintained. Do not perform the processing to do so.

これに対して、本開示の上記側面においては、第1公称寸法と基準公称寸法との相対的関係が維持されるように、第1仮想オブジェクトおよび基準オブジェクトが空間内に配置される。したがって、実写画像と仮想オブジェクトとを含むコンテンツ画像において、該仮想オブジェクトをユーザに違和感なく見せることができる。 In contrast, in the above aspect of the present disclosure, the first virtual object and the reference object are arranged in space so that the relative relationship between the first nominal dimension and the reference nominal dimension is maintained. Therefore, in a content image that includes a real image and a virtual object, the virtual object can be shown to the user without any discomfort.

他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサが、第1仮想オブジェクトおよび基準オブジェクトのそれぞれの全体がコンテンツ画像内に収まるように、空間内に第1仮想オブジェクトおよび基準オブジェクトを配置してもよい。これらのオブジェクトの全体(全身)をコンテンツ画像上に映すことで、コンテンツ画像の視覚効果を高めることができる。 In a content distribution system according to another aspect, at least one processor positions the first virtual object and the reference object in space such that each of the first virtual object and the reference object is entirely contained within the content image. Good too. By projecting the entirety (whole body) of these objects on the content image, the visual effect of the content image can be enhanced.

他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサが、第1仮想オブジェクトおよび基準オブジェクトが同じオブジェクト上に接するように、空間内に第1仮想オブジェクトおよび基準オブジェクトを配置してもよい。これらの2オブジェクトが接地するオブジェクトを合わせることで、コンテンツ画像の視覚効果を高めることができる。 In a content distribution system according to another aspect, at least one processor may arrange the first virtual object and the reference object in space such that the first virtual object and the reference object touch on the same object. By matching the objects that these two objects touch with the ground, the visual effect of the content image can be enhanced.

他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサが、第1仮想オブジェクトおよび基準オブジェクトのうちの少なくとも一つのオブジェクトについて複数の公称寸法を記憶するデータベースを参照し、第1仮想オブジェクトについて複数の公称寸法が存在する場合には、該複数の公称寸法のうちの一つの公称寸法を第1公称寸法として取得し、基準オブジェクトについて複数の公称寸法が存在する場合には、該複数の公称寸法のうちの一つの公称寸法を基準公称寸法として取得してもよい。或るオブジェクトについて複数の公称寸法を用意し、その複数の候補の中から一つの公称寸法を選択することで、該オブジェクトを様々な大きさでコンテンツ画像上に映すことができる。 In a content distribution system according to another aspect, at least one processor references a database storing a plurality of nominal dimensions for at least one of the first virtual object and a reference object, and includes a plurality of nominal dimensions for the first virtual object. If there are nominal dimensions, one of the plurality of nominal dimensions is acquired as the first nominal dimension, and if there are multiple nominal dimensions for the reference object, one of the plurality of nominal dimensions is obtained. One of the nominal dimensions may be acquired as the reference nominal dimension. By preparing a plurality of nominal dimensions for an object and selecting one nominal dimension from among the plurality of candidates, the object can be displayed in various sizes on the content image.

他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサが、インターネット上の電子文書から、第1公称寸法および基準公称寸法のうちの少なくとも一つの公称寸法を予め収集して、該少なくとも一つの公称寸法をデータベースに予め格納し、コンテンツ画像の取得に応答して、第1公称寸法および基準公称寸法のうちの少なくとも一つをデータベースから取得してもよい。この仕組みによって公称寸法が自動的に収集されるので、人手に頼ることなく公称寸法を短時間で蓄積することができる。 In the content distribution system according to another aspect, at least one processor collects in advance at least one nominal dimension of a first nominal dimension and a reference nominal dimension from electronic documents on the Internet, and The dimensions may be prestored in a database, and at least one of the first nominal dimension and the reference nominal dimension may be obtained from the database in response to obtaining the content image. Since nominal dimensions are automatically collected through this mechanism, nominal dimensions can be accumulated in a short time without relying on human intervention.

他の側面に係るコンテンツ配信システムでは、コンテンツ画像が、配信者端末から複数の視聴者端末にリアルタイムに配信されるライブコンテンツの画像であり、第1仮想オブジェクトが、配信者に対応するアバターであってもよい。配信者に対応するアバターと基準オブジェクトとの間の公称寸法の関係がコンテンツ画像上に反映されるので、そのアバターをユーザに違和感なく見せることができる。その結果、ライブコンテンツの魅力をさらに高めることができる。 In the content distribution system according to another aspect, the content image is an image of live content distributed from a distributor terminal to a plurality of viewer terminals in real time, and the first virtual object is an avatar corresponding to the distributor. It's okay. Since the relationship of nominal dimensions between the avatar corresponding to the distributor and the reference object is reflected on the content image, the avatar can be shown to the user without any discomfort. As a result, the appeal of live content can be further enhanced.

他の側面に係るコンテンツ配信システムでは、基準オブジェクトが、配信者とは異なる参加者に対応するアバターであってもよい。配信者および参加者のアバター間の公称寸法の関係がコンテンツ画像上に反映されるので、これらのアバターをユーザに違和感なく見せることができる。その結果、ライブコンテンツの魅力をさらに高めることができる。 In the content distribution system according to another aspect, the reference object may be an avatar corresponding to a participant different from the distributor. Since the relationship of nominal dimensions between the avatars of the distributor and the participants is reflected on the content image, these avatars can be shown to the user without any discomfort. As a result, the appeal of live content can be further enhanced.

[変形例]
以上、本開示の実施形態に基づいて詳細に説明した。しかし、本開示は上記実施形態に限定されるものではない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
[Modified example]
The detailed description has been made above based on the embodiments of the present disclosure. However, the present disclosure is not limited to the above embodiments. The present disclosure can be modified in various ways without departing from the gist thereof.

上記実施形態ではコンテンツ配信システム1がサーバ10を用いて構成されたが、コンテンツ配信システムは、サーバ10を用いないユーザ端末間の直接配信に適用されてもよい。この場合には、サーバ10の各機能要素は、いずれかのユーザ端末に実装されてもよく、複数のユーザ端末に分かれて実装されてもよい。これに関連して、コンテンツ配信プログラムはクライアントプログラムとして実現されてもよい。コンテンツ配信システムはサーバを用いて構成されてもよいし、サーバを用いることなく構成されてもよい。 Although the content distribution system 1 is configured using the server 10 in the above embodiment, the content distribution system may be applied to direct distribution between user terminals without using the server 10. In this case, each functional element of the server 10 may be implemented on any user terminal, or may be implemented separately on a plurality of user terminals. In this regard, the content distribution program may be implemented as a client program. The content distribution system may be configured using a server or may be configured without using a server.

本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念である。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念である。 In this disclosure, the expression "at least one processor executes a first process, executes a second process, ... executes an n-th process" or an expression corresponding to this This concept includes a case where the executing entity (that is, the processor) of n processes from the first process to the nth process changes midway. That is, this expression is a concept that includes both a case in which all of the n processes are executed by the same processor, and a case in which the processors in the n processes are changed according to an arbitrary policy.

少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing steps of the method executed by at least one processor are not limited to the examples in the above embodiments. For example, some of the steps (processes) described above may be omitted, or each step may be executed in a different order. Furthermore, any two or more of the steps described above may be combined, or some of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.

1…コンテンツ配信システム、10…サーバ、11…受信部、12…オブジェクト設定部、13…送信部、14…収集部、20…ユーザ端末、21…配信者端末、211…画像処理部、212…送信部、22…視聴者端末、221…受信部、222…表示制御部、30…寸法データベース、300…コンテンツ画像、301…戦士、302…巨人、311…道路、312…ビル、400…コンテンツ画像、410…アバター、420…マーカ、P1…サーバプログラム、P2…クライアントプログラム。 DESCRIPTION OF SYMBOLS 1... Content distribution system, 10... Server, 11... Receiving unit, 12... Object setting unit, 13... Transmitting unit, 14... Collection unit, 20... User terminal, 21... Distributor terminal, 211... Image processing unit, 212... Transmitting unit, 22...Viewer terminal, 221...Receiving unit, 222...Display control unit, 30...Dimension database, 300...Content image, 301...Warrior, 302...Giant, 311...Road, 312...Building, 400...Content image , 410...Avatar, 420...Marker, P1...Server program, P2...Client program.

Claims (7)

少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
配信者端末から複数の視聴者端末にリアルタイムに配信されるライブコンテンツの画像であって、かつ実写画像領域を含むコンテンツ画像を取得し、
配信者に対応するアバターである第1仮想オブジェクトの属性から、該第1仮想オブジェクトの第1公称寸法を予め収集し、
基準オブジェクトの基準公称寸法を取得し、
前記第1公称寸法と前記基準公称寸法との間の大小関係が維持されるように、前記コンテンツ画像によって表現される空間内に前記第1仮想オブジェクトおよび前記基準オブジェクトを配置し、
前記第1仮想オブジェクトおよび前記基準オブジェクトが配置された前記空間を表現する前記コンテンツ画像をユーザ端末上に表示させる、
コンテンツ配信システム。
comprising at least one processor;
the at least one processor,
Obtaining a content image that is an image of live content that is distributed in real time from a distributor terminal to multiple viewer terminals and that includes a live-action image area,
Collecting in advance a first nominal dimension of the first virtual object from the attributes of the first virtual object that is an avatar corresponding to the broadcaster,
Get the reference nominal dimensions of the reference object,
arranging the first virtual object and the reference object in a space represented by the content image so that a size relationship between the first nominal dimension and the reference nominal dimension is maintained;
displaying the content image representing the space in which the first virtual object and the reference object are arranged on a user terminal;
Content distribution system.
前記基準オブジェクトが第2仮想オブジェクトであり、
前記少なくとも一つのプロセッサが、前記第1仮想オブジェクトおよび前記基準オブジェクトのそれぞれの全体が前記コンテンツ画像内に収まるように、前記空間内に前記第1仮想オブジェクトおよび前記基準オブジェクトを配置する、
請求項1に記載のコンテンツ配信システム。
the reference object is a second virtual object,
the at least one processor positions the first virtual object and the reference object in the space such that each of the first virtual object and the reference object is entirely contained within the content image;
The content distribution system according to claim 1.
前記少なくとも一つのプロセッサが、前記第1仮想オブジェクトおよび前記基準オブジェクトが同じオブジェクト上に接するように、前記空間内に前記第1仮想オブジェクトおよび前記基準オブジェクトを配置する、
請求項1または2に記載のコンテンツ配信システム。
the at least one processor positions the first virtual object and the reference object in the space such that the first virtual object and the reference object touch on the same object;
The content distribution system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、
前記第1仮想オブジェクトおよび前記基準オブジェクトのうちの少なくとも一つのオブジェクトについて複数の公称寸法を記憶するデータベースを参照し、
前記第1仮想オブジェクトについて前記複数の公称寸法が存在する場合には、該複数の公称寸法のうちの一つの公称寸法を前記第1公称寸法として取得し、
前記基準オブジェクトについて前記複数の公称寸法が存在する場合には、該複数の公称寸法のうちの一つの公称寸法を前記基準公称寸法として取得する、
請求項1~3のいずれか一項に記載のコンテンツ配信システム。
the at least one processor,
with reference to a database storing a plurality of nominal dimensions for at least one of the first virtual object and the reference object;
If the plurality of nominal dimensions exist for the first virtual object, one of the plurality of nominal dimensions is obtained as the first nominal dimension;
If the plurality of nominal dimensions exist for the reference object, one of the plurality of nominal dimensions is obtained as the reference nominal dimension;
The content distribution system according to any one of claims 1 to 3.
前記基準オブジェクトが、配信者とは異なる参加者に対応するアバターである、
請求項1~4のいずれか一項に記載のコンテンツ配信システム。
the reference object is an avatar corresponding to a participant different from the broadcaster;
The content distribution system according to any one of claims 1 to 4.
少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行されるコンテンツ配信方法であって、
配信者端末から複数の視聴者端末にリアルタイムに配信されるライブコンテンツの画像であって、かつ実写画像領域を含むコンテンツ画像を取得するステップと、
配信者に対応するアバターである第1仮想オブジェクトの属性から、該第1仮想オブジェクトの第1公称寸法を予め収集するステップと、
基準オブジェクトの基準公称寸法を取得するステップと、
前記第1公称寸法と前記基準公称寸法との間の大小関係が維持されるように、前記コンテンツ画像によって表現される空間内に前記第1仮想オブジェクトおよび前記基準オブジェクトを配置するステップと、
前記第1仮想オブジェクトおよび前記基準オブジェクトが配置された前記空間を表現する前記コンテンツ画像をユーザ端末上に表示させるステップと
を含むコンテンツ配信方法。
A content distribution method performed by a content distribution system comprising at least one processor, the method comprising:
acquiring a content image that is an image of live content that is distributed in real time from a distributor terminal to a plurality of viewer terminals and that includes a live-action image area;
collecting in advance a first nominal dimension of the first virtual object, which is an avatar corresponding to the broadcaster, from attributes of the first virtual object;
obtaining reference nominal dimensions of the reference object;
arranging the first virtual object and the reference object in a space represented by the content image so that a size relationship between the first nominal dimension and the reference nominal dimension is maintained;
A content distribution method comprising the step of displaying the content image representing the space in which the first virtual object and the reference object are arranged on a user terminal.
配信者端末から複数の視聴者端末にリアルタイムに配信されるライブコンテンツの画像であって、かつ実写画像領域を含むコンテンツ画像を取得するステップと、
配信者に対応するアバターである第1仮想オブジェクトの属性から、該第1仮想オブジェクトの第1公称寸法を予め収集するステップと、
基準オブジェクトの基準公称寸法を取得するステップと、
前記第1公称寸法と前記基準公称寸法との間の大小関係が維持されるように、前記コンテンツ画像によって表現される空間内に前記第1仮想オブジェクトおよび前記基準オブジェクトを配置するステップと、
前記第1仮想オブジェクトおよび前記基準オブジェクトが配置された前記空間を表現する前記コンテンツ画像をユーザ端末上に表示させるステップと
をコンピュータに実行させるコンテンツ配信プログラム。
acquiring a content image that is an image of live content that is distributed in real time from a distributor terminal to a plurality of viewer terminals and that includes a live-action image area;
collecting in advance a first nominal dimension of the first virtual object, which is an avatar corresponding to the broadcaster, from attributes of the first virtual object;
obtaining reference nominal dimensions of the reference object;
arranging the first virtual object and the reference object in a space represented by the content image so that a size relationship between the first nominal dimension and the reference nominal dimension is maintained;
A content distribution program that causes a computer to execute the step of displaying the content image representing the space in which the first virtual object and the reference object are arranged on a user terminal.
JP2019193351A 2019-03-28 2019-10-24 Content distribution system, content distribution method, and content distribution program Active JP7344084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019193351A JP7344084B2 (en) 2019-03-28 2019-10-24 Content distribution system, content distribution method, and content distribution program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019062517A JP6609078B1 (en) 2019-03-28 2019-03-28 Content distribution system, content distribution method, and content distribution program
JP2019193351A JP7344084B2 (en) 2019-03-28 2019-10-24 Content distribution system, content distribution method, and content distribution program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019062517A Division JP6609078B1 (en) 2019-03-28 2019-03-28 Content distribution system, content distribution method, and content distribution program

Publications (3)

Publication Number Publication Date
JP2020167661A JP2020167661A (en) 2020-10-08
JP2020167661A5 JP2020167661A5 (en) 2022-07-01
JP7344084B2 true JP7344084B2 (en) 2023-09-13

Family

ID=87934812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019193351A Active JP7344084B2 (en) 2019-03-28 2019-10-24 Content distribution system, content distribution method, and content distribution program

Country Status (1)

Country Link
JP (1) JP7344084B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128815A (en) 2017-02-08 2018-08-16 ソフトバンク株式会社 Information presentation system, information presentation method and information presentation program
JP2018142090A (en) 2017-02-27 2018-09-13 Kddi株式会社 Character image generating device, character image generating method, program, recording medium and character image generating system
JP2019009752A (en) 2017-06-20 2019-01-17 一般社団法人 日本画像認識協会 Image processing device
JP6470859B1 (en) 2018-03-08 2019-02-13 株式会社コロプラ Program for reflecting user movement on avatar, information processing apparatus for executing the program, and method for distributing video including avatar
JP2019047366A (en) 2017-09-04 2019-03-22 株式会社ドワンゴ Content delivery server, content delivery method and content delivery program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128815A (en) 2017-02-08 2018-08-16 ソフトバンク株式会社 Information presentation system, information presentation method and information presentation program
JP2018142090A (en) 2017-02-27 2018-09-13 Kddi株式会社 Character image generating device, character image generating method, program, recording medium and character image generating system
JP2019009752A (en) 2017-06-20 2019-01-17 一般社団法人 日本画像認識協会 Image processing device
JP2019047366A (en) 2017-09-04 2019-03-22 株式会社ドワンゴ Content delivery server, content delivery method and content delivery program
JP6470859B1 (en) 2018-03-08 2019-02-13 株式会社コロプラ Program for reflecting user movement on avatar, information processing apparatus for executing the program, and method for distributing video including avatar

Also Published As

Publication number Publication date
JP2020167661A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
CN111862348B (en) Video display method, video generation method, device, equipment and storage medium
WO2016014233A1 (en) Real-time immersive mediated reality experiences
JPWO2016009865A1 (en) Information processing apparatus and method, display control apparatus and method, playback apparatus and method, program, and information processing system
CN110602517A (en) Live broadcast method, device and system based on virtual environment
CN111970532A (en) Video playing method, device and equipment
JP7512488B2 (en) Image processing device, image processing method, and image processing system
JP7202935B2 (en) Attention level calculation device, attention level calculation method, and attention level calculation program
CN114615513A (en) Video data generation method and device, electronic equipment and storage medium
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
WO2021065928A1 (en) Content distribution system, content distribution method, and content distribution program
JP7496558B2 (en) Computer program, server device, terminal device, and method
JP6559375B1 (en) Content distribution system, content distribution method, and content distribution program
US20240153226A1 (en) Information processing apparatus, information processing method, and program
CN116964544A (en) Information processing device, information processing terminal, information processing method, and program
KR20180080012A (en) The apparatus and method of musical contents creation and sharing system using social network service
KR20190031220A (en) System and method for providing virtual reality content
JP7344084B2 (en) Content distribution system, content distribution method, and content distribution program
CN109005441B (en) Virtual competition completion scene playing method and device, terminal and server
CN116233513A (en) Virtual gift special effect playing processing method, device and equipment in virtual reality live broadcasting room
CN114915735A (en) Video data processing method
CN110166825B (en) Video data processing method and device and video playing method and device
CN113887354A (en) Image recognition method and device, electronic equipment and storage medium
JP7548785B2 (en) Content distribution system, content distribution method, and content distribution program
JP2021057017A (en) Content distribution system, content distribution method and content distribution program
JP2020167654A (en) Content distribution system, content distribution method, and content distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230901

R150 Certificate of patent or registration of utility model

Ref document number: 7344084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150