[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023097056A - Event management server system and content image control method - Google Patents

Event management server system and content image control method Download PDF

Info

Publication number
JP2023097056A
JP2023097056A JP2021213191A JP2021213191A JP2023097056A JP 2023097056 A JP2023097056 A JP 2023097056A JP 2021213191 A JP2021213191 A JP 2021213191A JP 2021213191 A JP2021213191 A JP 2021213191A JP 2023097056 A JP2023097056 A JP 2023097056A
Authority
JP
Japan
Prior art keywords
image
content image
event
user
management server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021213191A
Other languages
Japanese (ja)
Inventor
瞳 佐藤
Hitomi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Mobile Inc
Original Assignee
Rakuten Mobile Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Mobile Inc filed Critical Rakuten Mobile Inc
Priority to JP2021213191A priority Critical patent/JP2023097056A/en
Publication of JP2023097056A publication Critical patent/JP2023097056A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an event management server system for enabling an event visitor to easily use an appropriate service through a portable terminal, and a content image control method to be achieved by the event management server system.SOLUTION: In an event management server system 1, when portable terminals 12a to c are held over a scene at an event site by users visiting the event, their picked-up images are acquired and displayed as a real time video. An event management server 10 acquires the picked-up images from the portable terminals 12a to c and acquires characteristics of the users by collating the picked-up images with registration data. Then, when a player to watch is determined to have left the users by more than a threshold value, an enlarged image of the player is superimposedly displayed on the portable terminals 12a to c.SELECTED DRAWING: Figure 1

Description

本発明は、スポーツ競技などのイベント会場において、携帯端末を介してサービスを提供するイベント管理サーバシステム、および、それにより実現されるコンテンツ画像制御方法に関する。 The present invention relates to an event management server system that provides services via mobile terminals at event venues such as sports competitions, and a content image control method realized thereby.

イベント会場や観光施設などにおいて、来場者が保持する携帯端末を介して様々な情報を提供することにより利便性を高める技術が実用化されている。例えば競技場におけるトイレの空き状況や飲食物を販売する売り子の位置を、来場者のスマートフォンに通知する技術が提案されている(例えば特許文献1参照)。また野球の試合観戦中、シースルーディスプレイなどを用いて、着目選手についての補助情報を表示させる技術が提案されている(例えば特許文献2参照)。一方、競技場で催される試合の様子を複数の視点で撮影しておき、クライアントからの要求に対応する視点からの映像を配信する技術が提案されている(例えば特許文献3参照)。 At event venues, tourist facilities, and the like, technologies that improve convenience by providing various types of information via mobile terminals held by visitors have been put to practical use. For example, there has been proposed a technique for notifying the smartphones of visitors of the availability of restrooms in a stadium and the locations of vendors who sell food and drinks (see, for example, Patent Document 1). Also, a technique has been proposed in which auxiliary information about a player of interest is displayed using a see-through display or the like while watching a baseball game (see, for example, Patent Document 2). On the other hand, a technology has been proposed in which a match being held at a stadium is captured from multiple viewpoints and images from viewpoints corresponding to requests from clients are distributed (see, for example, Patent Document 3).

特開2018-142080号公報Japanese Unexamined Patent Application Publication No. 2018-142080 特表2019-531538号公報Japanese Patent Publication No. 2019-531538 特開2019-68130号公報JP 2019-68130 A

イベントの来場者が携帯端末を用いて利用できる上記のようなサービスは、付加的な情報を一方的に提示するような、比較的単純なものが多い。そのためスポーツ競技や音楽フェスティバルなど、観客の興味が実空間でのパフォーマンスに集中しがちなイベントでは特に、あえて端末を見たり操作したりしようと思える機会が少なく、サービスを有効利用できる場面が限られていた。 Most of the above-mentioned services that can be used by event visitors using mobile terminals are relatively simple, such as one-sided presentation of additional information. For this reason, especially at events such as sports competitions and music festivals where the audience's interest tends to focus on performances in the real space, there are few opportunities to dare to look at and operate the terminal, and the situations where the service can be used effectively are limited. was

本発明はこうした課題に鑑みてなされたものであり、その目的は、イベント来場者が携帯端末を介して、適切なサービスを容易に利用できるようにする技術を提供することにある。 The present invention has been made in view of these problems, and its object is to provide a technology that enables event visitors to easily use appropriate services via mobile terminals.

本発明のある態様はイベント管理サーバシステムに関する。このイベント管理サーバシステムは、イベントの会場に来場したユーザが保持する端末による撮影画像のデータを取得する端末情報取得部と、登録データと撮影画像とを照合することによりユーザの特性を取得し、当該特性に応じて、端末に表示すべきコンテンツ画像を選択するコンテンツ画像制御部と、選択されたコンテンツ画像のデータを端末に送信し表示させる画像データ送信部と、を備えたことを特徴とする。 One aspect of the present invention relates to an event management server system. This event management server system includes a terminal information acquisition unit that acquires data of an image captured by a terminal held by a user who has visited the venue of the event, and acquires characteristics of the user by comparing registered data with the captured image, A content image control unit that selects a content image to be displayed on a terminal in accordance with the characteristics, and an image data transmission unit that transmits data of the selected content image to the terminal for display. .

本発明の別の態様はコンテンツ画像制御方法に関する。このコンテンツ画像制御方法は、イベントの会場に来場したユーザが保持する端末による撮影画像のデータを取得するステップと、登録データと撮影画像とを照合することによりユーザの特性を取得し、当該特性に応じて、端末に表示すべきコンテンツ画像を選択するステップと、選択されたコンテンツ画像のデータを端末に送信し表示させるステップと、を含むことを特徴とする。 Another aspect of the present invention relates to a content image control method. This content image control method comprises steps of acquiring data of an image captured by a terminal held by a user who has visited the venue of the event; Accordingly, the method comprises the steps of selecting a content image to be displayed on the terminal, and transmitting data of the selected content image to the terminal for display.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and any conversion of the expression of the present invention between a method, an apparatus, a system, a computer program, a recording medium recording a computer program, and the like are also effective as aspects of the present invention. .

本発明によると、イベント来場者が携帯端末を介して、適切なサービスを容易に利用できるようになる。 According to the present invention, event visitors can easily use appropriate services via mobile terminals.

本実施の形態を適用できるイベント管理システムの構成を示す図である。It is a figure which shows the structure of the event management system which can apply this Embodiment. 本実施の形態において携帯端末が表示する画面を例示する図である。FIG. 3 is a diagram illustrating a screen displayed by a mobile terminal in the embodiment; FIG. 本実施の形態においてコンテンツ画像により商品販売を促進する際の、携帯端末の画面を例示する図である。FIG. 10 is a diagram illustrating a screen of a mobile terminal when promoting product sales with a content image in the present embodiment; 本実施の形態においてコンテンツ画像によりイベントの娯楽性を向上させる際の、携帯端末の画面を例示する図である。FIG. 10 is a diagram illustrating a screen of a mobile terminal when enhancing entertainment of an event with a content image in the present embodiment; 本実施の形態におけるイベント管理サーバの内部回路構成を示す図である。3 is a diagram showing an internal circuit configuration of an event management server according to this embodiment; FIG. 本実施の形態における携帯端末の内部回路構成を示す図である。1 is a diagram showing an internal circuit configuration of a mobile terminal according to this embodiment; FIG. 本実施の形態におけるイベント管理サーバの機能ブロックの構成を示す図である。3 is a diagram showing the configuration of functional blocks of an event management server according to this embodiment; FIG. 本実施の形態における携帯端末の機能ブロックの構成を示す図である。3 is a diagram showing the configuration of functional blocks of the mobile terminal according to the present embodiment; FIG. 本実施の形態のイベント管理サーバにおいてコンテンツ画像制御部の照合部が行う照合処理の例を説明するための図である。FIG. 7 is a diagram for explaining an example of matching processing performed by a matching unit of a content image control unit in the event management server according to the embodiment; 本実施の形態においてイベント管理サーバのコンテンツ画像制御部が、携帯端末に表示させるコンテンツ画像の例を説明するための図である。FIG. 4 is a diagram for explaining an example of a content image displayed on a mobile terminal by a content image control unit of an event management server in the present embodiment; 本実施の形態においてイベント管理サーバのコンテンツ画像制御部が、携帯端末に表示させるコンテンツ画像の別の例を説明するための図である。FIG. 10 is a diagram for explaining another example of a content image displayed on a mobile terminal by the content image control unit of the event management server in the present embodiment; 本実施の形態においてイベント管理サーバのコンテンツ画像制御部が、携帯端末に表示させるコンテンツ画像の種類と表示契機の設定例を示す図である。FIG. 10 is a diagram showing an example of settings of types of content images and display triggers to be displayed on the mobile terminal by the content image control unit of the event management server in the present embodiment; 本実施の形態においてイベント管理サーバが、携帯端末に表示させるコンテンツ画像を選択し、送信する処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure in which an event management server selects and transmits a content image to be displayed on a mobile terminal in this embodiment.

本実施の形態は、イベント会場において、携帯端末を介して来場者へのサービスを提供するシステムに関する。ここでイベントとは、複数の人が会場に赴き催しを見物したり体験したりするものであればよく、例えばスポーツ競技、音楽フェスティバル、コンサート、ショーなど、催しの内容、規模、会場の種類は特に限定されない。図1は、本実施の形態を適用できるイベント管理システムの構成を示している。イベント管理システム1は、イベント管理サーバ10、携帯端末12a~12e、仮想店舗管理サーバ14、および実店舗管理サーバ16を含む。 This embodiment relates to a system for providing services to visitors via mobile terminals at an event site. Here, an event may be anything that a plurality of people go to a venue to see and experience, such as a sports competition, music festival, concert, or show. It is not particularly limited. FIG. 1 shows the configuration of an event management system to which this embodiment can be applied. The event management system 1 includes an event management server 10, mobile terminals 12a to 12e, a virtual store management server 14, and a physical store management server 16. FIG.

携帯端末12a~12eは、イベントの来場者(以後、「ユーザ」と呼ぶ)が携帯する端末であり、イベントに係る様々な情報を表示させたり、ユーザ操作を受け付けたりする。図1では携帯端末12a、12b、12cを高機能携帯電話(スマートフォン)、携帯端末12d、12eをAR(拡張現実:Augmented Reality)グラスなどのウェアラブル端末としている。このように携帯端末12a~12eは、ディスプレイ、通信機能を含む情報処理装置、入力装置を備えた一般的な端末であれば、その形態は限定されない。以後、携帯端末12a~12eを、単に「携帯端末12」とする。 The mobile terminals 12a to 12e are terminals carried by event attendees (hereinafter referred to as "users"), and display various information related to the event and receive user operations. In FIG. 1, mobile terminals 12a, 12b, and 12c are high-performance mobile phones (smartphones), and mobile terminals 12d and 12e are wearable terminals such as AR (Augmented Reality) glasses. As described above, the mobile terminals 12a to 12e are not limited in form as long as they are general terminals having a display, an information processing device including a communication function, and an input device. Hereinafter, the mobile terminals 12a to 12e will simply be referred to as "mobile terminals 12".

イベント管理サーバ10は、携帯端末12と通信を確立し、撮影画像やユーザ操作の内容を受信したうえ、対応する情報処理を実施したり、必要な情報を返信したりする。近年、5G(第5世代移動通信システム)の導入などにより、携帯端末であっても様々なデータを低遅延・大容量で伝送することが可能になっている。したがって携帯端末12とイベント管理サーバ10との通信にも、そのような技術を適宜利用する。 The event management server 10 establishes communication with the mobile terminal 12, receives the captured image and the content of the user's operation, performs corresponding information processing, and returns necessary information. In recent years, with the introduction of 5G (fifth generation mobile communication system), etc., it has become possible to transmit various data with low delay and large capacity even with mobile terminals. Therefore, such technology is appropriately used for communication between the mobile terminal 12 and the event management server 10 as well.

なおイベント管理サーバ10は、実際には複数の情報処理装置や記憶装置により実現してよい。例えばイベント管理サーバ10は、5Gの技術のひとつであるMEC(Multi-access Edge Computing)により、機能に応じて分散配置されていてもよい。この場合、携帯端末12との画像データの送受信機能など、高い応答性が求められる機能はイベント会場近隣に設置したサーバにより実現し、それ以外の機能は、別のデータセンターなどに設置したサーバにより実現することが考えられる。したがって本実施形態の「イベント管理サーバ」は、装置の数によらず「イベント管理サーバシステム」と読み替えることができる。 Note that the event management server 10 may actually be realized by a plurality of information processing devices and storage devices. For example, the event management servers 10 may be distributed according to their functions by MEC (Multi-access Edge Computing), which is one of 5G technologies. In this case, functions that require high responsiveness, such as sending and receiving image data to and from the mobile terminal 12, are implemented by a server installed near the event venue, and other functions are implemented by a server installed in a separate data center. Realization is conceivable. Therefore, the "event management server" in this embodiment can be read as an "event management server system" regardless of the number of devices.

仮想店舗管理サーバ14は、イベント管理サーバ10と通信を確立し、ネットワーク上の仮想店舗とユーザ間の売買を仲介する。実店舗管理サーバ16は、イベント管理サーバ10と通信を確立し、イベント会場内外の実店舗とユーザ間の売買を仲介する。実店舗管理サーバ16はさらに、実店舗のリアルタイムでの状態、例えば込み具合、待ち時間、商品在庫などの情報を、イベント管理サーバ10に随時提供してよい。 The virtual store management server 14 establishes communication with the event management server 10 and mediates trading between the virtual store on the network and the user. The physical store management server 16 establishes communication with the event management server 10 and mediates transactions between users and physical stores inside and outside the event venue. The physical store management server 16 may further provide the event management server 10 with information on the real-time status of the physical store, such as the degree of congestion, waiting time, product inventory, and the like, at any time.

本実施の形態においてイベント管理サーバ10は、携帯端末12を介してユーザに様々なサービスを提供する。ここで提供されるサービスは、イベントそのものをより楽しめるようにする仕組みと、関連商品の販売促進に大別される。本実施の形態では携帯端末12を介し、イベントの様子と合わせてサービスに係る各種情報を視認できるようにする。これによりユーザは、イベントのリアルタイムでの状況を見逃したり興味が削がれたりすることなく、多様なサービスを利用できる。 In this embodiment, the event management server 10 provides various services to users via the mobile terminal 12 . The services provided here are broadly divided into mechanisms that make the event itself more enjoyable, and sales promotion of related products. In this embodiment, it is possible to visually recognize various information related to the service together with the state of the event via the portable terminal 12 . This allows users to take advantage of a variety of services without missing out on the real-time status of the event or losing interest.

具体的には、ユーザは、携帯端末12をかざすことによりイベントの様子をインカメラにより撮影し、そのリアルタイム映像をディスプレイに表示させた状態とする。一方、イベント管理サーバ10は、携帯端末12による撮影画像を収集し、それを解析することにより、携帯端末12を扱う各ユーザの特性や興味を推定する。そして推定結果に基づき、リアルタイム映像に重畳表示させるのに最適な画像を生成し、各携帯端末12に表示させる。 Specifically, the user captures the state of the event with the in-camera by holding the portable terminal 12, and the real-time image is displayed on the display. On the other hand, the event management server 10 collects images captured by the mobile terminal 12 and analyzes them to estimate the characteristics and interests of each user who handles the mobile terminal 12 . Then, based on the estimation result, an optimal image to be superimposed on the real-time video is generated and displayed on each portable terminal 12 .

ここで重畳表示させる画像は、あたかもイベント会場に存在するかのように描画した仮想オブジェクトとして表してもよい。実空間の像に仮想的なオブジェクトを融合させる技術としては、ARやMR(複合現実:Mixed Reality)などの技術を応用できる。この場合、仮想オブジェクトの配置を定義するために、イベント会場の空間構造を表す3次元データが用いられる。本実施の形態では当該3次元データを、撮影画像の解析にも利用することにより、ユーザの特性や興味を低コストで特定できるようにする。以後、イベント管理サーバ10が携帯端末12ごとに選択し、リアルタイム映像に重畳表示させる画像を、「コンテンツ画像」と呼ぶ。 The image to be superimposed and displayed here may be represented as a virtual object drawn as if it exists at the event site. Techniques such as AR and MR (Mixed Reality) can be applied as a technique for fusing a virtual object with a real space image. In this case, three-dimensional data representing the spatial structure of the event venue is used to define the placement of the virtual objects. In the present embodiment, the three-dimensional data is also used for analysis of captured images, thereby making it possible to identify user's characteristics and interests at low cost. Hereinafter, an image selected by the event management server 10 for each mobile terminal 12 and superimposed on the real-time video will be referred to as a "content image".

図2は、携帯端末12が表示する画面を例示している。この例、および後述する図3、4では、イベントをサッカーの試合とし、ユーザは自分の座席からフィールド上で行われている試合を観戦しているとする。その状態でユーザが携帯端末12をかざすと、携帯端末12は例えば(a)に示すように、その視点から見える実空間の様子を表示させる。この状況は例えば、携帯端末12の背面に装備されるカメラが撮影するリアルタイムの映像を、ディスプレイに即時表示させることにより実現される。ユーザが携帯端末12の向きを変えれば、当然、映像の視野もそれに連動する。 FIG. 2 illustrates a screen displayed by the mobile terminal 12. As shown in FIG. In this example and FIGS. 3 and 4 described later, it is assumed that the event is a soccer game and the user is watching the game on the field from his/her seat. When the user holds up the mobile terminal 12 in this state, the mobile terminal 12 displays the appearance of the real space seen from that viewpoint, as shown in (a), for example. This situation is realized, for example, by immediately displaying a real-time image captured by a camera mounted on the back surface of the mobile terminal 12 on the display. If the user changes the orientation of the mobile terminal 12, the field of view of the image is naturally linked to it.

(b)は、(a)で示したリアルタイム映像に、コンテンツ画像を重畳させた状態を示している。この例ではコンテンツ画像として、円筒形の仮想サイネージの画像200を重畳表示している。仮想サイネージは、その側面や内壁に、点数、選手の画像、広告などの各種情報を表した電光掲示板を模したオブジェクトであり、あたかも天空からつり下げられているように見せている。仮想サイネージの画像200は、サイネージの形状を表す3次元モデル上に、必要な情報をテクスチャとしてマッピングすることにより描画される。ただしコンテンツ画像が表すオブジェクトの種類や形状、描画手法を限定する主旨ではない。 (b) shows a state in which a content image is superimposed on the real-time video shown in (a). In this example, a cylindrical virtual signage image 200 is superimposed and displayed as the content image. The virtual signage is an object that imitates an electronic bulletin board that displays various information such as scores, images of players, and advertisements on its sides and inner walls, making it appear as if it is hanging from the sky. The virtual signage image 200 is drawn by mapping necessary information as textures on a three-dimensional model representing the shape of the signage. However, this is not intended to limit the type, shape, or drawing method of the object represented by the content image.

仮想サイネージの画像200を動画とし、提示する情報を円筒の側面上で周回させてもよい。このようなARを実現する場合、イベント管理サーバ10にはあらかじめ、イベント会場であるサッカースタジアムの空間構造の3次元データを格納しておく。そして同じ3次元空間に対し仮想サイネージの配置を決定し、その位置情報を携帯端末12に通知する。携帯端末12は、実空間の対応する位置にサイネージのオブジェクトを仮想的に配置し、それをカメラのスクリーン座標系に射影することで、表示中のリアルタイム映像に画像200を描画する。 The virtual signage image 200 may be animated, and the information to be presented may be circulated on the side surface of the cylinder. When implementing such an AR, the event management server 10 stores in advance three-dimensional data of the spatial structure of the soccer stadium, which is the venue for the event. Then, the placement of the virtual signage is determined for the same three-dimensional space, and the position information is notified to the mobile terminal 12 . The mobile terminal 12 virtually arranges the signage object at the corresponding position in the real space and projects it onto the screen coordinate system of the camera to draw the image 200 on the real-time video being displayed.

これによりカメラの視野によらず、仮想的なサイネージが実空間の所定位置に固定された状態となり、サッカーフィールドなどイベント上で重要な部分を避けてコンテンツ画像を表示できる。空間構造の3次元データを、点群データなど精度の高いデータ形式とすることにより、例えばサッカースタジアムの屋根の裏側に仮想的にロゴを表すなど、多様な場所に合わせて、高い精度でコンテンツ画像を表示させることができる。 As a result, the virtual signage is fixed at a predetermined position in the real space regardless of the field of view of the camera, and content images can be displayed while avoiding important areas of the event such as soccer fields. By converting the 3D data of the spatial structure into a highly accurate data format such as point cloud data, content images can be displayed with high accuracy according to various locations, such as a virtual logo on the underside of the roof of a soccer stadium. can be displayed.

ここでユーザが、仮想サイネージの画像200に表された情報のいずれかを指示したら、イベント管理サーバ10は当該ユーザ操作を取得したうえ、指示された情報に関連する別の情報を表すコンテンツ画像を、携帯端末12にさらに表示させてもよい。例えばイベント管理サーバ10は、仮想サイネージに示されたスポンサーのロゴが指示されたとき、当該スポンサーの広告動画を追加で表示させる。また選手の顔画像が指示されたとき、当該選手のプロフィールや戦績、関連グッズなどを表す画像を追加で表示させる。 Here, when the user instructs any of the information displayed in the image 200 of the virtual signage, the event management server 10 acquires the user's operation and displays a content image representing other information related to the instructed information. , may be further displayed on the mobile terminal 12 . For example, when the sponsor's logo displayed on the virtual signage is instructed, the event management server 10 additionally displays the advertising video of the sponsor. Also, when the player's face image is designated, an image representing the player's profile, battle record, related goods, etc. is additionally displayed.

同様の表示は、リアルタイム映像に表された実物体の像への指示を契機としてもよい。例えばユーザが、向かい側の観客席に設置された看板の像201を指示したら、イベント管理サーバ10はそれに関連するプロモーション動画を表示させる。またイベント管理サーバ10は、仮想サイネージの画像200や実物体の像に対するユーザの指示操作に応じて、関連商品の購入を受け付けるGUI(Graphical User Interface)を表示させてもよい。 A similar display may be triggered by an instruction to the image of the real object represented in the real-time video. For example, when the user points to the signboard image 201 installed in the audience seat on the opposite side, the event management server 10 displays a promotional video associated with it. In addition, the event management server 10 may display a GUI (Graphical User Interface) for accepting the purchase of related products in accordance with the user's instruction operation on the virtual signage image 200 or the image of the real object.

コンテンツ画像は、ユーザがイベント会場に携帯端末12をかざしている間は常に表示させてもよいし、上述のようにユーザによる特定の操作に応じて表示/非表示を切り替えてもよい。特定の操作として、画面のタップ操作に代表される一般的な指示操作のほか、ズーム倍率変更操作や静止画撮影操作などの撮影操作を利用してもよい。あるいは、出場者の状態やイベントの状況など、ユーザ操作以外の要因に基づき表示/非表示を切り替えてもよい。 The content image may be always displayed while the user holds the mobile terminal 12 over the event site, or may be switched between display and non-display according to a specific operation by the user as described above. As the specific operation, in addition to a general instruction operation represented by a tap operation on the screen, a photographing operation such as a zoom magnification changing operation or a still image photographing operation may be used. Alternatively, display/non-display may be switched based on a factor other than user operation, such as the state of the contestants or the situation of the event.

図3は、コンテンツ画像により商品販売を促進する際の、携帯端末12の画面を例示している。(a)は、リアルタイム映像に、商品であるスパイクの販売情報206と購入を受け付けるGUI208を重畳表示させている。例えばユーザが、図2の(b)に示す仮想サイネージの画像200に掲示された選手の画像を指示したら、当該選手の情報202とともに、選手が着用しているのと同モデルのスパイクを販売対象として、販売情報206とGUI208を表示する。それらのコンテンツ画像は3次元モデルを有するオブジェクトでもよいし、平面的な画像でもよい。 FIG. 3 exemplifies the screen of the mobile terminal 12 when promoting product sales with content images. In (a), sale information 206 of spikes, which is a product, and a GUI 208 for accepting purchases are superimposed on a real-time video. For example, when the user indicates an image of a player displayed on the virtual signage image 200 shown in FIG. , the sales information 206 and the GUI 208 are displayed. These content images may be objects having three-dimensional models, or planar images.

販売情報206に含まれるスパイクの画像については、MRの技術を利用し、3次元オブジェクトの向きを変えたり自分の方に引き寄せたりできるようにすることで、細部を確認できるようにしてもよい。また図示する例でGUI208は、「これを買う」なる文字を表した、横長の3次元オブジェクトで表現されている。GUI208を指示するユーザ操作がなされたら、イベント管理サーバ10はそれを受け付け、販売元を管理する仮想店舗管理サーバ14または実店舗管理サーバ16に対し、発注処理や決済処理を実施する。 For the image of the spike included in the sales information 206, MR technology may be used to change the direction of the three-dimensional object and draw it towards you, so that you can check the details. Also, in the illustrated example, the GUI 208 is represented by a horizontally elongated three-dimensional object representing the characters "buy this". When a user operation instructing the GUI 208 is performed, the event management server 10 accepts it, and executes order processing and payment processing to the virtual store management server 14 or the real store management server 16 that manages the seller.

発注や決済の処理が完了したら、イベント管理サーバ10は(b)に例示するように、購入完了を示す画像210を携帯端末12に重畳表示させる。この例で画像210は、「購入完了しました」なる文字を表した、横長の3次元オブジェクトで表現されている。このようにして購入された商品は、その種類や購入先によって、会場内で入手できるようにしてもよいし、後日配送されるようにしてもよい。前者の場合、来場者の座席まで届けられるようにしてもよいし、来場者が店舗へ受け取りに行くようにしてもよい。 When the ordering and payment processing is completed, the event management server 10 superimposes and displays an image 210 indicating purchase completion on the mobile terminal 12 as illustrated in (b). In this example, the image 210 is represented by a horizontally elongated three-dimensional object representing the text "purchase completed". Products purchased in this manner may be available at the venue or may be delivered at a later date, depending on the type and place of purchase. In the former case, the package may be delivered to the seat of the visitor, or the visitor may go to the store to pick it up.

図4は、コンテンツ画像によりイベントの娯楽性を向上させる際の、携帯端末12の画面を例示している。(a)は、得点が入ったタイミングでの画面例であり、シュートした選手の情報220や、得点を祝う光や文字での仮想的な演出を表す画像222をコンテンツ画像として、リアルタイム映像に重畳表示している。(b)は試合中の任意のタイミングで、フィールド上の選手のリアルタイムの像224をコンテンツ画像として重畳表示している。図示するように選手の像224を拡大して表示することにより、自席から見にくい選手の様子を詳細に確認できる。 FIG. 4 illustrates the screen of the mobile terminal 12 when enhancing the entertainment of the event with content images. (a) is an example of the screen when a goal is scored. Information 220 of the player who made the shot and an image 222 representing a virtual effect of lights and characters celebrating the score are superimposed on the real-time video as content images. it's shown. (b) superimposes a real-time image 224 of a player on the field as a content image at an arbitrary timing during the game. By enlarging and displaying the image 224 of the player as shown in the figure, it is possible to confirm in detail the appearance of the player, which is difficult to see from his own seat.

図4に示したようなコンテンツ画像の場合は特に、表示結果を好適と感じるか煩わしいと感じるかは、応援しているチームや注目している選手など、ユーザ個々の趣味嗜好によって大きく分かれる。またユーザの座席と選手の位置によっては、選手の像を拡大する必要がないこともある。さらに戦況、天候、温度、他の観客の様子、ユーザ個々の体調など、事前に予測しにくい事象によって、見たい情報や購入したい商品は時々刻々と変化し得る。 Especially in the case of the content image shown in FIG. 4, whether the user finds the display result suitable or annoying depends largely on the tastes and preferences of individual users, such as the team they are rooting for or the player they are watching. Also, depending on the user's seat and the player's position, it may not be necessary to enlarge the player's image. Furthermore, information desired to be viewed and products desired to be purchased may change from moment to moment due to events that are difficult to predict in advance, such as battle conditions, weather, temperature, conditions of other spectators, physical conditions of individual users, and the like.

これを踏まえ、本実施の形態においてイベント管理サーバ10は、携帯端末12による撮影画像、撮影操作や指示操作などのユーザ操作の内容、ユーザのプロフィールなどの情報を収集し、それに基づきユーザ個々の特性や興味を推定する。さらに出場者や会場内の状況などを加味して、表示すべきコンテンツ画像の内容や表示タイミングを最適化する。これにより、事前登録やメニュー操作などの手間を最小限に、携帯端末12を介してイベントをより楽しんだり、欲しい商品を容易に購入したりできるようにする。 Based on this, in the present embodiment, the event management server 10 collects information such as images captured by the mobile terminal 12, details of user operations such as shooting operations and instruction operations, user profiles, etc. Or presume interest. Furthermore, the contents of the content images to be displayed and the display timing are optimized in consideration of the contestants and the situation in the hall. As a result, it is possible to enjoy the event more and easily purchase desired products through the mobile terminal 12 while minimizing the time and effort required for pre-registration and menu operations.

図5は、イベント管理サーバ10の内部回路構成を示している。イベント管理サーバ10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、携帯端末12、仮想店舗管理サーバ14、および実店舗管理サーバ16と通信を確立する通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、図示しないディスプレイへデータを出力する出力部36、図示しない入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 5 shows the internal circuit configuration of the event management server 10. As shown in FIG. The event management server 10 includes a CPU (Central Processing Unit) 23 , a GPU (Graphics Processing Unit) 24 and a main memory 26 . These units are interconnected via a bus 30 . An input/output interface 28 is also connected to the bus 30 . The input/output interface 28 includes a communication unit 32 that establishes communication with the mobile terminal 12, the virtual store management server 14, and the real store management server 16, a storage unit 34 such as a hard disk drive and a nonvolatile memory, and a display (not shown). An output unit 36 for outputting, an input unit 38 for inputting data from an input device (not shown), and a recording medium driving unit 40 for driving a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.

CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することによりイベント管理サーバ10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた各種プログラムを実行する。GPU24は、CPU23からの描画命令に従って描画処理を行い、出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 23 controls the entire event management server 10 by executing the operating system stored in the storage unit 34 . The CPU 23 also executes various programs read from the removable recording medium and loaded into the main memory 26 . The GPU 24 performs drawing processing according to the drawing command from the CPU 23 and outputs the result to the output unit 36 . The main memory 26 is composed of a RAM (Random Access Memory) and stores programs and data necessary for processing.

図6は携帯端末12の内部回路構成を示している。携帯端末12は、CPU50、メインメモリ52、表示部54、入力部56、音声出力部59、通信部60、モーションセンサ62、カメラ64、位置取得部66を含む。これらの各部はバス58を介して相互に接続されている。CPU50は、バス58を介して携帯端末12の各部から取得した情報を処理し、出力データを表示部54、音声出力部59に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。 FIG. 6 shows the internal circuit configuration of the mobile terminal 12. As shown in FIG. The mobile terminal 12 includes a CPU 50 , a main memory 52 , a display section 54 , an input section 56 , an audio output section 59 , a communication section 60 , a motion sensor 62 , a camera 64 and a position acquisition section 66 . These units are interconnected via a bus 58 . The CPU 50 processes information acquired from each section of the mobile terminal 12 via the bus 58 and supplies output data to the display section 54 and the audio output section 59 . A main memory 52 stores programs and data necessary for processing in the CPU 50 .

表示部54は、液晶パネルや有機ELパネルなどの表示パネルとその駆動機構で構成され、図2乃至4で例示したような画像を表示する。入力部56は、表示部54の画面を覆うタッチパッドや筐体に設けられたハードウェアキーで構成され、表示された画像に対する指示操作や、ズーム倍率変更操作や静止画撮影操作などの撮影操作を受け付ける。音声出力部59はスピーカーやイヤホンとその制御機構で構成され、必要に応じてユーザに音声を聞かせる。 The display unit 54 is composed of a display panel such as a liquid crystal panel or an organic EL panel and its driving mechanism, and displays images such as those illustrated in FIGS. The input unit 56 is composed of a touch pad that covers the screen of the display unit 54 and hardware keys provided on the housing. accept. The audio output unit 59 is composed of a speaker, earphones, and their control mechanism, and allows the user to listen to audio as necessary.

通信部60は、イベント管理サーバ10と通信を確立し、必要なデータを送受する。本実施の形態では、例えば5Gの通信技術により携帯端末12の移動通信を実現する。モーションセンサ62は、加速度センサ、ジャイロセンサ、地磁気センサなどの少なくともいずれかで構成され、携帯端末12の3次元空間での姿勢や動きを計測する。カメラ64は、表示部54の画面と反対方向の実空間を動画撮影する。本実施の形態では特に、その映像を表示部54に即時表示させることにより、実空間の様子がリアルタイムで見られるようにする。撮影画像のデータはまた、通信部60を介してイベント管理サーバ10に送信され、コンテンツ画像の選択に利用される。 The communication unit 60 establishes communication with the event management server 10 and transmits and receives necessary data. In this embodiment, mobile communication of the mobile terminal 12 is realized by, for example, 5G communication technology. The motion sensor 62 is composed of at least one of an acceleration sensor, a gyro sensor, a geomagnetic sensor, and the like, and measures the posture and movement of the mobile terminal 12 in a three-dimensional space. The camera 64 shoots moving images of the real space in the opposite direction to the screen of the display unit 54 . Especially in this embodiment, the image is immediately displayed on the display unit 54 so that the state of the real space can be seen in real time. The captured image data is also transmitted to the event management server 10 via the communication unit 60 and used for selecting content images.

位置取得部66は、GPS(Global Positioning System)、A-GPS(Assisted-GPS)など周知の技術により、自装置の位置情報を随時取得する。モーションセンサ62および位置取得部66による測定値や、カメラ64による撮影画像は、コンテンツ画像である仮想オブジェクトを描画する際、実空間に対するスクリーン座標系を決定するのに用いることができる。 The position acquisition unit 66 acquires the position information of its own device at any time using well-known technologies such as GPS (Global Positioning System) and A-GPS (Assisted-GPS). The values measured by the motion sensor 62 and the position acquisition unit 66 and the image captured by the camera 64 can be used to determine the screen coordinate system for the real space when rendering the virtual object, which is the content image.

図7は、本実施の形態におけるイベント管理サーバ10の機能ブロックの構成を示している。図7および後述する図8に示す各機能ブロックは、ハードウェア的には、図5または図6に示したCPUやメインメモリなどの電子部品で実現でき、ソフトウェア的には、記録媒体などからメインメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 7 shows the configuration of functional blocks of the event management server 10 in this embodiment. Each functional block shown in FIG. 7 and FIG. 8, which will be described later, can be realized by electronic components such as the CPU and main memory shown in FIG. It is implemented by a program loaded in memory that performs various functions such as a data input function, a data holding function, an image processing function, and a communication function. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and are not limited to either one.

イベント管理サーバ10は、携帯端末12から撮影画像のデータやユーザ操作の内容を取得する端末情報取得部70、携帯端末12に表示させるコンテンツ画像を制御するコンテンツ画像制御部72、商品売買の手続きを実現する売買処理部74、コンテンツ画像の制御や商品売買の手続きに必要な情報を格納する情報記憶部76、イベントの出場者の状態に係る所定の情報を取得する出場者状態情報取得部78、イベントの状況に係る所定の情報を取得するイベント状況情報取得部80、および、コンテンツ画像のデータを送信する画像データ送信部82を備える。 The event management server 10 includes a terminal information acquisition unit 70 for acquiring captured image data and details of user operations from the mobile terminal 12, a content image control unit 72 for controlling content images to be displayed on the mobile terminal 12, and a product trading procedure. A trading processing unit 74 to implement, an information storage unit 76 for storing information necessary for content image control and product trading procedures, a contestant status information acquiring unit 78 for acquiring predetermined information related to the status of contestants in the event, It has an event status information acquisition section 80 that acquires predetermined information relating to the status of an event, and an image data transmission section 82 that transmits content image data.

端末情報取得部70は、携帯端末12のカメラ64によるリアルタイムの撮影画像のデータを取得する。また端末情報取得部70は、携帯端末12に対するユーザ操作の内容を随時取得する。ここでユーザ操作とは例えば、カメラ64のズーム倍率変更操作や静止画撮影操作などの撮影操作、携帯端末12に表示中の画像に対する指示操作、商品の購入操作などである。端末情報取得部70は、携帯端末12がイベント会場を撮影している期間は継続して、所定の時間間隔で撮影画像のデータを取得してもよいし、ユーザが所定の操作を行ったときのみ、当該操作の内容と対応づけて、その際の撮影画像のデータを取得してもよい。 The terminal information acquisition unit 70 acquires data of images captured in real time by the camera 64 of the mobile terminal 12 . The terminal information acquisition unit 70 also acquires details of user operations on the mobile terminal 12 at any time. Here, the user operation includes, for example, an operation to change the zoom magnification of the camera 64, a shooting operation such as a still image shooting operation, an instruction operation to an image being displayed on the mobile terminal 12, a product purchase operation, and the like. The terminal information acquisition unit 70 may continuously acquire data of captured images at predetermined time intervals while the mobile terminal 12 is capturing images of the event venue, or may acquire data of captured images at predetermined time intervals. Only, the data of the photographed image at that time may be acquired in association with the content of the operation.

端末情報取得部70は、撮影画像のデータやユーザ操作の内容に係る情報を、携帯端末12の識別情報と対応づけて取得することにより、後段の処理を、携帯端末12のそれぞれに対し個別に行えるようにする。コンテンツ画像制御部72は、端末情報取得部70が取得したデータや情報に基づき、各携帯端末12に表示すべきコンテンツ画像を、個々のユーザに対し適切に選択し生成する。詳細にはコンテンツ画像制御部72は、照合部90、画像選択部92、および画像生成部94を備える。 The terminal information acquisition unit 70 acquires the data of the captured image and the information related to the content of the user's operation in association with the identification information of the mobile terminal 12, so that the subsequent processing can be performed individually for each mobile terminal 12. make it possible. The content image control unit 72 appropriately selects and generates content images to be displayed on each mobile terminal 12 for each user based on the data and information acquired by the terminal information acquisition unit 70 . Specifically, the content image control section 72 includes a matching section 90 , an image selection section 92 and an image generation section 94 .

照合部90は、端末情報取得部70が取得したデータや情報と、イベント会場の空間構造を示す3次元データ、あるいはあらかじめ登録された出場者やロゴなどのテンプレート画像とを照合することで、携帯端末12を使用しているユーザの特性や興味の対象を推定する。例えば照合部90は、イベント会場の空間構造のデータと撮影画像とを照合することにより、携帯端末12、ひいてはユーザの位置を特定する。 The collation unit 90 collates the data and information acquired by the terminal information acquisition unit 70 with three-dimensional data indicating the spatial structure of the event site, or pre-registered template images such as contestants and logos. The characteristics and interests of the user using the terminal 12 are estimated. For example, the collation unit 90 identifies the position of the mobile terminal 12, and thus the position of the user, by collating the spatial structure data of the event venue with the captured image.

この場合、「照合」は例えば、撮影画像の特徴点分布に基づき空間構造の3次元データを探索し、最も合致する画角が得られるときの携帯端末12の位置や姿勢を導出することにより実現される。ただしユーザの位置を特定する手段をこれに限る主旨ではなく、携帯端末12が備えるモーションセンサ62や位置取得部66の出力値を用いたり、当該出力値を撮影画像の照合結果と組み合わせて精度を高めたりしてもよい。 In this case, the "matching" is realized by, for example, searching for three-dimensional data of the spatial structure based on the feature point distribution of the captured image, and deriving the position and orientation of the mobile terminal 12 when the most matching angle of view is obtained. be done. However, the means for specifying the position of the user is not limited to this, and the output values of the motion sensor 62 and the position acquisition unit 66 provided in the mobile terminal 12 are used, or the output values are combined with the results of collation of the captured images to improve accuracy. You can raise it.

照合部90は、特定したユーザの位置を利用して副次的な情報を特定してもよい。例えば照合部90は、被写体であるイベント出場者とユーザとの距離や向きの関係を導出してもよい。あるいは照合部90は、特定した位置が含まれる座席の種類を取得することにより、ユーザが応援しているチームを判別したり、座席のランクに応じたプロフィールを推定したりしてもよい。 The matching unit 90 may specify secondary information using the specified user's position. For example, the collation unit 90 may derive the relation of the distance and direction between the event participant who is the subject and the user. Alternatively, the matching unit 90 may determine the team the user is supporting or estimate a profile according to the rank of the seat by acquiring the type of seat that includes the specified position.

また照合部90は、撮影画像中の被写体の像を、あらかじめ準備した画像や文字情報と照合することにより、ユーザが注目している人や物を推定してもよい。例えば照合部90は、撮影画像から顔領域を抽出し、登録されている出場者の顔画像と照合したり、ユニフォームに示されている背番号や名前を検出し、登録情報と照合したりすることにより、注目している出場者を特定する。あるいは照合部90は、撮影画像に写る看板や商品のロゴを検出し、登録済みの企業や商品のロゴ画像と照合することにより、ユーザがその時点で興味を持っている企業や商品を特定してもよい。このような画像同士の「照合」には、物体検出や物体認識などの分野で用いられる技術を採用できる。 Further, the matching unit 90 may estimate the person or object that the user is paying attention to by matching the image of the subject in the captured image with the image or character information prepared in advance. For example, the matching unit 90 extracts the face area from the photographed image, matches it with the registered face image of the contestant, detects the uniform number and name indicated on the uniform, and compares it with the registered information. By doing so, the contestant of interest is specified. Alternatively, the matching unit 90 detects the signboard or product logo in the captured image and matches it with the logo image of the registered company or product, thereby specifying the company or product that the user is interested in at that time. may Techniques used in fields such as object detection and object recognition can be used for such "collation" between images.

照合部90が上記のような照合を行うタイミングは限定されない。例えば照合部90は、イベント開始のタイミングで1回のみ照合を行ってもよいし、携帯端末12から撮影画像のデータが送信されている間は周期的に行ってもよい。あるいは照合部90は、イベントの状況、出場者の状態、ユーザ操作の内容などが所定の条件を満たしたとき、照合を行ってもよい。例えば照合部90は、ユーザがズームイン操作をおこなったとき、ズームの中心にある被写体の像を照合対象としてもよい。 The timing at which the collation unit 90 performs collation as described above is not limited. For example, the matching unit 90 may perform the matching only once at the start of the event, or may perform the matching periodically while the captured image data is being transmitted from the mobile terminal 12 . Alternatively, the collation unit 90 may collate when the situation of the event, the state of the contestants, the content of the user's operation, and the like satisfy predetermined conditions. For example, when the user performs a zoom-in operation, the matching unit 90 may set the image of the subject at the center of the zoom as a matching target.

画像選択部92は、照合部90による照合の結果に基づき、携帯端末12に表示させるコンテンツ画像を選択する。画像選択部92は例えば、ユーザが応援しているチームに得点が入ったとき、図4の(a)で示した仮想的な演出を表すコンテンツ画像を選択する。また、注目している出場者がユーザから離れた場所にいる場合に、図4の(b)で示したような拡大画像を選択する。あるいは、場内の看板がズームアップされた場合に、関連する企業や商品の広告、あるいは図3で示したような、関連商品を購入するためのGUIをコンテンツ画像として選択する。 The image selection unit 92 selects content images to be displayed on the mobile terminal 12 based on the result of matching by the matching unit 90 . For example, the image selection unit 92 selects the content image representing the virtual effect shown in FIG. 4(a) when the team that the user supports scores. Also, when the contestant being watched is in a place away from the user, an enlarged image as shown in FIG. 4(b) is selected. Alternatively, when a billboard in the hall is zoomed in, an advertisement for a related company or product, or a GUI for purchasing related products as shown in FIG. 3 is selected as the content image.

画像生成部94は、画像選択部92が選択したコンテンツ画像を、携帯端末12に表示可能な状態で生成する。コンテンツ画像を、実空間と融合した3次元オブジェクトで表現する場合、画像生成部94は、当該3次元オブジェクトのモデルデータと、イベント会場を表す3次元座標系での位置とを対応づける。さらに画像生成部94は、3次元オブジェクトにマッピングするテクスチャデータをリアルタイムでの情報に基づき生成したり、特定の出場者のリアルタイムでの像を実写映像から切り取ったりしてもよい。あるいは画像生成部94は、2次元の画像としてコンテンツ画像を描画してもよい。 The image generation unit 94 generates the content image selected by the image selection unit 92 in a displayable state on the mobile terminal 12 . When a content image is represented by a three-dimensional object fused with the real space, the image generator 94 associates the model data of the three-dimensional object with the position in the three-dimensional coordinate system representing the event site. Furthermore, the image generator 94 may generate texture data to be mapped onto a three-dimensional object based on real-time information, or cut out a real-time image of a specific contestant from a live-action video. Alternatively, the image generator 94 may render the content image as a two-dimensional image.

出場者状態情報取得部78は、イベントの出場者の位置および向きの少なくともいずれかを含む状態情報を継続的に取得する。例えば出場者状態情報取得部78は図示しない外部のカメラから、出場者を複数の視点から撮影したリアルタイム映像を取得し、それを解析することにより、イベント会場での出場者の位置や向き、速度、動作の種類などの状態情報を導出する。そのような画像解析は、スポーツ中継などの分野で広く実用化されている。 The contestant state information acquisition unit 78 continuously acquires state information including at least one of the positions and orientations of event contestants. For example, the contestant state information acquisition unit 78 acquires real-time images of the contestants photographed from a plurality of viewpoints from an external camera (not shown), and analyzes them to determine the positions, orientations, and speeds of the contestants at the event venue. , to derive state information such as the type of action. Such image analysis is widely put into practical use in fields such as sports broadcasting.

出場者状態情報取得部78は、出場者の状態情報や映像のデータを、コンテンツ画像制御部72に順次提供する。コンテンツ画像制御部72は当該情報やデータを、コンテンツ画像の制御に利用する。例えばコンテンツ画像制御部72は、ユーザと出場者との距離に応じて、当該出場者の拡大画像を表示させるか否かを決定する。あるいはコンテンツ画像制御部72は、ユーザから見えない向きの出場者の様子を表すように、コンテンツ画像を生成する際の仮想視点の位置および向きの少なくともいずれかを変化させる。 The contestant status information acquisition unit 78 sequentially provides the content image control unit 72 with the contestant status information and video data. The content image control unit 72 uses the information and data to control the content image. For example, the content image control unit 72 determines whether to display an enlarged image of the contestant according to the distance between the user and the contestant. Alternatively, the content image control unit 72 changes at least one of the position and direction of the virtual viewpoint when generating the content image so as to represent the appearance of the contestants who are oriented so that they cannot be seen by the user.

これにより、大規模会場などで出場者が見にくい場合であっても、座席によらず視認性を向上させることができる。またコンテンツ画像制御部72は、出場者のパフォーマンスの善し悪しに応じて、それを強調する仮想的な演出や、パフォーマンスについての解説が表示されるように制御してもよい。 As a result, even if it is difficult to see the contestants in a large venue or the like, the visibility can be improved regardless of the seats. Further, the content image control unit 72 may perform control so that, according to the performance of the contestant, a virtual effect emphasizing it or commentary on the performance is displayed.

イベント状況情報取得部80は、天候、時間帯、季節、温度、湿度、試合の戦況、ショーの進捗など、イベントの状況情報を取得する。イベントの状況情報は、イベント管理サーバ10の管理者やイベントの主催者が、イベント開始前やイベント開催中に、必要に応じて入力してもよいし、温度計、照度計、湿度計など、図示しない各種センサによる出力値から特定してもよい。あるいはイベント状況情報取得部80は、携帯端末12から送信される撮影画像、または、図示しない外部のカメラにより撮影されたリアルタイム映像を解析することにより、状況情報を取得してもよい。 The event status information acquisition unit 80 acquires event status information such as weather, time of day, season, temperature, humidity, match status, and show progress. The event status information may be input by the administrator of the event management server 10 or the organizer of the event before or during the event, if necessary. You may specify from the output value by various sensors which are not illustrated. Alternatively, the event situation information acquisition unit 80 may acquire situation information by analyzing a captured image transmitted from the mobile terminal 12 or a real-time video captured by an external camera (not shown).

イベント状況情報取得部80は、イベントの状況情報をコンテンツ画像制御部72に適宜提供する。コンテンツ画像制御部72は当該情報をコンテンツ画像の制御に利用する。例えばコンテンツ画像制御部72は、イベント途中での降雨に応じて、雨具の購入を受け付けるコンテンツ画像を表示させたり、温度上昇に応じて飲料水の購入を受け付けるコンテンツ画像を表示させたりする。 The event status information acquisition unit 80 appropriately provides event status information to the content image control unit 72 . The content image control unit 72 uses the information to control the content image. For example, the content image control unit 72 displays a content image for accepting the purchase of rain gear when it rains during the event, or displays a content image for accepting the purchase of drinking water when the temperature rises.

コンテンツ画像制御部72はまた、得点が入ったことに応じて、得点を入れたチームを応援しているユーザの携帯端末12に、図4の(a)で示したような仮想的な演出や得点者の情報を示すコンテンツ画像を表示させてもよい。さらにコンテンツ画像制御部72は、得点を入れたチームを応援しているユーザの携帯端末12に、関連商品の購入に用いることのできる割引きクーポンを表示させてもよい。この場合、点数が増えるほど割引き率を上げるなど、戦況によって割引き率に変化を与えてもよい。 The content image control unit 72 also causes the portable terminal 12 of the user who is cheering for the team that has scored a score to display a virtual effect such as that shown in (a) of FIG. A content image showing information on the scorer may be displayed. Furthermore, the content image control unit 72 may display discount coupons that can be used to purchase related products on the portable terminal 12 of the user who is cheering for the team that scored. In this case, the discount rate may be changed according to the battle situation, such as increasing the discount rate as the score increases.

またコンテンツ画像制御部72の照合部90は、状況情報に基づき、撮影画像と照合する空間構造のデータを切り替えてもよい。例えば開閉可能な屋根付きのスタジアムの場合、天候に依存して屋根の状態が変化する。このため空間構造のデータを、屋根の状態が異なる複数のパターンで準備しておき、照合部90は、状況情報に含まれる天候に基づき、対応する屋根の状態を表すデータを選択して照合に用いる。これにより、照合結果の精度を安定させることができる。なおイベント状況情報取得部80は、屋根が閉じているか開いているかといった、空間構造の状態自体を状況情報として、撮影画像等から取得してもよい。 Also, the collation unit 90 of the content image control unit 72 may switch the spatial structure data to be collated with the captured image based on the situation information. For example, in the case of a stadium with a roof that can be opened and closed, the state of the roof changes depending on the weather. For this reason, spatial structure data is prepared in a plurality of patterns with different roof conditions, and the collation unit 90 selects data representing the corresponding roof condition based on the weather included in the situation information and performs collation. use. As a result, the accuracy of matching results can be stabilized. Note that the event situation information acquisition unit 80 may acquire the state of the spatial structure itself, such as whether the roof is closed or open, as situation information from a captured image or the like.

またコンテンツ画像をARで表現する場合、画像選択部92がコンテンツ画像を選択する段階においても、状況情報に基づく空間構造のデータの切り替えを反映させてよい。これにより、実際には存在しない屋根の裏の位置に、コンテンツ画像として仮想的なロゴを表示するといった不具合を回避できる。上述した出場者状態情報やイベント状況情報は、コンテンツ画像制御部72においてコンテンツの選択に用いられるほか、コンテンツ画像の表示の契機として利用してもよい。 Further, when the content image is represented by AR, the switching of the data of the spatial structure based on the situation information may be reflected even at the stage where the image selection unit 92 selects the content image. As a result, it is possible to avoid the problem of displaying a virtual logo as a content image at a position behind the roof that does not actually exist. The contestant status information and the event status information described above are used for content selection in the content image control unit 72, and may also be used as a trigger for displaying content images.

売買処理部74は、携帯端末12にコンテンツ画像として表示させた、商品購入のためのGUIに対する購入操作に応じて、売買の手続きを実現する。この際、売買処理部74は、あらかじめ登録された、携帯端末12のユーザの個人情報を取得することにより、その場でユーザが個人情報を入力し直す手間を省く。ここで個人情報とは、名前、クレジットカードの番号、セキュリティコードなど、決済に必要な情報のほか、商品を郵送する場合はその送付先住所や電話番号などの情報を含む。 The trading processing unit 74 implements a trading procedure according to a purchase operation on a GUI for purchasing a product displayed as a content image on the mobile terminal 12 . At this time, the trading processing unit 74 acquires pre-registered personal information of the user of the portable terminal 12, thereby saving the user the trouble of re-entering the personal information on the spot. Here, personal information includes information necessary for settlement such as name, credit card number, security code, and information such as delivery address and telephone number in the case of mailing the product.

なお購入対象の商品は上述のとおり、ユーザが場内の店舗へ出向くことにより受け取る物であってもよいし、店舗からユーザの座席に届ける物であってもよい。後者の場合、売買処理部74は、照合部90が照合の結果取得した、ユーザの座席の情報を参照して届け先を特定してよい。いずれにしろ売買処理部74は、ユーザによる購入操作に応じて仮想店舗管理サーバ14や実店舗管理サーバ16と通信を確立し、発注処理や決済処理を実施する。クレジットカードや電子マネーなどの決済手段を利用した電子商取引の仕組みについては従来技術を適用できる。 As described above, the product to be purchased may be an item received by the user when the user goes to the store in the hall, or may be an item delivered from the store to the user's seat. In the latter case, the transaction processing unit 74 may refer to the user's seat information acquired by the collation unit 90 as a result of collation to identify the delivery destination. In any case, the trading processing unit 74 establishes communication with the virtual store management server 14 and the real store management server 16 according to the user's purchase operation, and executes order processing and payment processing. Conventional technology can be applied to the mechanism of electronic commerce using payment means such as credit cards and electronic money.

なお店舗を指定せずに購入操作がなされた場合、あるいは、複数あるチェーン店で対象商品が販売されている場合、売買処理部74は、照合部90による照合の結果得られたユーザの位置や座席に最も近い店舗を発注先として選択してもよい。また発注後、売買処理部74は、発注が完了した旨の通知を示すコンテンツ画像を、コンテンツ画像制御部72を介して、購入元の携帯端末12に表示させてもよい。これらの手順により、ユーザは図3で示したように、単純な操作で、かつイベントのリアルタイム映像の隠蔽範囲を最小限に、所望の商品を購入できる。 If the purchase operation is performed without designating a store, or if the target product is sold at a plurality of chain stores, the transaction processing unit 74 uses the user's position and A store closest to the seat may be selected as an order destination. Further, after placing an order, the sales processing unit 74 may display a content image showing a notification that the order has been completed on the mobile terminal 12 of the purchaser via the content image control unit 72 . By these procedures, the user can purchase the desired product with a simple operation and with a minimum concealment range of the real-time video of the event, as shown in FIG.

なお売買処理部74は、会場内の店舗への発注後、店舗の場所、注文番号、待ち時間などを発注先の店舗から取得し、コンテンツ画像制御部72を介して、それらの情報を表すコンテンツ画像を購入元の携帯端末12に表示させてもよい。また売買処理部74は、会場内や近隣にある実店舗の混み具合、商品在庫、待ち時間など店舗の状態情報を随時取得し、それらの情報を表すコンテンツ画像を、コンテンツ画像制御部72を介して携帯端末12に表示させてもよい。 After placing an order to a store in the venue, the trading processing unit 74 acquires the location of the store, the order number, the waiting time, etc. The image may be displayed on the portable terminal 12 of the purchase source. In addition, the sales processing unit 74 acquires store status information such as the degree of congestion, product inventory, waiting time, etc. of physical stores in the venue and nearby stores at any time, and transmits content images representing such information via the content image control unit 72. may be displayed on the mobile terminal 12.

情報記憶部76は、コンテンツ画像制御部72や売買処理部74が上述したような処理を実施するために必要な情報を記憶する。詳細には情報記憶部76は、ユーザ情報記憶部100、関連情報記憶部102、空間情報記憶部104、照合規則記憶部106、および、画像データ記憶部108を含む。ユーザ情報記憶部100は、携帯端末12の識別情報とユーザの個人情報とを対応づけて記憶する。個人情報は、上述のとおり売買処理部74が商品売買の手続きで利用するほか、コンテンツ画像制御部72がコンテンツ画像を選択する際にも利用できる。 The information storage unit 76 stores information necessary for the content image control unit 72 and the trading processing unit 74 to carry out the processes described above. Specifically, information storage unit 76 includes user information storage unit 100 , related information storage unit 102 , spatial information storage unit 104 , matching rule storage unit 106 , and image data storage unit 108 . The user information storage unit 100 associates and stores the identification information of the mobile terminal 12 and the user's personal information. The personal information is used by the trading processing unit 74 in the merchandise trading procedure as described above, and can also be used by the content image control unit 72 when selecting a content image.

例えばユーザ情報記憶部100には、ユーザの年齢、性別、住所、購入履歴、イベント参加履歴などの少なくともいずれかを個人情報として格納しておく。コンテンツ画像制御部72はそれらの情報を参照することにより、コンテンツ画像として表示させる商品を最適化したり、照合部90による照合結果と統合することにより、ユーザの特性や注目対象の特定精度を高めたりできる。例えば撮影画像に複数の出場者や商品が写っている場合、照合部90は上記のような個人情報に基づき、どの出場者や商品に注目しているかを絞り込んでもよい。 For example, the user information storage unit 100 stores at least one of the user's age, gender, address, purchase history, event participation history, etc. as personal information. By referring to the information, the content image control unit 72 optimizes the product to be displayed as the content image, and integrates it with the collation result of the collation unit 90 to improve the accuracy of specifying the user's characteristics and the target of attention. can. For example, when a plurality of contestants and products are shown in the photographed image, the verification unit 90 may narrow down which contestants and products the contestants are paying attention to based on the personal information as described above.

関連情報記憶部102は、照合部90が照合に用いるテンプレートデータと、それが表す被写体の情報とを対応づけて記憶する。ここで照合に用いるテンプレートデータとは例えば、出場者の顔やユニフォーム・衣装の画像、チームのロゴ、チーム名を示す文字情報、ボールなどの器具の画像、看板の画像、商品や企業のロゴ、マークなどである。 The related information storage unit 102 stores template data used for matching by the matching unit 90 in association with subject information represented by the template data. The template data used for matching includes, for example, images of contestants' faces, uniforms and costumes, team logos, character information indicating team names, images of equipment such as balls, images of signboards, logos of products and companies, Mark, etc.

各画像や文字情報は、それが表す出場者やチームのプロフィール、企業のプロフィールや商品の販売情報などに対応づけられる。照合部90は撮影画像とテンプレートデータとの照合結果に基づき、ユーザの興味の対象となっている出場者、企業、商品を推定する。これにより画像選択部92は、コンテンツ画像として表すべき出場者、広告、販売情報などを適切に選択できる。 Each image or text information is associated with the profile of the contestant or team represented by the image, the profile of the company, the sales information of the product, or the like. The matching unit 90 estimates the contestants, companies, and products that are of interest to the user based on the results of matching between the photographed image and the template data. Accordingly, the image selection unit 92 can appropriately select contestants, advertisements, sales information, and the like to be displayed as content images.

関連情報記憶部102は、商品の販売情報を、それに係るコンテンツ画像の表示条件と対応づけて格納してもよい。表示条件は例えば、出場者の状態情報やイベントの状況情報に対して設定できる。これにより画像選択部92は、降雨に応じて雨具購入のためのGUIを表示さたり、得点に応じて割引クーポンを表示させるなど、ユーザ操作によらず適切なタイミングで商品の販売情報を表示させることができる。 The related information storage unit 102 may store the sales information of the product in association with the display condition of the content image. Display conditions can be set for, for example, status information of contestants and status information of an event. As a result, the image selection unit 92 displays product sales information at an appropriate timing without depending on user operation, such as displaying a GUI for purchasing rain gear according to the rainfall, or displaying a discount coupon according to the score. be able to.

関連情報記憶部102はさらに、商品の販売情報として、販売店舗のURL(Uniform Resource Locator)や実店舗の位置などを記憶してもよい。これにより売買処理部74は、仮想店舗管理サーバ14や実店舗管理サーバ16を介して、適切な店舗に発注を行える。 The related information storage unit 102 may further store the URL (Uniform Resource Locator) of the store, the location of the actual store, and the like as the sales information of the product. As a result, the trading processing unit 74 can place an order to an appropriate store via the virtual store management server 14 or the real store management server 16 .

空間情報記憶部104は、イベント会場の実空間の構造を3次元の情報として表したデータを記憶する。データ形式は特に限定されないが、例えば、会場の実空間に存在する物体の表面の位置を、当該表面上に離散的に分布させた点群の3次元位置座標で表した点群データ(ポイントクラウド)を用いることが考えられる。点群データを利用することにより、仮想オブジェクトの位置や姿勢を、同じ3次元座標系で精密に規定することができ、実空間と仮想オブジェクトの融合を高精度に表現できる。 The space information storage unit 104 stores data representing the structure of the real space of the event venue as three-dimensional information. Although the data format is not particularly limited, for example, point cloud data (point cloud ) can be used. By using point cloud data, the position and orientation of a virtual object can be defined precisely in the same three-dimensional coordinate system, and the fusion of the real space and the virtual object can be expressed with high precision.

上述のとおり本実施の形態では、空間構造のデータを、撮影画像との照合によりユーザの位置を特定する目的でも利用する。空間情報記憶部104はさらに、空間構造のデータの分割領域を、座席、フィールド、舞台、通路、店舗など実世界でのカテゴリに対応づけて記憶する。これにより座席に応じたユーザの特性を特定したり、携帯端末12のカメラが向く方角を絞り込んだりできる。 As described above, in the present embodiment, the spatial structure data is also used for the purpose of identifying the position of the user by matching with the captured image. The spatial information storage unit 104 further stores the divided areas of the spatial structure data in association with categories in the real world, such as seats, fields, stages, aisles, and shops. This makes it possible to specify the characteristics of the user according to the seat, or to narrow down the direction in which the camera of the mobile terminal 12 faces.

また上述のとおり、イベント会場の構造が可変の場合、空間情報記憶部104には空間構造のデータを複数パターン記憶させ、照合部90が所定の規則に則り照合に用いるデータを切り替えてもよい。このため空間情報記憶部104は、状況情報などに設定した選択基準を、空間構造の各データに対応づけて記憶してもよい。 As described above, when the structure of the event venue is variable, the spatial information storage unit 104 may store a plurality of patterns of spatial structure data, and the matching unit 90 may switch the data used for matching according to a predetermined rule. Therefore, the spatial information storage unit 104 may store the selection criteria set in the situation information or the like in association with each data of the spatial structure.

照合規則記憶部106は、照合部90による照合処理の規則を記憶する。照合規則は例えば次表のように、撮影画像を照合する対象、照合する契機、照合により特定する対象を規定する。 The matching rule storage unit 106 stores rules for matching processing by the matching unit 90 . For example, as shown in the following table, the matching rule defines targets for matching captured images, triggers for matching, and targets to be specified by matching.

Figure 2023097056000002
Figure 2023097056000002

この例では、撮影画像とイベント会場の空間構造との照合を、携帯端末12においてアプリケーションが起動されたときに行うことにより、ユーザの位置や座席を特定することが規定されている。また、携帯端末12におけるズームイン操作時、および表示画像の指示操作時に、対象の像とテンプレート画像との照合を行い、注目している出場者、関連企業、商品を特定することが規定されている。 In this example, it is stipulated that the location and seat of the user are identified by matching the photographed image with the spatial structure of the event site when an application is activated on the mobile terminal 12 . In addition, it is stipulated that when performing a zoom-in operation on the mobile terminal 12 and when instructing a display image, the target image and the template image are matched to identify the participant, affiliated company, and product of interest. .

上表では画像選択部92が、特定された情報に基づき選択するコンテンツ画像の種類も示している。具体的には、ユーザの位置や座席、注目している出場者を特定することにより、イベント用コンテンツ、すなわち視認性を向上させたり、パフォーマンスに対し仮想的な演出を表したりする対象となるチームや出場者を限定する。換言すると、応援していないチームや出場者についてはそれらのコンテンツ画像を表示させないことになり、過剰や不快と思わせる可能性を低くする。 The above table also shows the types of content images selected by the image selection unit 92 based on the specified information. Specifically, by specifying the user's position and seat, and the contestants who are paying attention, the content for the event, that is, the target team that improves visibility or presents a virtual production for the performance and limit the number of participants. In other words, content images of teams and contestants not supported are not displayed, thereby reducing the possibility of making the user feel excessive or uncomfortable.

また注目している企業や商品を特定することにより、販売促進用コンテンツ、すなわち販売情報や広告動画を表示させたり購入を受け付けたりする対象を限定する。これにより、興味がない企業や商品の情報が表示されることによる煩わしさを回避し、少ない情報で販売効果を上げることができる。ただし上表は一例であり、本実施の形態を限定する主旨ではない。例えば注目している出場者の関連グッズを購入するためのコンテンツ画像は、販売促進用コンテンツと位置づけることもできる。 In addition, by specifying the companies and products of interest, the targets for displaying sales promotion contents, that is, sales information and advertising videos, and accepting purchases are limited. As a result, it is possible to avoid annoyance due to the display of information on companies and products that the customer is not interested in, and increase the sales effect with less information. However, the above table is an example, and is not intended to limit the present embodiment. For example, a content image for purchasing goods related to a contestant of interest can be positioned as sales promotion content.

画像データ記憶部108は、画像生成部94がコンテンツ画像を生成するのに用いる画像データを記憶する。画像データ記憶部108は例えば、仮想オブジェクトを描画するための3次元モデルデータ、テクスチャデータ、イベント会場の3次元空間における配置情報などを格納する。画像データ記憶部108はまた、出場者や商品の情報を示すコンテンツ画像のフォーマット、商品や広告の画像データなどを格納する。これらのデータは、関連情報記憶部102に格納された、出場者、企業、商品の情報と対応づけておく。 The image data storage unit 108 stores image data used by the image generation unit 94 to generate content images. The image data storage unit 108 stores, for example, three-dimensional model data for drawing virtual objects, texture data, arrangement information in the three-dimensional space of the event site, and the like. The image data storage unit 108 also stores content image formats showing information about contestants and products, image data of products and advertisements, and the like. These data are associated with the information on contestants, companies, and products stored in the related information storage unit 102 .

画像データ送信部82は、コンテンツ画像制御部72が選択し生成したコンテンツ画像のデータを携帯端末12に送信する。ここで画像データ送信部82が送信するデータは、コンテンツ画像そのものでもよいし、仮想オブジェクトの実空間での配置やそこに表す文字情報など、携帯端末12が解釈して画像を描画するために必要な部分的なデータでもよい。 The image data transmission unit 82 transmits the content image data selected and generated by the content image control unit 72 to the mobile terminal 12 . Here, the data transmitted by the image data transmission unit 82 may be the content image itself, or may be necessary for the mobile terminal 12 to interpret and draw the image, such as the arrangement of the virtual object in the real space and the character information represented there. It may be partial data.

後者の場合、携帯端末12は、内部で保持する3次元モデルと送信された位置情報に基づき、実空間を表す座標系にオブジェクトを配置したうえ、表示画面で構成されるスクリーン座標系に像を描画する。あるいは画像データ送信部82は、コンテンツ画像以外の領域を透明として画像を生成したうえで携帯端末12に送信することも考えられる。この場合、携帯端末12では、送信された画像をリアルタイム映像に重ね合わせるのみですむ。イベント管理サーバ10と携帯端末12で保持するデータや処理の分担について様々に考えられることは、当業者には理解されるところである。 In the latter case, the portable terminal 12 arranges the object in a coordinate system representing the real space based on the internally held three-dimensional model and the transmitted position information, and then displays the image in the screen coordinate system formed by the display screen. draw. Alternatively, the image data transmission unit 82 may generate an image by making the area other than the content image transparent, and transmit the generated image to the portable terminal 12 . In this case, the mobile terminal 12 only needs to superimpose the transmitted image on the real-time video. It is understood by those skilled in the art that the data held by the event management server 10 and the portable terminal 12 and the sharing of processing may be considered in various ways.

図8は、本実施の形態における携帯端末12の機能ブロックの構成を示している。図示する機能の全部または一部は、ユーザの選択や携帯端末12の自律的な要求制御により、アプリケーションを配信する配信サーバからダウンロードすることにより構成してもよいし、携帯端末12の出荷時にインストールするなどして構成してもよい。また携帯端末12は、高機能携帯電話などアプリケーションがインストールされた端末と、画像を表示するARグラスなどのウェアラブルディスプレイとで構成されていてもよい。この場合、両者は例えばBluetooth(登録商標)などの近距離無線通信でデータを送受信してもよいし、両者を有線接続してもよい。 FIG. 8 shows the configuration of functional blocks of the mobile terminal 12 in this embodiment. All or part of the illustrated functions may be configured by downloading from a distribution server that distributes applications according to user selection or autonomous request control of the mobile terminal 12, or may be installed when the mobile terminal 12 is shipped. It may be configured by, for example, The mobile terminal 12 may be composed of a terminal such as a high-performance mobile phone in which an application is installed and a wearable display such as AR glasses for displaying images. In this case, both of them may transmit and receive data by short-range wireless communication such as Bluetooth (registered trademark), or they may be connected by wire.

携帯端末12は、ユーザによる操作を受け付ける操作受付部110、実空間の画像を撮影する撮影部111、撮影画像のデータやユーザ操作の内容をイベント管理サーバ10に送信する端末情報送信部112、携帯端末12自体の状態に係る情報を取得する状態情報取得部114、コンテンツ画像のデータをイベント管理サーバ10から受信する画像データ受信部116、リアルタイム映像やコンテンツ画像を表示させる表示部118を備える。 The portable terminal 12 includes an operation reception unit 110 that receives an operation by a user, a photographing unit 111 that photographs an image of a real space, a terminal information transmission unit 112 that transmits data of the photographed image and details of user operation to the event management server 10, It includes a state information acquisition unit 114 that acquires information related to the state of the terminal 12 itself, an image data reception unit 116 that receives content image data from the event management server 10, and a display unit 118 that displays real-time video and content images.

携帯端末12はさらに、ユーザの個人情報を記憶する個人情報記憶部120および、コンテンツ画像の表示に用いるデータを記憶する画像データ記憶部122を備える。操作受付部110は、表示部118に表示されている画像に対する指示操作や撮影操作などのユーザ操作を受け付ける。ユーザ操作の手段としては、画面へのタップ操作やピンチ操作のほか、MRの技術により仮想オブジェクトをカメラの視野内の実空間で仮想的に指示する操作や、当該視野内での手によるジェスチャなどでもよい。 The mobile terminal 12 further includes a personal information storage unit 120 that stores personal information of the user, and an image data storage unit 122 that stores data used for displaying content images. The operation accepting unit 110 accepts user operations such as an instruction operation and a shooting operation on the image displayed on the display unit 118 . User operations include tapping and pinching on the screen, virtual pointing of virtual objects in real space within the field of view of the camera using MR technology, and hand gestures within the field of view. It's okay.

撮影部111は図5に示したカメラ64を含み、イベントが行われている実空間の像を撮影する。本実施の形態では特に、ユーザが携帯端末12をかざしている期間、イベントの様子を動画撮影することを基本とする。端末情報送信部112は、撮影部111による撮影画像、すなわち動画のフレームのデータ、および、操作受付部110が受け付けたユーザ操作の内容を、携帯端末12の識別情報とともにイベント管理サーバ10に送信する。 The photographing unit 111 includes the camera 64 shown in FIG. 5, and photographs an image of the real space where the event is taking place. Especially in the present embodiment, it is basically based on photographing the state of the event while the user is holding the portable terminal 12 over it. The terminal information transmission unit 112 transmits an image captured by the image capturing unit 111, that is, frame data of a moving image, and the content of the user operation received by the operation reception unit 110, together with the identification information of the mobile terminal 12, to the event management server 10. .

個人情報記憶部120はそのため、少なくとも携帯端末12の識別情報を記憶する。個人情報記憶部120はそのほか、ユーザの名前、電話番号、ログインID、パスワードなど、一般的な端末に記録される個人情報を記憶してよい。状態情報取得部114は、図5に示したモーションセンサ62および位置取得部66を含み、携帯端末12の位置、姿勢、動きを、状態情報として随時取得する。当該状態情報は、端末情報送信部112を介してイベント管理サーバ10に送信してもよい。 Therefore, the personal information storage unit 120 stores at least identification information of the mobile terminal 12 . The personal information storage unit 120 may also store personal information such as the user's name, telephone number, login ID, password, etc., which are recorded in general terminals. State information acquisition unit 114 includes motion sensor 62 and position acquisition unit 66 shown in FIG. 5, and acquires the position, posture, and movement of portable terminal 12 as state information as needed. The state information may be transmitted to the event management server 10 via the terminal information transmission section 112 .

この場合、イベント管理サーバ10は、撮影画像を用いた照合結果と、携帯端末12の状態情報とを統合することにより、ユーザの位置や向きをより高精度に特定してもよい。画像データ受信部116は、イベント管理サーバ10からコンテンツ画像のデータを受信する。コンテンツ画像のデータは、必要に応じて1回、または複数回などで断続的に受信してもよいし、所定の時間間隔で定常的に受信し続けてもよい。 In this case, the event management server 10 may identify the position and orientation of the user with higher accuracy by integrating the matching result using the captured image and the status information of the mobile terminal 12 . The image data receiving unit 116 receives content image data from the event management server 10 . The content image data may be received intermittently once or multiple times as required, or may be received steadily at predetermined time intervals.

表示部118は、撮影部111が撮影したリアルタイム映像を表示するとともに、画像データ受信部116が受信したデータに基づきコンテンツ画像を重畳表示する。例えば表示部118は、コンテンツ画像として表示すべきオブジェクトの3次元モデルを、状態情報取得部114が取得した、携帯端末12の位置や姿勢に対応するスクリーン座標系に射影することにより、コンテンツ画像を描画する。また表示部118は、コンテンツ画像として表されるオブジェクトがユーザの指などとインタラクションするように、オブジェクトを動かしたり変形させたりしてもよい。 The display unit 118 displays the real-time video captured by the image capturing unit 111 and superimposes a content image based on the data received by the image data receiving unit 116 . For example, the display unit 118 projects a three-dimensional model of an object to be displayed as a content image onto a screen coordinate system corresponding to the position and orientation of the mobile terminal 12 acquired by the state information acquisition unit 114, thereby displaying the content image. draw. The display unit 118 may also move or transform the object represented as the content image so that the object interacts with the user's finger or the like.

画像データ記憶部122は、コンテンツ画像の表示に必要なデータの一部を記憶する。上述のとおり、携帯端末12とイベント管理サーバ10の処理の分担により、画像データ記憶部122に格納するデータは様々であってよい。なお表示部118が表示させるコンテンツ画像は、実空間の座標系に固定させることに限定されない。例えば企業の広告動画や商品購入のための画像、割引クーポンなど、画像の種類や表示タイミングによっては、スクリーン座標系の所定位置に表示されるようにしてもよい。 The image data storage unit 122 stores part of the data necessary for displaying the content image. As described above, the data stored in the image data storage unit 122 may vary depending on the division of processing between the mobile terminal 12 and the event management server 10 . Note that the content image displayed by the display unit 118 is not limited to being fixed to the coordinate system of the real space. For example, an advertisement video of a company, an image for purchasing a product, a discount coupon, or the like may be displayed at a predetermined position in the screen coordinate system depending on the type of image and display timing.

図9は、イベント管理サーバ10においてコンテンツ画像制御部72の照合部90が行う照合処理の例を説明するための図である。(a)の上段は、イベント会場であるサッカースタジアムの空間構造230の一部を示している。このデータは実際には、所定の位置および方向に軸を設定した3次元座標系での点群データの形式で表してよく、事前に空間情報記憶部104に格納しておく。 FIG. 9 is a diagram for explaining an example of matching processing performed by the matching unit 90 of the content image control unit 72 in the event management server 10. As shown in FIG. The upper part of (a) shows part of the spatial structure 230 of the soccer stadium, which is the event venue. This data may actually be represented in the form of point cloud data in a three-dimensional coordinate system with axes set at predetermined positions and directions, and is stored in the spatial information storage unit 104 in advance.

携帯端末12から撮影画像232が送信されたら、照合部90は画像から特徴点を抽出するなどして、最も合致率の高い分布が得られる空間構造の範囲234を、矢印に示すように特定する。(b)はサーカースタジアムを俯瞰した状態を模式的に示しており、フィールド236を囲むように観客席238が配置されている。照合部90は(a)に示した照合結果に基づき、範囲234の視野が得られる携帯端末12の位置、ひいてはユーザの位置240を特定する。 When a photographed image 232 is transmitted from the mobile terminal 12, the matching unit 90 extracts feature points from the image, and specifies a range 234 of the spatial structure in which the distribution with the highest matching rate is obtained, as indicated by an arrow. . (b) schematically shows a bird's-eye view of a soccer stadium, and spectator seats 238 are arranged so as to surround a field 236 . Based on the matching result shown in (a), the matching unit 90 specifies the position of the mobile terminal 12 where the field of view of the range 234 is obtained, and thus the user's position 240 .

照合部90はさらに、位置240に対応する座席のカテゴリを、空間構造のデータに対応づけられている情報に基づき特定してもよい。この例では、ユーザの位置240は、ゴールポスト242の裏側にある、一般的にはどちらかのチームのサポーターのための席に対応する。どちらのチームのサポーター席であるかは、試合の設定によって一意に定まる。 The matching unit 90 may further identify the seat category corresponding to the position 240 based on the information associated with the spatial structure data. In this example, user position 240 corresponds to a seat behind goalpost 242, typically for supporters of either team. Which team's supporter's seat is is uniquely determined by the setting of the game.

結果として照合部90は、撮影画像と空間構造のデータとを照合することにより、ユーザの位置と応援しているチームを特定できることになる。そのほか、座席にランクがある場合、ユーザがイベントに対し想定している支出の範囲を推定できる。またユーザが特別席にいる場合は上客であることを推定できる。これらのユーザの特性は、イベント用コンテンツで表示対象とするチームや、販売促進用コンテンツで表示対象とする商品の価格帯などの決定に利用できる。 As a result, the collation unit 90 can identify the position of the user and the team that the user supports by collating the photographed image with the spatial structure data. In addition, if there are ranks in the seats, it is possible to estimate the range of expenses that the user expects for the event. Also, if the user is in the special seat, it can be estimated that the user is a high-ranking customer. These user characteristics can be used to determine the teams to be displayed in event content and the price ranges of products to be displayed in sales promotion content.

なお照合部90は、撮影画像と空間構造のデータとの照合により、ユーザの位置240のみならず、携帯端末12の姿勢、ひいてはカメラの視線方向244も取得してよい。撮影画像からカメラの位置や姿勢を取得するため、Visual SLAM(Simultaneous Localization and Mapping)などの手法を導入してもよい。視線方向244を取得することにより、コンテンツ画像制御部72は、視線の先に存在する出場者などの実物体を、ユーザの注目対象と推定し、コンテンツ画像の選択に利用してもよい。これにより、例えばカメラの視野を移動させることにより、表示されるコンテンツ画像が次々に入れ替わるような態様を実現できる。 Note that the collation unit 90 may acquire not only the user's position 240 but also the orientation of the mobile terminal 12 and the line-of-sight direction 244 of the camera by collating the photographed image and the spatial structure data. A method such as Visual SLAM (Simultaneous Localization and Mapping) may be introduced to acquire the position and orientation of the camera from the captured image. By acquiring the line-of-sight direction 244, the content image control unit 72 may estimate a real object such as a contestant existing ahead of the line of sight to be the target of the user's attention and use it for selecting a content image. As a result, for example, by moving the field of view of the camera, it is possible to realize a mode in which the displayed content images are replaced one after another.

図10は、イベント管理サーバ10においてコンテンツ画像制御部72が、携帯端末12に表示させるコンテンツ画像の例を説明するための図である。この例もイベント会場としてサッカースタジアムを想定し、ユーザは図9の(b)に示すように、一方のゴールポストの裏側の座席にいるものとする。(a)、(b)は、当該座席におい携帯端末12に表示されるリアルタイム映像である。 FIG. 10 is a diagram for explaining an example of a content image displayed on the mobile terminal 12 by the content image control unit 72 in the event management server 10. As shown in FIG. This example also assumes that the event venue is a soccer stadium, and that the user is in a seat behind one of the goalposts, as shown in FIG. 9(b). (a) and (b) are real-time images displayed on the portable terminal 12 at the seat.

サッカーの場合、前半戦と後半戦で各チームが攻めるゴールポストが入れ替わる。このためゴールポストの裏にいるユーザにとって、応援しているチームがゴールを攻めるプレイを間近で見られる期間が限定される。例えば前半戦は(a)に示すように、応援しているチームの選手がシュートを打つ様子が比較的近くで見られる一方、後半戦は(b)に示すように、反対側のゴールポストへのシュートとなり見にくくなる。このため、前半と比較し後半は応援の盛り上がりに欠けてしまうことが考えられる。 In the case of soccer, the goalposts attacked by each team are switched between the first half and the second half. For this reason, the user behind the goal post has a limited period of time during which he or she can closely watch the team they are cheering for as they attack the goal. For example, in the first half of the game, as shown in (a), the players of the team they are cheering for can be seen relatively close up, while in the second half of the game, as shown in (b), there is a shot at the goalpost on the opposite side. becomes difficult to see. For this reason, it is conceivable that the second half lacks the excitement of cheering compared to the first half.

そこで画像選択部92は、ユーザと選手との距離が所定値以上離れたら、(c)に示すように、選手の像の拡大画像250aの表示を決定する。選手の距離は上述のとおり、出場者状態情報取得部78が取得してもよいし、撮影画像における出場者の像の大きさから画像選択部92が特定してもよい。また拡大する対象は、ユーザの座席から特定される、応援しているチームの選手や、ズームイン操作などにより推定される、ユーザが注目している選手などに限ってよい。 Therefore, when the distance between the user and the player is greater than or equal to a predetermined value, the image selection unit 92 determines to display the enlarged image 250a of the player image as shown in (c). As described above, the player's distance may be acquired by the contestant state information acquisition unit 78, or may be specified by the image selection unit 92 from the size of the contestant's image in the captured image. Also, the target to be enlarged may be limited to the player of the team that the user supports, which is specified from the user's seat, or the player that the user is paying attention to, which is estimated by a zoom-in operation or the like.

ユーザと選手との距離にしきい値を2つ以上設定し、距離がしきい値を超える都度、拡大画像250aの倍率を段階的に増加させてもよい。あるいはしきい値を設けず、距離の増加に対し拡大画像250aの倍率を連続的に増加させてもよい。距離が減少する際は、逆の制御により拡大画像250aの倍率を小さくしたり、拡大画像250aを非表示としたりしてよい。 Two or more thresholds may be set for the distance between the user and the player, and the magnification of the enlarged image 250a may be increased step by step each time the distance exceeds the threshold. Alternatively, the magnification of the enlarged image 250a may be continuously increased with increasing distance without providing a threshold. When the distance decreases, the magnification of the enlarged image 250a may be decreased or the enlarged image 250a may be hidden by the opposite control.

(c)に示す拡大画像250aは、ユーザの視点と同一、または略同一の方向から見た該当選手を、そのまま拡大した画像である。一方、別の態様として、ユーザの位置からは見えない向きから見た拡大画像250bを表示させてもよい。この例では、選手を正面から見た画像を表示することにより、本来は見えない表情などを確認できるようになる。拡大画像として表す選手の向きを、ユーザが自由に操作できるようにしてもよい。多視点映像を用いて、プレイ中の選手を任意視点から見られるようにする技術は実用化されているため、それを応用してよい。 The enlarged image 250a shown in (c) is an enlarged image of the player viewed from the same or substantially the same direction as the user's viewpoint. On the other hand, as another aspect, an enlarged image 250b viewed from a direction that cannot be seen from the user's position may be displayed. In this example, by displaying an image of the player viewed from the front, it is possible to check facial expressions that are not normally visible. The user may be allowed to freely operate the direction of the player represented as the enlarged image. Technology that allows players to be viewed from arbitrary viewpoints during play using multi-viewpoint video has been put into practical use, so it may be applied.

なおユーザの視点と異なる仮想視点から見た像は、等倍率であってもよい。また表示の契機はユーザと出場者との距離によらなくてもよい。いずれにしろユーザと出場者の位置および向きの関係に応じて、像の拡大率および、出場者の表示上の向きの少なくともいずれかを変化させる。これにより、例えばコンサートなどにおいて、舞台上の任意の演者の様子を、自由な方向から見ることができ、座席の角度によって生じる見にくさを軽減できる。 Note that an image viewed from a virtual viewpoint different from the user's viewpoint may be of the same magnification. Also, the trigger for display does not have to depend on the distance between the user and the contestants. In any case, at least one of the magnification of the image and the displayed orientation of the contestants is changed according to the relationship between the positions and orientations of the user and the contestants. As a result, for example, at a concert or the like, any performer on the stage can be viewed from any direction, and the difficulty in viewing caused by the angle of the seat can be reduced.

なお図ではわかりやすさのために一人の選手のみを示しているが、当然、フィールド上には複数の選手が存在する。したがって拡大対象は複数の選手でもよい。この場合、拡大率を調整することにより、選手同士の位置関係、すなわちフォーメーションを確認できるようにしてもよい。あるいは選手の像を図形などに置き換え、俯瞰図を示すなどしてフォーメーションをよりわかりやすく示してもよい。また上述のようにユーザが注目している選手を特定できたら、拡大するか否かによらず、当該選手の戦績やプレイの内容などの情報を自動で表示させてもよい。 Although only one player is shown in the figure for the sake of clarity, there are, of course, multiple players on the field. Therefore, the target of enlargement may be a plurality of players. In this case, the positional relationship between the players, that is, the formation may be confirmed by adjusting the magnification. Alternatively, the image of the players may be replaced with figures, etc., and the formation may be shown more easily by showing a bird's-eye view. Also, once the player that the user is paying attention to can be specified as described above, information such as the player's battle record and play details may be automatically displayed regardless of whether or not the display is enlarged.

図11は、イベント管理サーバ10においてコンテンツ画像制御部72が、携帯端末12に表示させるコンテンツ画像の別の例を説明するための図である。(a)はユーザがサッカースタジアムの観客席にカメラを向けているときのリアルタイム映像である。ここでユーザが、ある客が持っている商品260に着目し、(b)に示すようにその近傍を対象にズームインしたとする。 FIG. 11 is a diagram for explaining another example of a content image displayed on the portable terminal 12 by the content image control unit 72 in the event management server 10. As shown in FIG. (a) is a real-time image when the user points the camera at the spectator seats in the soccer stadium. Here, it is assumed that the user focuses on the product 260 held by a certain customer and zooms in on the vicinity thereof as shown in (b).

イベント管理サーバ10が、そのような撮影操作がなされた情報と、その際の撮影画像のデータを取得すると、コンテンツ画像制御部72の照合部90は、ズームイン後の撮影画像を、関連情報記憶部102に登録されている企業や商品の画像と照合する。これにより照合部90は、商品260を製造している企業や商品自体の情報を特定する。図示する例では「AA」なる文字列や、それを囲む矩形の色、パッケージの形状やサイズなどに基づき、商品260が「AAポテト」なるフライドポテトであることを特定する。 When the event management server 10 acquires the information about such a shooting operation and the data of the shot image at that time, the matching unit 90 of the content image control unit 72 stores the zoomed-in shot image in the related information storage unit. The images of companies and products registered in 102 are collated. As a result, the matching unit 90 identifies information about the company that manufactures the product 260 and the product itself. In the illustrated example, based on the character string "AA", the color of the rectangle surrounding it, the shape and size of the package, etc., the product 260 is identified as "AA potato" French fries.

これに応じて画像選択部92は、該当商品に対応づけられたコンテンツ画像を選択する。図示する例では、「AAポテト」の無料クーポンを表す画像262が重畳表示されている。例えばユーザが、携帯端末12の画面上でクーポンの画像262をタップすると、携帯端末12が当該画像を再表示可能な状態でメモリに格納することにより、クーポンが獲得された状態となる。この場合、ユーザが店舗へ出向きクーポンを提示すると、「AAポテト」が進呈される。 In response to this, the image selection unit 92 selects the content image associated with the product. In the illustrated example, an image 262 representing a free coupon for "AA potato" is superimposed. For example, when the user taps the coupon image 262 on the screen of the mobile terminal 12, the mobile terminal 12 stores the image in memory so that it can be displayed again, thereby obtaining the coupon. In this case, when the user goes to the store and presents the coupon, "AA potato" is presented.

なお実物体の撮影により表すコンテンツ画像はクーポンに限らず、関連する企業の情報や当該企業が販売する別の商品の情報、購入のためのGUIなどでもよい。同様のコンテンツ画像は、図2で示したように場内に掲示された看板の撮影によっても実現できる。一方、図11に示すように、他の観客が持っている商品も認識対象としてコンテンツ画像の表示の根拠とすることで多様性が広がり、企業や商品との予想外の出会いを生み出すことができる。また人が食べたり着用したりしている実物を確認できるため、イメージが喚起され販売をより促進できる。 Note that the content image represented by photographing the actual object is not limited to the coupon, and may be information on a related company, information on another product sold by the company, GUI for purchase, or the like. A similar content image can also be realized by photographing a signboard posted in the venue as shown in FIG. On the other hand, as shown in FIG. 11, by using products held by other spectators as the basis for displaying content images as recognition targets, diversity can be expanded and unexpected encounters with companies and products can be generated. . In addition, since it is possible to confirm the actual item that a person is eating or wearing, the image is evoked and sales can be further promoted.

また図示する例では、ユーザによるズームイン操作を、照合やコンテンツ画像表示の契機としたが、ズームアウトや静止画撮影など、その他の撮影操作を契機としてもよい。例えばズームアウト操作時、当該操作によって全体像が見えるようになった実物体がある場合、照合部90は、当該実物体の像を照合の対象としてもよい。また静止画撮影がなされた場合、照合部90はズームイン時と同様に、当該静止画を登録データと照合してもよい。 In the illustrated example, the user's zoom-in operation is used as a trigger for verification and content image display, but other shooting operations such as zoom-out and still image shooting may be used as triggers. For example, when performing a zoom-out operation, if there is a real object whose entire image has become visible due to the operation, the matching unit 90 may use the image of the real object as a target of matching. Also, when a still image is captured, the collating unit 90 may collate the still image with the registered data in the same manner as when zooming in.

図12は、イベント管理サーバ10のコンテンツ画像制御部72が、携帯端末12に表示させるコンテンツ画像の種類と表示契機の設定例を示している。この設定情報は例えば、画像選択部92の内部のメモリにあらかじめ記憶させておく。上述したようにコンテンツ画像は、イベント用コンテンツと販売促進用コンテンツに大別される。 FIG. 12 shows a setting example of the type of content image displayed on the mobile terminal 12 and the display trigger by the content image control unit 72 of the event management server 10 . This setting information is stored in advance in a memory inside the image selection unit 92, for example. As described above, content images are roughly classified into event content and sales promotion content.

前者はユーザの視認性を向上させたり応援感情を喚起したりする画像であり、好適にはユーザが応援しているチームや選手に関連したものに限定する。後者は各種商品の販売を促進する画像であり、好適にはユーザが興味を示したものや、イベントの状況およびユーザの特性に適したものに限定する。ただし図2で示した仮想サイネージの画像200のように、提示する内容によっては、全てのユーザに共通のコンテンツ画像があってもよい。 The former is an image that improves the user's visibility or evokes a feeling of cheering, and is preferably limited to images related to the team or athlete that the user is cheering for. The latter is an image that promotes sales of various products, and is preferably limited to images that the user is interested in, or that are suitable for the event situation and the user's characteristics. However, like the virtual signage image 200 shown in FIG. 2, depending on the content to be presented, there may be a content image common to all users.

図の例ではイベント用コンテンツとして、サッカー等で得点が入った際に、それを祝う仮想的な演出や、得点を入れたチームの関連グッズの割引きクーポンを表示させる設定としている。またユーザと出場者との距離がしきい値以上の期間に、出場者の拡大画像を表示させ、ユーザが出場者を対象にズームイン、あるいは指示した際には、ユーザの視線と異なる方向から当該出場者を表した画像(別視点画像)を表示させる設定としている。 In the example shown in the figure, when a goal is scored in a game such as soccer, the content for the event is set to display a virtual presentation to celebrate and a discount coupon for merchandise related to the team that scored. In addition, when the distance between the user and the contestant is equal to or greater than a threshold value, an enlarged image of the contestant is displayed, and when the user zooms in on the contestant or instructs the contestant, the image can be viewed from a direction different from the user's line of sight. It is set to display an image (another viewpoint image) representing the contestants.

また販売促進用コンテンツとして、ユーザが場内の看板や商品を対象にズームインした際、あるいは天候や温度など環境に所定値以上の変化が生じた際、対応づけられた商品の購入を受け付けるGUIを表示させる設定としている。またユーザが場内の看板や商品を対象にズームインした際、対応づけられた商品の割引きクーポンを表示させる設定としている。ただしこれらの設定は一例に過ぎず、イベントの内容や会場の規模、特性などに応じて最適化する。 In addition, as sales promotion content, when the user zooms in on signboards and products in the hall, or when environmental changes such as weather and temperature exceed a predetermined value, a GUI is displayed to accept the purchase of the associated product. It is set to let In addition, when the user zooms in on a billboard or product in the hall, it is set to display a discount coupon for the associated product. However, these settings are only an example, and are optimized according to the content of the event, the size and characteristics of the venue, and so on.

またコンテンツ画像の表示契機に加え、表示されているコンテンツ画像を非表示とする契機を設定するなど、設定項目は図示するものに限らない。いずれにしろ、ユーザが意図して指示をしたときに限らず、イベントの状況やユーザと出場者との位置や向きの関係などよって適切なコンテンツ画像を臨機応変に表示できるように設定しておく。これによりユーザは、イベントに対する意識が削がれることなく、自然に気分を盛り上げたり、欲しい商品を容易に購入したりできる。 Setting items are not limited to those shown in the drawings, such as setting a trigger to hide the displayed content image in addition to the display trigger of the content image. In any case, settings should be made so that appropriate content images can be displayed flexibly according to the circumstances of the event, the relationship between the positions and orientations of the user and the contestants, and the like, not just when the user intentionally instructs. . As a result, the user can naturally raise their mood and easily purchase the desired product without losing their awareness of the event.

次に、上記構成によって実現できる動作について説明する。図13は、イベント管理サーバ10が携帯端末12に表示させるコンテンツ画像を選択し、送信する処理手順を示すフローチャートである。まずイベント会場においてユーザが、コンテンツ画像の表示を実現するアプリケーションを起動させ、ログインなどの認証作業を行うと、イベント管理サーバ10は、ユーザが入力した情報を取得し、認証処理を行う(S10)。これによりイベント管理サーバ10は、ユーザ情報記憶部100に格納されたユーザの個人情報を参照し、商品の売買手続きなどを円滑に行えるようになる。 Next, operations that can be realized by the above configuration will be described. FIG. 13 is a flow chart showing a processing procedure in which the event management server 10 selects a content image to be displayed on the mobile terminal 12 and transmits it. First, when a user activates an application that realizes display of content images at an event venue and performs authentication such as login, the event management server 10 acquires information input by the user and performs authentication processing (S10). . As a result, the event management server 10 can refer to the user's personal information stored in the user information storage unit 100, and smoothly carry out product sales procedures.

認証が成功すると、イベント管理サーバ10から携帯端末12にその旨が通知されることにより、携帯端末12ではカメラが起動し、リアルタイム映像がディスプレイに表示される。するとイベント管理サーバ10の端末情報取得部70は、当該カメラによる撮影画像のデータやユーザ操作の内容に係る情報などの端末情報の取得を開始する(S12)。これに応じてコンテンツ画像制御部72は、撮影画像と登録データとの照合を開始するとともに(S14)、照合結果に基づくユーザの特性や興味の取得を開始する(S16)。 When the authentication is successful, the event management server 10 notifies the mobile terminal 12 of the fact, and the mobile terminal 12 activates the camera and displays a real-time image on the display. Then, the terminal information acquisition unit 70 of the event management server 10 starts acquiring terminal information such as data of the image captured by the camera and information related to the content of the user's operation (S12). In response to this, the content image control unit 72 starts matching the captured image with the registered data (S14), and starts acquiring the user's characteristics and interests based on the matching result (S16).

ここで登録済みのデータとは、イベント会場の空間構造の3次元データや、出場者、看板、商品を含む実物体のテンプレート画像などである。またユーザの特性や興味とは、ユーザの位置、座席、応援しているチーム、注目している看板や商品などである。ユーザの特性や興味は、撮影画像の照合結果に、ユーザ情報記憶部100に格納されたユーザの個人情報を加味して絞り込んでもよい。撮影画像の照合は上述のとおり、あらかじめ定められたタイミング、あるいは所定のユーザ操作がなされたタイミングなどで随時実施してよい。 Here, the registered data includes three-dimensional data of the spatial structure of the event site, template images of actual objects including contestants, signboards, and products. A user's characteristics and interests include the user's position, seat, team that the user supports, signboards and products that the user pays attention to, and the like. The characteristics and interests of the user may be narrowed down by adding the user's personal information stored in the user information storage unit 100 to the matching result of the photographed image. As described above, the collation of the captured images may be performed at any time, such as at a predetermined timing or at a timing when a predetermined user operation is performed.

そしてコンテンツ画像制御部72は、ユーザの特性や興味に適したコンテンツ画像の選択を開始する(S18)。コンテンツ画像の選択も、ユーザの特性や興味が取得されたことを受けて随時行ってよい。ただし毎回、具体的なコンテンツ画像を決定するのでなく、取得される特性や興味に応じて、コンテンツ画像を段階的に絞り込んでもよい。 Then, the content image control unit 72 starts selecting content images suitable for the user's characteristics and interests (S18). Content images may also be selected at any time in response to acquisition of user characteristics and interests. However, instead of determining specific content images each time, the content images may be narrowed down step by step according to the acquired characteristics and interests.

例えばコンテンツ画像制御部72は、ユーザの座席に基づき応援しているチームを特定したら、まず、当該チームのためのイベント用コンテンツのセットを、選択候補として抽出する。そしてユーザがズームイン操作を行ったり、出場者が得点を入れるなど、具体的なコンテンツ画像を決定できるタイミングが到来したら、コンテンツ画像制御部72は選択候補のなかから、該当選手の拡大画像など、具体的なコンテンツ画像を決定する。 For example, when the content image control unit 72 identifies the team that the user is cheering on based on the user's seat, first, the content image control unit 72 extracts a set of event content for the team as selection candidates. Then, when the user performs a zoom-in operation or the contestant enters a score, etc., and when the timing for determining a specific content image arrives, the content image control unit 72 selects a specific content image, such as an enlarged image of the player, from among the selection candidates. determine the appropriate content image.

コンテンツ画像制御部72は、具体的なコンテンツ画像を選択して表示するタイミングが到来するまで待機し(S20のN)、そのタイミングとなったら(S20のY)、当該コンテンツ画像を生成し(S22)、そのデータを携帯端末12に送信する(S24)。なお同図の例では、コンテンツ画像の表示タイミングにおいて画像の生成および送信をそれぞれ一回のみ行うフローとしているが、本実施の形態をこれに限る主旨ではない。 The content image control unit 72 waits until the timing for selecting and displaying a specific content image arrives (N of S20), and when that timing comes (Y of S20), it generates the content image (S22 ), and transmits the data to the portable terminal 12 (S24). Note that in the example of FIG. 10, the flow is such that image generation and transmission are performed only once at the display timing of the content image, but the gist of the present embodiment is not limited to this.

例えば1つのコンテンツ画像について、生成およびデータ送信を継続的に繰り返してもよい。この場合、コンテンツ画像を非表示とするタイミングをさらに判定することで、それらの処理を終了させてもよい。また図示を省略しているが、コンテンツ画像として携帯端末12に表示された、商品購入のためのGUIに対し購入操作がなされた場合、イベント管理サーバ10は上述のとおり売買処理を実行してよい。 For example, generation and data transmission may be continuously repeated for one content image. In this case, those processes may be terminated by further determining the timing to hide the content image. Also, although illustration is omitted, when a purchase operation is performed on a GUI for purchasing a product displayed on the portable terminal 12 as a content image, the event management server 10 may execute the trading process as described above. .

以後、コンテンツ画像制御部72は、適切なタイミングでコンテンツ画像を選択してデータを生成し、送信する処理を繰り返す(S26のN、S20~S24)。ユーザがアプリケーションを終了させるなど、コンテンツ画像に係る処理を停止させる必要が生じたら、イベント管理サーバ10は当該処理を終了させる(S26のY)。 After that, the content image control unit 72 repeats the process of selecting a content image at an appropriate timing, generating data, and transmitting the data (N of S26, S20 to S24). When it becomes necessary to stop the processing related to the content image, such as when the user terminates the application, the event management server 10 terminates the processing (Y of S26).

以上述べた本実施の形態によれば、イベント管理サーバは、イベントに来場したユーザが携帯する端末に表示される実空間のリアルタイム映像に重畳表示させるコンテンツ画像を制御する。ここでイベント管理サーバは、携帯端末が撮影した画像を収集し、それに基づきユーザの特性や興味を推定することで、表示させるコンテンツ画像を最適化する。これによりユーザは、余計なコンテンツ画像に煩わされることなく、イベントとともに各種演出を楽しんだり提示情報を容易に利用したりできる。 According to the present embodiment described above, the event management server controls the content image to be displayed superimposed on the real-space real-time video displayed on the terminal carried by the user who has come to the event. Here, the event management server collects images captured by the mobile terminal and estimates the characteristics and interests of the user based on the images, thereby optimizing the content images to be displayed. As a result, the user can enjoy various presentations along with the event and easily use the presented information without being bothered by unnecessary content images.

また、イベント会場の空間構造の3次元データを撮影画像と照合することにより、ユーザの位置や座席を特定する。元来コンテンツ画像をARで表現する際に必要な3次元データを利用することにより、ARの技術との親和性が高くなり、低い導入障壁での実現が可能である。 In addition, by comparing the three-dimensional data of the spatial structure of the event site with the photographed image, the position and seat of the user are specified. By using the three-dimensional data that is originally necessary when expressing content images with AR, affinity with AR technology is increased, and realization with a low introduction barrier is possible.

さらに、ユーザがメニューや画像を明確に指示せずとも、ズームインなどの撮影操作がなされたり、ユーザと出場者の位置や向きの関係、イベントの状況、環境などに変化が生じたりした好適なタイミングで、適切なコンテンツ画像を選択し表示させる。これによりユーザは、イベントを見逃すことなく所望の情報や画像へアクセスでき、携帯端末を介したサービス利用の機会を増やすことができる。 In addition, even if the user does not clearly instruct the menu or the image, a shooting operation such as zooming in is performed, the relationship between the position and orientation of the user and the contestants, the situation of the event, the environment, etc. to select and display an appropriate content image. As a result, the user can access desired information and images without missing an event, and can increase opportunities to use services via the mobile terminal.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. It should be understood by those skilled in the art that the above embodiments are merely examples, and that various modifications can be made to combinations of each component and each treatment process, and that such modifications are within the scope of the present invention. be.

1 イベント管理システム、 10 イベント管理サーバ、 12 携帯端末、 14 仮想店舗管理サーバ、 16 実店舗管理サーバ、 23 CPU、 26 メインメモリ、 32 通信部、 50 CPU、 52 メインメモリ、 54 表示部、 60 通信部、 62 モーションセンサ、 64 カメラ、 66 位置取得部、 70 端末情報取得部、 72 コンテンツ画像制御部、 74 売買処理部、 76 情報記憶部、 78 出場者状態情報取得部、 80 イベント状況情報取得部、 82 画像データ送信部、 90 照合部、 92 画像選択部、 94 画像生成部、 110 操作受付部、 111 撮影部、 112 端末情報送信部、 114 状態情報取得部、 116 画像データ受信部、 118 表示部、 120 個人情報記憶部、 122 画像データ記憶部。 1 event management system 10 event management server 12 portable terminal 14 virtual store management server 16 actual store management server 23 CPU 26 main memory 32 communication section 50 CPU 52 main memory 54 display section 60 communication 62 motion sensor 64 camera 66 position acquisition unit 70 terminal information acquisition unit 72 content image control unit 74 trading processing unit 76 information storage unit 78 contestant status information acquisition unit 80 event status information acquisition unit , 82 image data transmission unit, 90 verification unit, 92 image selection unit, 94 image generation unit, 110 operation reception unit, 111 photographing unit, 112 terminal information transmission unit, 114 status information acquisition unit, 116 image data reception unit, 118 display Section 120 Personal Information Storage Section 122 Image Data Storage Section.

Claims (19)

イベントの会場に来場したユーザが保持する端末による撮影画像のデータを取得する端末情報取得部と、
登録データと前記撮影画像とを照合することによりユーザの特性を取得し、当該特性に応じて、前記端末に表示すべきコンテンツ画像を選択するコンテンツ画像制御部と、
選択された前記コンテンツ画像のデータを前記端末に送信し表示させる画像データ送信部と、
を備えたことを特徴とするイベント管理サーバシステム。
a terminal information acquisition unit that acquires data of an image captured by a terminal held by a user who has visited the venue of the event;
a content image control unit that acquires characteristics of a user by matching the registered data with the photographed image, and selects a content image to be displayed on the terminal according to the characteristics;
an image data transmission unit configured to transmit data of the selected content image to the terminal for display;
An event management server system comprising:
イベント会場の空間構造の3次元データを格納する空間情報記憶部をさらに備え、
前記コンテンツ画像制御部は、前記撮影画像を前記空間構造と照合することにより、ユーザの座席のカテゴリを取得することを特徴とする請求項1に記載のイベント管理サーバシステム。
further comprising a spatial information storage unit for storing three-dimensional data of the spatial structure of the event venue;
2. The event management server system according to claim 1, wherein the content image control unit acquires the seat category of the user by matching the captured image with the spatial structure.
前記コンテンツ画像制御部は、前記イベントとして試合をしているチームのうちユーザが応援しているチームを、前記座席のカテゴリに基づき特定することを特徴とする請求項2に記載のイベント管理サーバシステム。 3. The event management server system according to claim 2, wherein the content image control unit identifies a team supported by the user among the teams playing the event as the event based on the seat category. . 前記コンテンツ画像制御部は、前記空間構造に配置された仮想オブジェクトとして前記コンテンツ画像を生成し、
前記画像データ送信部は、前記空間構造の3次元データに対する前記仮想オブジェクトの位置情報を前記コンテンツ画像のデータに含めて送信することにより、前記端末に表示中の前記撮影画像における対応する位置に、前記仮想オブジェクトの像を重畳表示させることを特徴とする請求項2または3に記載のイベント管理サーバシステム。
The content image control unit generates the content image as a virtual object arranged in the spatial structure,
The image data transmission unit includes the position information of the virtual object with respect to the three-dimensional data of the spatial structure in the data of the content image and transmits the corresponding position in the captured image being displayed on the terminal. 4. The event management server system according to claim 2, wherein an image of said virtual object is superimposed and displayed.
前記空間情報記憶部は、複数のパターンで前記空間構造のデータを格納し、
前記コンテンツ画像制御部は、所定の規則に則り前記照合に用いる前記空間構造のデータを切り替えることを特徴とする請求項2から4のいずれかに記載のイベント管理サーバシステム。
the spatial information storage unit stores data of the spatial structure in a plurality of patterns;
5. The event management server system according to any one of claims 2 to 4, wherein the content image control unit switches the data of the spatial structure used for the matching according to a predetermined rule.
前記端末情報取得部は、前記撮影画像のズーム倍率を変更するユーザ操作の情報をさらに取得し、
前記コンテンツ画像制御部は、前記ズーム倍率を変更するユーザ操作がなされたことを契機として、前記コンテンツ画像を選択することを特徴とする請求項1から5のいずれかに記載のイベント管理サーバシステム。
The terminal information acquisition unit further acquires information on a user operation for changing the zoom magnification of the captured image,
6. The event management server system according to any one of claims 1 to 5, wherein the content image control unit selects the content image when a user operation to change the zoom magnification is performed.
前記端末情報取得部は、前記端末に表示中の前記撮影画像のいずれかの像を指示するユーザ操作の情報をさらに取得し、
前記コンテンツ画像制御部は、指示された像に対応する前記コンテンツ画像を選択することを特徴とする請求項1から6のいずれかに記載のイベント管理サーバシステム。
The terminal information acquisition unit further acquires information of a user operation indicating one of the captured images being displayed on the terminal,
7. The event management server system according to claim 1, wherein said content image control section selects said content image corresponding to the designated image.
前記コンテンツ画像制御部は、前記照合によりユーザが注目している被写体を特定し、当該被写体に対応する前記コンテンツ画像を選択することを特徴とする請求項1から7のいずれかに記載のイベント管理サーバシステム。 8. The event management according to any one of claims 1 to 7, wherein the content image control unit identifies a subject that the user is paying attention to by the collation, and selects the content image corresponding to the subject. server system. 前記イベント会場における、出場者の位置を含む状態情報を取得する出場者状態情報取得部をさらに備え、
前記コンテンツ画像制御部は、ユーザと前記出場者の位置関係に応じて、前記コンテンツ画像を変化させることを特徴とする請求項1から8のいずれかに記載のイベント管理サーバシステム。
Further comprising a contestant state information acquisition unit that acquires state information including the positions of contestants at the event venue,
9. The event management server system according to any one of claims 1 to 8, wherein the content image control section changes the content image according to the positional relationship between the user and the contestants.
前記コンテンツ画像制御部は、前記コンテンツ画像として、前記出場者の様子を表す拡大画像を選択し、前記位置関係に応じて、当該拡大画像の拡大率を変化させることを特徴とする請求項9に記載のイベント管理サーバシステム。 10. The content image control unit, as the content image, selects an enlarged image representing the state of the contestant, and changes an enlargement ratio of the enlarged image according to the positional relationship. The described event management server system. 前記コンテンツ画像制御部は、前記コンテンツ画像として、前記位置関係に基づき決定した、ユーザの視点と異なる仮想視点から見た前記出場者の様子を表す画像を選択することを特徴とする請求項9または10に記載のイベント管理サーバシステム。 10. The content image control unit selects, as the content image, an image representing the appearance of the contestant viewed from a virtual viewpoint different from the user's viewpoint, which is determined based on the positional relationship. 11. The event management server system according to 10. 前記イベントの状況を取得するイベント状況情報取得部をさらに備え、
前記コンテンツ画像制御部は、前記イベントの状況に応じて前記コンテンツ画像の内容を変化させることを特徴とする請求項1から11のいずれかに記載のイベント管理サーバシステム。
further comprising an event status information acquisition unit that acquires the status of the event;
12. The event management server system according to any one of claims 1 to 11, wherein said content image control section changes the content of said content image according to the situation of said event.
前記コンテンツ画像制御部は、前記コンテンツ画像として、関連商品の割引きクーポンの画像を選択するとともに、前記イベントの状況に応じて、当該割引きクーポンが示す割引き率を変化させることを特徴とする請求項12に記載のイベント管理サーバシステム。 12. The content image control unit selects an image of a discount coupon for a related product as the content image, and changes the discount rate indicated by the discount coupon according to the status of the event. The event management server system described in . 前記コンテンツ画像制御部は、前記コンテンツ画像として、前記イベントの状況に応じた仮想的な演出を表す画像を選択することを特徴とする請求項12または13に記載のイベント管理サーバシステム。 14. The event management server system according to claim 12, wherein the content image control unit selects an image representing a virtual effect corresponding to the situation of the event as the content image. 前記コンテンツ画像制御部は前記コンテンツ画像として、前記撮影画像に写る被写体に関連する商品に係る情報を表す画像を選択することを特徴とする請求項1から14のいずれかに記載のイベント管理サーバシステム。 15. The event management server system according to any one of claims 1 to 14, wherein said content image control unit selects, as said content image, an image representing information related to a product related to a subject appearing in said photographed image. . 前記コンテンツ画像制御部は、前記登録データに対応する看板または商品を前記撮影画像から検出することにより、前記関連する商品を決定することを特徴とする請求項15に記載のイベント管理サーバシステム。 16. The event management server system according to claim 15, wherein the content image control unit determines the related product by detecting a signboard or product corresponding to the registration data from the photographed image. 前記コンテンツ画像制御部は、前記関連する商品の購入を受け付けるコンテンツ画像を選択し、
前記端末情報取得部は、前記端末においてなされた、前記関連する商品の購入操作の情報をさらに取得し、
前記イベント管理サーバシステムは、
前記端末とユーザの個人情報の対応情報を格納するユーザ情報記憶部と、
前記端末において前記購入操作がなされた際、当該端末に対応づけられた前記個人情報を取得することにより売買手続きを実現する売買処理部と、
をさらに備えたことを特徴とする請求項15または16に記載のイベント管理サーバシステム。
The content image control unit selects a content image for accepting purchase of the related product,
The terminal information acquisition unit further acquires information on the purchase operation of the related product performed at the terminal,
The event management server system is
a user information storage unit that stores correspondence information of the personal information of the terminal and the user;
a trading processing unit that realizes a trading procedure by acquiring the personal information associated with the terminal when the purchase operation is performed on the terminal;
17. The event management server system according to claim 15 or 16, further comprising:
イベントの会場に来場したユーザが保持する端末による撮影画像のデータを取得するステップと、
登録データと前記撮影画像とを照合することによりユーザの特性を取得し、当該特性に応じて、前記端末に表示すべきコンテンツ画像を選択するステップと、
選択された前記コンテンツ画像のデータを前記端末に送信し表示させるステップと、
を含むことを特徴とする、イベント管理サーバシステムによるコンテンツ画像制御方法。
a step of acquiring data of an image captured by a terminal held by a user who has visited the venue of the event;
a step of acquiring characteristics of a user by matching the registered data with the photographed image, and selecting a content image to be displayed on the terminal according to the characteristics;
a step of transmitting data of the selected content image to the terminal for display;
A content image control method by an event management server system, comprising:
イベントの会場に来場したユーザが保持する端末による撮影画像のデータを取得する機能と、
登録データと前記撮影画像とを照合することによりユーザの特性を取得し、当該特性に応じて、前記端末に表示すべきコンテンツ画像を選択する機能と、
選択された前記コンテンツ画像のデータを前記端末に送信し表示させる機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function to acquire image data captured by a terminal held by a user who has visited the venue of the event;
a function of acquiring characteristics of a user by matching registered data with the captured image, and selecting a content image to be displayed on the terminal according to the characteristics;
a function of transmitting data of the selected content image to the terminal for display;
A computer program characterized by causing a computer to implement
JP2021213191A 2021-12-27 2021-12-27 Event management server system and content image control method Pending JP2023097056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021213191A JP2023097056A (en) 2021-12-27 2021-12-27 Event management server system and content image control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021213191A JP2023097056A (en) 2021-12-27 2021-12-27 Event management server system and content image control method

Publications (1)

Publication Number Publication Date
JP2023097056A true JP2023097056A (en) 2023-07-07

Family

ID=87005740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021213191A Pending JP2023097056A (en) 2021-12-27 2021-12-27 Event management server system and content image control method

Country Status (1)

Country Link
JP (1) JP2023097056A (en)

Similar Documents

Publication Publication Date Title
KR101894021B1 (en) Method and device for providing content and recordimg medium thereof
US10948982B2 (en) Methods and systems for integrating virtual content into an immersive virtual reality world based on real-world scenery
US11694280B2 (en) Systems/methods for identifying products for purchase within audio-visual content utilizing QR or other machine-readable visual codes
US20190030441A1 (en) Using a Portable Device to Interface with a Scene Rendered on a Main Display
US10272340B2 (en) Media system and method
CN110019600B (en) Map processing method, map processing device and storage medium
US20180374267A1 (en) Method and System to Enhance Spectator Experience
US20090327073A1 (en) Intelligent advertising display
CN101273368A (en) Interactivity via mobile image recognition
US9600781B2 (en) Enhanced seat selection
US11302038B2 (en) System and method for generating an augmented reality experience
US20110170747A1 (en) Interactivity Via Mobile Image Recognition
US12008672B2 (en) Systems and methods for delivering augmented reality content
US11972450B2 (en) Spectator and participant system and method for displaying different views of an event
US20210342886A1 (en) Virtual Advertising Database with Command Input Data
US20230162433A1 (en) Information processing system, information processing method, and information processing program
US20210248645A1 (en) Advertising via a live event wagering platform
US20150106200A1 (en) Enhancing a user's experience by providing related content
US11461974B2 (en) System and method for creating geo-located augmented reality communities
JP2022011070A (en) Event management server system, event management system, and event management method
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
JP2023097056A (en) Event management server system and content image control method
KR102561198B1 (en) Platform system usiing contents, method for manufacturing image output based on augmented reality
JP2023002237A (en) System, computer program and remote supporting system
US20240311849A1 (en) Computerized method and system for generating a commemorative item

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240610