[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7458363B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7458363B2
JP7458363B2 JP2021200357A JP2021200357A JP7458363B2 JP 7458363 B2 JP7458363 B2 JP 7458363B2 JP 2021200357 A JP2021200357 A JP 2021200357A JP 2021200357 A JP2021200357 A JP 2021200357A JP 7458363 B2 JP7458363 B2 JP 7458363B2
Authority
JP
Japan
Prior art keywords
guide
user
image
unit
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021200357A
Other languages
Japanese (ja)
Other versions
JP2023086000A (en
Inventor
紗記子 西
磨翁 西
みゆき 大島
愛 友成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021200357A priority Critical patent/JP7458363B2/en
Publication of JP2023086000A publication Critical patent/JP2023086000A/en
Application granted granted Critical
Publication of JP7458363B2 publication Critical patent/JP7458363B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、被写体(撮影対象)を異なる視点で撮像した複数の画像である多視点画像(自由視点画像)を生成する技術が提供されている(例えば特許文献1参照)。 2. Description of the Related Art Conventionally, a technique has been provided for generating multi-view images (free-view images), which are a plurality of images of a subject (photographing target) taken from different viewpoints (see, for example, Patent Document 1).

特開2016-119513号公報Japanese Patent Application Publication No. 2016-119513

しかしながら、上述した従来技術では、多視点画像を用いたサービスの提供が十分であるとは言えない場合がある。例えば、上述した従来技術では、ユーザに多視点画像を活用させているものの、多視点画像を用いたサービス提供の質については改善の余地がある。 However, the above-described conventional technology may not be able to provide sufficient services using multi-view images. For example, although the above-mentioned conventional technology allows users to utilize multi-view images, there is room for improvement in the quality of service provision using multi-view images.

本願は、上記に鑑みてなされたものであって、多視点画像を用いたサービス提供の質をより向上させることを目的とする。 The present application has been made in view of the above, and aims to further improve the quality of service provision using multi-view images.

本願に係る情報処理装置は、多視点画像を撮影する際に、被写体のポーズ及び所持品の撮影時の構図を示す撮影ガイドを画面に表示するガイド表示部と、撮影時の視点を移動する度に、前記画面に表示された前記撮影ガイドの形態その時点の視点に応じて自動的に変更するガイド変更部と、被写体のポーズ及び所持品が前記撮影ガイドに一致していると判定した場合、自動的に撮影する撮影判定部と、を備えることを特徴とする。 The information processing device according to the present application includes a guide display unit that displays a shooting guide on the screen that indicates the pose of the subject and the composition of the belongings at the time of shooting when shooting a multi-view image, and a guide display unit that displays a shooting guide on the screen that shows the pose of the subject and the composition at the time of shooting the object, and every time the viewpoint during shooting is moved. a guide changing unit that automatically changes the form of the photography guide displayed on the screen according to the viewpoint at that time ; and when it is determined that the subject's pose and belongings match the photography guide. , and a shooting determination unit that automatically shoots images .

実施形態の一態様によれば、多視点画像を用いたサービス提供の質をより向上させることができる。 According to one aspect of the embodiment, the quality of service provision using multi-view images can be further improved.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. 図2は、撮影ガイドの表示の概要を示す説明図である。FIG. 2 is an explanatory diagram showing an outline of the display of the photographing guide. 図3は、撮影モデルの顔画像の置換の概要を示す説明図である。FIG. 3 is an explanatory diagram showing an overview of replacement of a face image of a photographed model. 図4は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図5は、実施形態に係る端末装置の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図6は、実施形態に係る情報提供装置の構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of an information providing device according to an embodiment. 図7は、利用者情報データベースの一例を示す図である。FIG. 7 is a diagram showing an example of a user information database. 図8は、履歴情報データベースの一例を示す図である。FIG. 8 is a diagram showing an example of a history information database. 図9は、画像情報データベースの一例を示す図である。FIG. 9 is a diagram showing an example of an image information database. 図10は、実施形態に係る処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a processing procedure according to the embodiment. 図11は、ハードウェア構成の一例を示す図である。FIG. 11 is a diagram showing an example of the hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、多視点画像を用いたサービス提供を行う場合を例に挙げて説明する。
[1. Overview of information processing method]
First, an overview of an information processing method performed by an information processing device according to an embodiment will be described with reference to Fig. 1. Fig. 1 is an explanatory diagram showing an overview of the information processing method according to an embodiment. Note that Fig. 1 will be described by taking as an example a case where a service is provided using multi-view images.

図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、ネットワークN(図4参照)を介して有線又は無線で互いに通信可能に接続される。本実施形態では、端末装置10は、情報提供装置100と連携する。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and an information providing device 100. The terminal device 10 and the information providing device 100 are connected to be able to communicate with each other by wire or wirelessly via a network N (see FIG. 4). In this embodiment, the terminal device 10 cooperates with the information providing device 100.

端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 The terminal device 10 is a smart device such as a smartphone or a tablet used by a user U (user), and can communicate with any server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). This is a mobile terminal device that can perform Further, the terminal device 10 has a screen such as a liquid crystal display, which has a touch panel function, and displays data such as content through the user U's finger, stylus, etc., such as a tap operation, a slide operation, a scroll operation, etc. Accepts various operations on. Note that an operation performed on an area of the screen where content is displayed may be an operation on the content. Further, the terminal device 10 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC.

情報提供装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。 The information providing device 100 is an information processing device that cooperates with the terminal device 10 of each user U and provides API (Application Programming Interface) services for various applications (hereinafter, apps) and various data to the terminal device 10 of each user U, and is realized by a server device, a cloud system, etc.

また、情報提供装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、情報提供装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引(EC:Electronic Commerce)、ファッションコーディネート(ファッションアイテムを着用した写真(静止画)や動画)が投稿される投稿サイト、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、情報提供装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 Further, the information providing device 100 may be an information processing device that provides some kind of web service online to the terminal device 10 of each user U. For example, the information providing device 100 provides web services such as Internet connection, search service, SNS (Social Networking Service), electronic commerce (EC), and fashion coordination (photos (still images) and videos of people wearing fashion items). Services such as posting sites, electronic payments, online games, online banking, online trading, accommodation/ticket reservations, video/music distribution, news, maps, route searches, route guidance, route information, service information, weather forecasts, etc. may be provided. In reality, the information providing apparatus 100 may cooperate with various servers that provide the above-mentioned Web services, mediate the Web services, or may be in charge of processing the Web services.

なお、情報提供装置100は、利用者Uに関する利用者情報を取得可能である。例えば、情報提供装置100は、利用者Uの性別、年代、居住地域といった利用者Uの属性に関する情報を取得する。そして、情報提供装置100は、利用者Uを示す識別情報(利用者ID等)とともに利用者Uの属性に関する情報を記憶して管理する。 Note that the information providing device 100 can acquire user information regarding the user U. For example, the information providing device 100 acquires information regarding attributes of the user U, such as the user's U's gender, age, and area of residence. Then, the information providing device 100 stores and manages information regarding attributes of the user U along with identification information indicating the user U (user ID, etc.).

また、情報提供装置100は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、情報提供装置100は、利用者Uの位置や日時の履歴である位置履歴を端末装置10から取得する。また、情報提供装置100は、利用者Uが入力した検索クエリの履歴である検索履歴を検索サーバ(検索エンジン)や電子商取引サーバや投稿サーバから取得する。また、情報提供装置100は、利用者Uが閲覧したコンテンツや商品(ファッションアイテム)の履歴である閲覧履歴をコンテンツサーバや電子商取引サーバや投稿サーバから取得する。また、情報提供装置100は、利用者Uが購入や決済したコンテンツや商品(ファッションアイテム)の履歴である購入履歴(決済履歴)を電子商取引サーバや決済処理サーバから取得する。また、情報提供装置100は、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴を電子商取引サーバや決済処理サーバから取得してもよい。また、情報提供装置100は、利用者Uが投稿したファッションコーディネート(ファッションアイテム)の履歴である投稿履歴や閲覧者が支持(いいね)したファッションコーディネート(ファッションアイテム)の履歴である支持履歴を投稿サーバやSNSサーバから取得する。 Further, the information providing device 100 acquires various kinds of history information (log data) indicating the behavior of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. For example, the information providing device 100 acquires a location history, which is a history of the user U's location, date and time, from the terminal device 10. Further, the information providing device 100 acquires a search history, which is a history of search queries input by the user U, from a search server (search engine), an electronic commerce server, and a posting server. Further, the information providing device 100 acquires a viewing history, which is a history of contents and products (fashion items) viewed by the user U, from a content server, an electronic commerce server, and a posting server. Further, the information providing device 100 acquires a purchase history (payment history), which is a history of contents and products (fashion items) purchased and paid for by the user U, from an electronic commerce server and a payment processing server. Further, the information providing device 100 may acquire the listing history and the sales history, which are the listing history of the user U on the marketplace, from the electronic commerce server or the payment processing server. In addition, the information providing device 100 posts a posting history that is a history of fashion coordinations (fashion items) posted by the user U and a support history that is a history of fashion coordinations (fashion items) that were liked (liked) by the viewer. Obtain from server or SNS server.

本実施形態では、情報提供装置100は、ユーザのファッションの嗜好に関するファッション情報に基づき、ファッションアイテム(服、装飾品、鞄、靴、帽子等)とその付加情報との組合せを画像解析とAI(Artificial Intelligence:人工知能)によって決定し、適切な位置に表示する。ここでは、情報提供装置100は、画像解析により画像に含まれるファッションアイテムを特定し、そのファッションアイテムに対応するアノテーションタグ(以下、タグ)を付与する。なお、タグを付与するとは、タグ付けの対象の近傍の適当な位置にタグを表示することを示す。例えば、情報提供装置100は、投稿サイトやSNSに投稿するための写真や動画としてユーザがファッションアイテムを着用して自身を撮影した画像、あるいはそのように撮影・投稿された他のユーザの画像において、ファッションアイテムに対応するタグを付与する。 In this embodiment, the information providing device 100 determines a combination of fashion items (clothes, accessories, bags, shoes, hats, etc.) and their additional information based on fashion information related to the user's fashion preferences using image analysis and AI (Artificial Intelligence), and displays them in an appropriate position. Here, the information providing device 100 identifies fashion items contained in an image using image analysis, and assigns annotation tags (hereinafter, tags) corresponding to the fashion items. Note that assigning a tag means displaying the tag in an appropriate position near the tagging target. For example, the information providing device 100 assigns tags corresponding to fashion items to images taken by a user wearing fashion items as photos or videos to be posted on a posting site or SNS, or to images taken and posted in this manner by other users.

例えば、情報提供装置100は、そのファッションアイテムの詳細情報を表示したタグを付与する。また、情報提供装置100は、そのファッションアイテムの商品ページ(販売ページ/購入ページ/広告ページ等)、又はそのファッションアイテムに関連する他のファッションアイテム(一緒に購入されることが多い商品、同一ブランドの商品等)の商品ページへ案内するタグを付与してもよい。 For example, the information providing device 100 may assign a tag that displays detailed information about the fashion item. The information providing device 100 may also assign a tag that guides the user to the product page (sales page/purchase page/advertising page, etc.) of the fashion item, or to the product pages of other fashion items related to the fashion item (products that are often purchased together, products of the same brand, etc.).

また、情報提供装置100は、ファッションアイテムに合わせて、特徴的なタグを付与してもよい。例えば、情報提供装置100は、ファッションアイテムとの色相環的な相性度が高いタグを付与する。あるいは、投稿サイトやSNSでの閲覧者による支持率(いいね率)が高くなると推定されるタグを付与する。あるいは、閲覧者によるファッションアイテムの購入率が高くなると推定されるタグを付与する。これにより、閲覧者によるファッションアイテムの購入を促進することができる。 Further, the information providing device 100 may add a characteristic tag to the fashion item. For example, the information providing device 100 assigns a tag that has a high degree of compatibility with a fashion item on the color wheel. Alternatively, a tag is added that is estimated to have a high support rate (like rate) among viewers on posting sites and SNS. Alternatively, tags that are estimated to increase the purchase rate of fashion items by viewers are added. This can encourage viewers to purchase fashion items.

ユーザのファッションの嗜好に関するファッション情報は、各利用者Uの属性情報や履歴情報等から取得可能である。また、ファッション情報は、利用者Uが着用するファッションアイテムや利用者Uが閲覧したファッションアイテムに関する情報(ファッションアイテム情報)を含む。本実施形態では、ファッション情報は、ファッション通販サイト(例えば「ZOZOTOWN」(登録商標))等の電子商取引サイトやファッションコーディネート投稿サイト(例えば「WEAR」(登録商標))での行動情報(検索、選択、閲覧、購入、投稿)を含む。また、ファッション情報は、利用者Uが検索、閲覧、購入、所有、投稿等をしたファッションアイテムに関する情報(ファッションアイテム情報)を含む。 Fashion information regarding the user's fashion preferences can be obtained from each user U's attribute information, history information, and the like. Furthermore, the fashion information includes information regarding fashion items worn by the user U and fashion items viewed by the user U (fashion item information). In the present embodiment, fashion information is behavioral information (search, selection, , viewing, purchasing, posting). Furthermore, the fashion information includes information (fashion item information) regarding fashion items searched for, viewed, purchased, owned, posted, etc. by the user U.

ユーザのファッションの嗜好は、本システムとアカウントを連結している(又は本システムの一部である)ファッション通販サイト等の電子商取引サイトやファッションコーディネート投稿サイト等の様々な履歴情報(ログデータ)を基に算出/推定するロジックにより決定される。例えば、情報提供装置100は、ユーザがファッション通販サイトで購入した服(ユーザ情報とマッチする服を着ている服と定義)や閲覧した服から、「服とタグとの組合せ」を算出/推定し、服との組合せに最適なタグを付与する。また、情報提供装置100は、ユーザがファッションコーディネート投稿サイトで閲覧した服から、「服とタグとの組合せ」を算出/推定し、服との組合せに最適なタグを付与する。 The user's fashion preferences are based on various historical information (log data) from e-commerce sites such as fashion mail order sites and fashion coordination posting sites that connect accounts with this system (or are part of this system). It is determined by the logic that calculates/estimates based on the For example, the information providing device 100 calculates/estimates a "combination of clothes and tags" from clothes that the user has purchased from a fashion mail order site (defined as clothes worn by the user that match the user information) and clothes that the user has viewed. and attach tags that are ideal for pairing with clothing. Further, the information providing device 100 calculates/estimates the "combination of clothes and tags" from the clothes that the user has viewed on the fashion coordination posting site, and assigns the optimal tag to the combination with the clothes.

また、情報提供装置100は、ファッション情報に加えて、ユーザの生活行動・習慣や気分等の情報に基づき、タグを付与してもよい。すなわち、情報提供装置100は、同じファッションアイテムであっても、閲覧するユーザごとにタグの内容や形態を変更してもよい。 Furthermore, in addition to fashion information, the information providing device 100 may add tags based on information such as the user's daily activities, habits, and mood. That is, the information providing device 100 may change the content and form of the tag for each user viewing the same fashion item.

本実施形態では、情報提供装置100は、ファッションコーディネート投稿サイト(例えば「WEAR」(登録商標))のようなファッション写真(画像)を撮影して投稿するサービスにおいて、ファッションアイテム(服、装飾品、鞄、靴、帽子等)にタグ付けする。例えば、タグ付けとして、ファッション通販サイト(例えば「ZOZOTOWN」(登録商標))等の電子商取引サイトの商品ページとの関係性を設定する。タグは写真に重畳して表示される。タグをクリックすると、ファッション通販サイト(例えば「ZOZOTOWN」(登録商標))等の電子商取引サイトでその商品(ファッションアイテム)を販売する商品ページに遷移する。 In the present embodiment, the information providing device 100 provides fashion items (clothes, accessories, tags (bags, shoes, hats, etc.). For example, as tagging, a relationship with a product page of an electronic commerce site such as a fashion mail order site (for example, "ZOZOTOWN" (registered trademark)) is set. The tag will be displayed superimposed on the photo. When a tag is clicked, a transition is made to a product page where the product (fashion item) is sold on an electronic commerce site such as a fashion mail order site (for example, "ZOZOTOWN" (registered trademark)).

また、情報提供装置100は、ファッションコーディネート投稿サイト(例えば「WEAR」(登録商標))において、多視点画像で表示する。例えば、情報提供装置100は、ファッションコーディネート投稿サイト(例えば「WEAR」(登録商標))において、クリック又はスクロールして写真(画像)が表示されると、自動的に/経時的に/ユーザの操作に応じて、視点が異なる画像に切り替わるようにする。 In addition, the information providing device 100 displays images from multiple viewpoints on a fashion coordination posting site (e.g., "WEAR" (registered trademark)). For example, when a photo (image) is displayed by clicking or scrolling on a fashion coordination posting site (e.g., "WEAR" (registered trademark)), the information providing device 100 automatically/over time/in response to a user operation switches to an image with a different viewpoint.

〔1-1.アノテーションタグ〕
本実施形態では、情報提供装置100は、多視点画像内の撮影対象にアノテーション(注釈)のタグを付与するときに、多視点画像の各視点の画像から同一注視点(タグ付けの対象)を検出して、その同一注視点の近傍にタグを設定して表示する。
[1-1. Annotation tags]
In this embodiment, when the information providing device 100 assigns an annotation tag to a subject in a multi-view image, it detects the same gaze point (the subject to be tagged) from each viewpoint image of the multi-view image, and sets and displays a tag near that same gaze point.

図1に示すように、情報提供装置100は、ネットワークN(図4参照)を介して、投稿者である利用者Uの端末装置10から、多視点画像を取得する(ステップS1)。例えば、情報提供装置100は、ネットワークN(図4参照)を介して、投稿者である利用者Uの端末装置10から、多視点画像の作成に用いられる様々な視点から撮影された各画像を取得する。図1では、画像内において、被撮影者(撮影モデル)をM、撮影対象のバッグをB、タグをTとして示す。 As shown in FIG. 1, the information providing device 100 acquires a multi-view image from the terminal device 10 of the user U who is the poster via the network N (see FIG. 4) (step S1). For example, the information providing device 100 receives images taken from various viewpoints used to create a multi-view image from the terminal device 10 of the user U who is the poster, via the network N (see FIG. 4). get. In FIG. 1, the person to be photographed (photographed model) is shown as M, the bag to be photographed is shown as B, and the tag is shown as T in the image.

次に、情報提供装置100は、取得された全ての画像について画像認識(Image Recognition)又は機械学習を行い、撮影対象を認識して特定・分類する(ステップS2)。例えば、情報提供装置100は、各画像に含まれる撮影対象を特定して、カテゴリ別に分類する。撮影対象は、複数であってもよい。 Next, the information providing apparatus 100 performs image recognition or machine learning on all the acquired images to recognize, identify, and classify the photographic subject (step S2). For example, the information providing apparatus 100 identifies the photographic subject included in each image and classifies it by category. There may be a plurality of objects to be photographed.

次に、情報提供装置100は、多視点画像内の撮影対象の位置(画像内の位置)を推定する(ステップS3)。本実施形態では、情報提供装置100は、多視点画像を構成する画像ごとに(各視点の画像ごとに)、各画像に含まれる撮影対象の3次元的な位置を推定(又は特定)する。撮影対象の3次元的な位置は、画像内の座標等の絶対位置であってもよいし、基準点や他の撮像対象からの相対位置であってもよい。また、3次元的な位置は一例に過ぎない。 Next, the information providing apparatus 100 estimates the position of the object to be photographed within the multi-view image (position within the image) (step S3). In the present embodiment, the information providing apparatus 100 estimates (or specifies) the three-dimensional position of the photographic target included in each image (for each viewpoint image) constituting the multi-view image. The three-dimensional position of the object to be imaged may be an absolute position such as coordinates within an image, or may be a relative position from a reference point or another object to be imaged. Further, the three-dimensional position is only an example.

次に、情報提供装置100は、投稿者又は閲覧者である利用者Uから、多視点画像内の3次元的な位置が推定された撮影対象(アノテーション対象の候補)のうち、タグ付けの対象(アノテーション対象)の選択を受け付ける(ステップS4)。例えば、情報提供装置100は、投稿者又は閲覧者である利用者Uの端末装置10から、ネットワークN(図4参照)を介して、タグ付けの対象(アノテーション対象)となる商品(ファッションアイテム)と、対応付ける当該商品の商品ページの指定を受け付ける。このとき、情報提供装置100は、ファッション通販サイト(例えば「ZOZOTOWN」(登録商標))等の電子商取引サイトの各商品ページから画像認識又は機械学習で当該商品の類似画像を検索し、検索結果に基づいて当該商品の商品ページを自動で特定してもよい。 Next, the information providing device 100 selects the target to be tagged from among the photographic targets (candidates for annotation target) whose three-dimensional positions in the multi-view image have been estimated from the user U who is the poster or the viewer. The selection of (annotation target) is accepted (step S4). For example, the information providing device 100 sends a product (fashion item) to be tagged (annotated) from the terminal device 10 of the user U who is the poster or the viewer via the network N (see FIG. 4). and accepts the specification of the product page of the corresponding product to be associated. At this time, the information providing device 100 uses image recognition or machine learning to search for similar images of the product from each product page of an e-commerce site such as a fashion mail order site (for example, "ZOZOTOWN" (registered trademark)), and adds the search result to the product page. The product page of the product may be automatically identified based on the information.

なお、情報提供装置100は、投稿者又は閲覧者である利用者Uからタグ付けの対象(アノテーション対象)の選択を受け付けていない場合、多視点画像内の全ての撮影対象をタグ付けの対象(アノテーション対象)としてもよい。また、情報提供装置100は、投稿者又は閲覧者である利用者Uからのタグ付けの対象(アノテーション対象)の選択に関係なく、無条件で多視点画像内の全ての撮影対象をタグ付けの対象(アノテーション対象)としてもよい。また、情報提供装置100は、事前設定に従って、撮影対象(アノテーション対象の候補)のうち、タグ付けの対象(アノテーション対象)を決定してもよい。 Note that if the information providing apparatus 100 does not accept the selection of tagging targets (annotation targets) from the user U who is the poster or the viewer, the information providing apparatus 100 selects all photographed targets in the multi-view image as tagging targets (annotation targets). (annotation target). In addition, the information providing device 100 unconditionally tags all photographed objects in the multi-view image, regardless of the selection of tagging objects (annotation objects) by the user U who is the poster or the viewer. It may also be used as a target (annotation target). Further, the information providing apparatus 100 may determine a tagging target (annotation target) among the photographing targets (annotation target candidates) according to a preset setting.

また、情報提供装置100は、学習モデルを用いて、多視点画像内の3次元的な位置が推定された撮影対象のうち、タグ付けの対象(アノテーション対象)を推定してもよい。例えば、情報提供装置100は、過去にタグ付けの対象として選択された撮影対象と、そのタグ付けの対象に付与されたタグとの組合せについて学習することで学習モデルを構築してもよい。そして、情報提供装置100は、学習モデルに撮影対象を入力すると、その撮影対象がタグ付けの対象である場合に適当なタグを推論して出力してもよい。 In addition, the information providing device 100 may use a learning model to estimate a tagging target (annotation target) from among the shooting targets whose three-dimensional positions in the multi-view image have been estimated. For example, the information providing device 100 may construct a learning model by learning about combinations of shooting targets previously selected as tagging targets and tags assigned to the tagging targets. Then, when the shooting target is input into the learning model, the information providing device 100 may infer and output an appropriate tag if the shooting target is a tagging target.

次に、情報提供装置100は、ネットワークN(図4参照)を介して、閲覧者である利用者Uの端末装置10に、多視点画像内の撮影対象のうち、選択されたタグ付けの対象(アノテーション対象)にアノテーションのタグを付けて表示する(ステップS5)。 Next, the information providing device 100 sends a message to the terminal device 10 of the user U who is the viewer via the network N (see FIG. 4) about the selected target to be tagged from among the photographed targets in the multi-view image. (annotation target) is tagged with an annotation and displayed (step S5).

次に、情報提供装置100は、ネットワークN(図4参照)を介して、多視点画像の視点の変更に合わせて、閲覧者である利用者Uの端末装置10に表示されたアノテーションのタグの位置を変更する(ステップS6)。例えば、情報提供装置100は、多視点画像の視点が変更された際に、多視点画像内のタグ付けの対象(アノテーション対象)を自動で追従してアノテーションのタグを付与して適当な位置に表示する。このとき、情報提供装置100は、視点の異なる画像ごとに(その都度)、タグ付けの対象(アノテーション対象)にアノテーションのタグを付与して適当な位置に表示してもよい。 Next, the information providing device 100 changes the position of the annotation tag displayed on the terminal device 10 of the viewer, user U, in accordance with the change in the viewpoint of the multi-view image via the network N (see FIG. 4) (step S6). For example, when the viewpoint of the multi-view image is changed, the information providing device 100 automatically tracks the tagging target (annotation target) in the multi-view image, assigns an annotation tag to it, and displays it in an appropriate position. At this time, the information providing device 100 may assign an annotation tag to the tagging target (annotation target) for each image with a different viewpoint (each time) and display it in an appropriate position.

このとき、情報提供装置100は、アノテーションのタグが、他の対象や他のタグと重複しないように配置(表示)する。また、情報提供装置100は、アノテーションのタグと、タグ付けの対象(アノテーション対象)との位置関係が保持されるような位置にタグを配置(表示)し続ける。 At this time, the information providing apparatus 100 arranges (displays) the annotation tag so that it does not overlap with other objects or other tags. Furthermore, the information providing device 100 continues to place (display) the tag at a position where the positional relationship between the annotation tag and the target of tagging (annotation target) is maintained.

このように、本実施形態では、情報提供装置100は、投稿者又は閲覧者であるユーザから多視点画像(投稿者により投稿された多視点画像、閲覧者により指定された多視点画像等)を取得し、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定し、タグ付けの対象の多視点画像内の3次元的な位置を推定する。そして、情報提供装置100は、タグ付けの対象の3次元的な位置に合わせてタグ付けの対象にタグを付与する。すなわち、情報提供装置100は、タグ付けの対象とともにタグを端末装置10の画面に表示してユーザに通知(提示)する。 As described above, in the present embodiment, the information providing apparatus 100 receives multi-view images (multi-view images posted by the poster, multi-view images specified by the viewer, etc.) from users who are posters or viewers. The annotation tagging target is identified from among the photographic targets included in the multi-view image, and the three-dimensional position of the tag target in the multi-view image is estimated. Then, the information providing device 100 attaches a tag to the tagging target according to the three-dimensional position of the tagging target. That is, the information providing device 100 displays (presents) the tag together with the target of tagging on the screen of the terminal device 10 to notify (present) the user.

また、情報提供装置100は、多視点画像の各視点の画像ごとに画像認識又は機械学習で撮影対象を特定して分類する。また、情報提供装置100は、投稿者又は閲覧者であるユーザからタグ付けの対象の選択を受け付ける。そして、情報提供装置100は、タグ付けの対象の選択に応じて、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する。 The information providing device 100 also identifies and classifies the subject of the image captured for each viewpoint of the multi-view image using image recognition or machine learning. The information providing device 100 also accepts a selection of a tagging target from a user who is a contributor or viewer. Then, in response to the selection of the tagging target, the information providing device 100 identifies a tagging target for the annotation from among the subjects captured in the multi-view image.

例えば、情報提供装置100は、投稿者又は閲覧者であるユーザから、タグ付けの対象の選択と、タグ付けの対象に対応付けるウェブページの指定とを受け付ける。あるいは、情報提供装置100は、ネットワーク上の複数のウェブページから画像認識又は機械学習でタグ付けの対象の画像の類似画像を検索し、類似画像を含むウェブページをタグ付けの対象に対応付けるウェブページとして自動で特定する。 For example, the information providing device 100 receives a selection of a tagging target and a designation of a web page to be associated with the tagging target from a user who is a poster or a viewer. Alternatively, the information providing device 100 searches a plurality of web pages on the network for images similar to the image to be tagged using image recognition or machine learning, and maps web pages containing similar images to the tagged target. automatically identified as

情報提供装置100は、タグ付けの対象にタグを付与する際、タグが他の対象及び他のタグと重複しないように付与する。また、情報提供装置100は、タグ付けの対象にタグを付与する際、タグ付けの対象が他の対象により隠されていない状態であれば、タグ付けの対象にタグを付与する。なお、情報提供装置100は、タグ付けの対象にタグを付与する際、タグ付けの対象が他の対象により隠されている状態であっても、タグ付けの対象のタグが他の対象のタグよりも表示の優先度が高い場合には、他の対象にはタグを付与せず、タグ付けの対象にタグを付与する。 When the information providing apparatus 100 attaches a tag to an object to be tagged, the information providing apparatus 100 attaches the tag so that the tag does not overlap with other objects or other tags. Further, when attaching a tag to a target of tagging, the information providing apparatus 100 attaches a tag to the target of tagging if the target of tagging is not hidden by another target. Note that when the information providing device 100 attaches a tag to a tag target, even if the tag target is hidden by another target, the tag of the tag target is hidden from the tag of the other target. If the display priority is higher than the tag, the tag is added to the tag target without tags being added to other targets.

なお、上記の各処理は、情報提供装置100ではなく、端末装置10がアプリ等の機能により実施してもよい。すなわち、端末装置10上で処理が完結してもよい。 The above processes may be performed by the terminal device 10 using a function such as an app, instead of the information providing device 100. In other words, the processes may be completed on the terminal device 10.

〔1-2.タグの表示位置の変更〕
本実施形態では、情報提供装置100は、多視点画像に撮影された撮影対象の位置関係に応じて、撮影対象を示すコンテンツ(アノテーションのタグ)の表示位置(表示態様)を変更する。なお、撮影対象を示すコンテンツ(アノテーションのタグ)は、複数でもよい。
[1-2. Change tag display position]
In the present embodiment, the information providing apparatus 100 changes the display position (display mode) of the content (annotation tag) indicating the object to be imaged, depending on the positional relationship of the object to be imaged in the multi-view image. Note that there may be a plurality of contents (annotation tags) indicating the subject to be photographed.

情報提供装置100は、アノテーションのタグと、タグ付けの対象(アノテーション対象)との位置関係に応じて、タグの表示位置を変更する。 The information providing device 100 changes the display position of the tag according to the positional relationship between the annotation tag and the tagging target (annotation target).

情報提供装置100は、アノテーション対象が撮影モデル/ユーザや他の撮影対象の陰に隠れている場合は、当該アノテーション対象に付与されるタグを隠す。 If the annotation target is hidden behind the photographed model/user or other photographed target, the information providing device 100 hides the tag given to the annotation target.

例えば、情報提供装置100は、アノテーション対象の撮像範囲/表示範囲が所定値以下である場合や、アノテーション対象がユーザや他の対象の陰になって隠れている場合には、アノテーションのタグを表示しない。 For example, the information providing device 100 displays the annotation tag when the imaging range/display range of the annotation target is less than a predetermined value, or when the annotation target is hidden behind the user or other targets. do not.

あるいは、情報提供装置100は、アノテーション対象と他の対象とのタグの前後関係を変更してもよい。情報提供装置100は、複数のタグが存在する場合に、特に指定がない場合(何も設定されていない場合)には、通常は最も画面の手前に配置された対象のタグを表示する。本実施形態では、情報提供装置100は、最も画面の手前に配置された対象よりも優先度が高い対象が陰に隠れている場合、最も画面の手前に配置された対象のタグを表示せず、その優先度が高い対象のタグを表示する。 Alternatively, the information providing apparatus 100 may change the context of tags between an annotation target and another target. When a plurality of tags exist, the information providing device 100 normally displays the target tag placed closest to the screen unless otherwise specified (nothing is set). In the present embodiment, the information providing apparatus 100 does not display the tag of the target placed furthest on the screen when a target with a higher priority than the target placed furthest on the screen is hidden in the shadows. , display the target tag with the highest priority.

このとき、情報提供装置100は、各対象に優先度を設定し、設定された優先度の大小関係で表示されるタグを決定してもよい。また、情報提供装置100は、最も画面の手前に配置された対象よりもユーザの興味や関心が高いと推測される対象を、最も画面の手前に配置された対象よりも優先度が高い対象として決定してもよい。 At this time, the information providing apparatus 100 may set a priority for each target and determine the tag to be displayed based on the magnitude relationship of the set priority. Further, the information providing device 100 sets a target that is estimated to have higher interest of the user than the target placed closest to the screen as a target with higher priority than the target placed closest to the screen. You may decide.

このように、本実施形態では、情報提供装置100は、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定し、タグ付けの対象の位置に合わせてタグを付与する。その後、情報提供装置100は、多視点画像の視点の変更に伴い画面内のタグ付けの対象の位置が変更した場合に、タグ付けの対象の位置の変更に合わせてタグの表示位置を変更する。 In this manner, in the present embodiment, the information providing apparatus 100 identifies the target of annotation tagging from among the photographed targets included in the multi-view image, and attaches the tag according to the position of the target of tagging. . Thereafter, when the position of the tag target in the screen changes due to a change in the viewpoint of the multi-view image, the information providing device 100 changes the display position of the tag in accordance with the change in the position of the tag target. .

また、情報提供装置100は、多視点画像の視点が変更されても、タグ付けの対象とタグとの位置関係が保持されるような位置にタグを配置する。 Furthermore, the information providing apparatus 100 arranges the tag at a position where the positional relationship between the tag and the tag is maintained even if the viewpoint of the multi-view image is changed.

なお、上記の各処理は、情報提供装置100ではなく、端末装置10がアプリ等の機能により実施してもよい。すなわち、端末装置10上で処理が完結してもよい。 Note that each of the above processes may be performed by the terminal device 10 instead of the information providing device 100 using functions such as an application. That is, the processing may be completed on the terminal device 10.

〔1-3.撮影ガイドの表示〕
本実施形態では、情報提供装置100は、ユーザが多視点画像を投稿するために、カメラ(インカメラ等)を有する端末装置10(撮像装置)を用いて自身の画像を撮影(インカメラ撮影)する際に、撮影に用いられるユーザの端末装置10(又はそれに搭載/接続された表示装置)の画面(写真撮影画面)に所定の撮影ガイドを表示し、画像を撮影する度に(視点を移動する度に)、撮影ガイドを変更する。図2は、撮影ガイドの表示の概要を示す説明図である。図2では、画像内において、被撮影者(撮影モデル)をM、撮影対象のバッグをBとして示す。
[1-3. Shooting guide display〕
In this embodiment, the information providing device 100 uses a terminal device 10 (imaging device) having a camera (in-camera, etc.) to take an image of itself (in-camera shooting) in order for the user to post a multi-view image. When shooting, a predetermined shooting guide is displayed on the screen (photo shooting screen) of the user's terminal device 10 used for shooting (or a display device installed/connected thereto), and each time an image is shot, ), change the shooting guide. FIG. 2 is an explanatory diagram showing an outline of the display of the photographing guide. In FIG. 2, the person to be photographed (photographed model) is indicated as M, and the bag to be photographed is indicated as B in the image.

図2に示すように、情報提供装置100は、ユーザが多視点画像を投稿するために、カメラを有する端末装置10が多視点画像の撮影を開始したことを確認する(ステップS11)。例えば、情報提供装置100は、ネットワークN(図4参照)を介して、ユーザの端末装置10から、多視点画像の撮影開始を示す信号やデータを受信する。 As shown in FIG. 2, the information providing device 100 confirms that the terminal device 10 having a camera has started capturing a multi-view image in order for the user to post a multi-view image (step S11). For example, the information providing device 100 receives a signal or data indicating the start of capturing a multi-view image from the user's terminal device 10 via the network N (see FIG. 4).

次に、情報提供装置100は、ネットワークN(図4参照)を介して、ユーザの端末装置10と連携する(ステップS12)。例えば、情報提供装置100は、APIを介して、端末装置10の撮影アプリを制御してもよい。すなわち、以降の処理は、情報提供装置100が端末装置10と連携して実施してもよい。 Next, the information providing device 100 cooperates with the user's terminal device 10 via the network N (see FIG. 4) (step S12). For example, the information providing device 100 may control a shooting application of the terminal device 10 via an API. That is, the subsequent processing may be performed by the information providing device 100 in cooperation with the terminal device 10.

次に、端末装置10は、ユーザが自身の画像を撮影(インカメラ撮影)する際に、端末装置10の画面に撮影ガイドを表示する(ステップS13)。 Next, the terminal device 10 displays a shooting guide on the screen of the terminal device 10 when the user takes an image of himself (in-camera shooting) (step S13).

次に、端末装置10は、ユーザのポーズや所持しているバッグ等が撮影ガイドからずれている場合、撮影ガイドからずれている箇所を通知する(ステップS14)。なお、通知方法は、画面表示でも音声案内でもよい。 Next, if the user's pose or the bag he or she is carrying deviates from the photographing guide, the terminal device 10 notifies the user of the position where the pose is deviated from the photographing guide (step S14). Note that the notification method may be screen display or audio guidance.

次に、端末装置10は、ユーザのポーズや所持しているバッグ等が撮影ガイドと一致している場合、自動的に撮影する(ステップS15)。なお、端末装置10は、ユーザのポーズや所持しているバッグ等が撮影ガイドと完全に一致していなくても、所定の割合以上一致していれば、一致していると判定して自動的に撮影してもよい。また、端末装置10は、ユーザのポーズや所持しているバッグ等が撮影ガイドと一致している場合、自動的に撮影してもよい。このとき、情報提供装置100は、端末装置10に対して、ユーザのポーズや所持しているバッグ等が撮影ガイドと一致している場合には自動的に撮影するようにあらかじめ指示しておいてもよい。 Next, the terminal device 10 automatically photographs the user if the user's pose, bag, etc. match the photographing guide (step S15). Note that even if the user's pose or the bag he or she is carrying does not completely match the shooting guide, if the user's pose or the bag they are carrying do not match the shooting guide, if they match at least a predetermined percentage, the terminal device 10 automatically determines that they match. You may take pictures. Further, the terminal device 10 may automatically take a picture if the pose of the user, the bag he/she is carrying, etc. match the photography guide. At this time, the information providing device 100 instructs the terminal device 10 in advance to automatically take a photo if the user's pose, bag, etc. that the user is carrying match the shooting guide. Good too.

次に、端末装置10は、撮影された画像に含まれる撮影対象(アノテーション対象の候補)を特定して通知する(ステップS16)。詳細については後述する。 Next, the terminal device 10 identifies and notifies a photographing target (candidate for annotation target) included in the photographed image (step S16). Details will be described later.

次に、端末装置10は、多視点画像の生成のための視点変更に応じて、撮影ガイドを変更する(ステップS17)。すなわち、端末装置10は、変更後の視点に応じた撮影ガイドを表示する。 Next, the terminal device 10 changes the shooting guide in accordance with the change in viewpoint for generating a multi-viewpoint image (step S17). That is, the terminal device 10 displays a shooting guide that corresponds to the changed viewpoint.

次に、端末装置10は、多視点画像の生成のために必要な全視点の画像の撮影が完了した後、多視点画像を投稿する(ステップS18)。例えば、端末装置10は、撮影された画像から多視点画像を生成し、ネットワークN(図4参照)を介して、情報提供装置100に多視点画像を自動的に投稿する。あるいは、端末装置10は、ネットワークN(図4参照)を介して、情報提供装置100に、撮影された画像をそのまま投稿してもよい。この場合、情報提供装置100は、投稿された画像を取得した後に、投稿された画像から多視点画像を生成してもよい。 Next, after the terminal device 10 has completed capturing images from all viewpoints required to generate the multi-view image, it posts the multi-view image (step S18). For example, the terminal device 10 generates a multi-view image from the captured images and automatically posts the multi-view image to the information providing device 100 via the network N (see FIG. 4). Alternatively, the terminal device 10 may directly post the captured images to the information providing device 100 via the network N (see FIG. 4). In this case, the information providing device 100 may obtain the posted images and then generate a multi-view image from the posted images.

本実施形態では、多視点画像の撮影に用いられるユーザの端末装置10は、端末装置10の画面に、撮影ガイドとして、表情のガイド、姿勢(ポーズ)のガイド、商品の持ち方のガイド、又は着用の仕方のガイド等を表示し、位置(ポジション)や角度(アングル)を変えて画像を撮影する度に、撮影ガイドを変更する。 In this embodiment, the user's terminal device 10 used to capture multi-viewpoint images displays, on the screen of the terminal device 10, a guide to facial expressions, a guide to posture (pose), a guide to how to hold the product, a guide to how to wear the product, or the like, as a shooting guide, and changes the shooting guide each time an image is captured by changing the position or angle.

例えば、端末装置10は、撮影に用いられるユーザの端末装置10の画面に、撮影ガイドとして、ユーザが取るべき表情、姿勢(ポーズ)、商品の持ち方、又は着用の仕方のシルエットや輪郭を表示し、位置(ポジション)や角度(アングル)を変えて画像を撮影する度に、シルエットや輪郭を変更してもよい。この場合、ユーザは、画面に表示された表情、姿勢(ポーズ)、商品の持ち方、又は着用の仕方のシルエットや輪郭に合わせるように、自分の表情、姿勢(ポーズ)、商品の持ち方、又は着用の仕方を変えていく。 For example, the terminal device 10 displays, on the screen of the user's terminal device 10 used for photographing, a silhouette or outline of the facial expression, posture (pose) the user should take, how to hold the product, or how to wear the product as a photographic guide. However, the silhouette or contour may be changed each time an image is captured by changing the position or angle. In this case, the user adjusts his/her facial expression, posture (pose), how to hold the product, and how to wear the product to match the silhouette and outline of the facial expression, posture (pose), and how to hold or wear the product displayed on the screen. Or change the way you wear it.

また、端末装置10は、撮影ガイドの表示・変更に合わせて、音声での案内(ガイダンス)を行ってもよい。また、端末装置10は、撮影画面上で、表情、姿勢(ポーズ)、商品の持ち方、又は着用の仕方等について、ユーザが変更する必要がある箇所・部位に、変更内容に関するコメントを表示したタグを付与してもよい。 Further, the terminal device 10 may provide audio guidance (guidance) in conjunction with displaying and changing the photographing guide. In addition, the terminal device 10 displays comments regarding the content of changes on the shooting screen in areas where the user needs to change the facial expression, posture (pose), how to hold the product, how to wear the product, etc. A tag may be added.

(ポーズガイドの場合)
ここで、撮影ガイドの一例として、ポーズガイドの場合について説明する。カメラを有するユーザの端末装置10は、多視点画像の撮影時に、端末装置10の画面にポーズガイドを表示する。端末装置10は、画像を撮影する度に(視点を移動する度に)、撮影ガイドを変更する。すなわち、ポーズガイドは、撮影する度に次々に変わっていく。
(For pose guide)
Here, a pose guide will be described as an example of a photography guide. A user's terminal device 10 having a camera displays a pose guide on the screen of the terminal device 10 when capturing a multi-view image. The terminal device 10 changes the photography guide every time it photographs an image (every time it moves the viewpoint). That is, the pose guide changes one after another each time a photograph is taken.

なお、端末装置10のカメラは固定であるため、ユーザが端末装置10を移動/回転させることで、カメラの位置(ポジション)や角度(アングル)を変えることになる。撮影ガイドは、ポーズ、表情、持ち方等に関する内容である。ポーズは、顔の向き、体の向き等を含む。カメラの位置(ポジション)や角度(アングル)に合わせて、ポーズガイドも段々(徐々に)変化していく。すなわち、端末装置10は、カメラの位置(ポジション)や角度(アングル)に合わせて、ポーズガイドを段階的に変更していく。 Note that since the camera of the terminal device 10 is fixed, the user changes the position and angle of the camera by moving/rotating the terminal device 10. The photography guide contains information about poses, facial expressions, how to hold the camera, etc. The pose includes the direction of the face, the direction of the body, etc. The pose guide changes gradually (gradually) according to the position and angle of the camera. That is, the terminal device 10 changes the pose guide in stages according to the position and angle of the camera.

端末装置10は、画面内においてポーズガイドとユーザのポーズとが一致したと判断すると、自動的に撮影する。このとき、端末装置10は、ユーザのポーズの適切性を判定する。端末装置10は、ユーザのポーズが適切ではないと判定した場合、ユーザのポーズが適切になるように具体的なアドバイスをして、適切なポーズとなるように誘導する。 When the terminal device 10 determines that the pose guide matches the user's pose on the screen, it automatically takes a picture. At this time, the terminal device 10 determines the appropriateness of the user's pose. If the terminal device 10 determines that the user's pose is not appropriate, it gives specific advice to the user so that the user's pose is appropriate, and guides the user to take the appropriate pose.

例えば、端末装置10は、アゴ(顎)を引く、脚を開く/閉じる、体を傾ける、背を反らす、特定方向(前後左右)に○○歩/××cmずれる、バッグやポーチ等をどういう風にもつか等のポーズガイドを表示したり、音声での案内(ガイダンス)を行ったりする。 For example, the terminal device 10 can be used to pull your chin, open/close your legs, lean your body, arch your back, move XX steps/XX cm in a specific direction (front/back/left/right), move your bag or pouch, etc. It displays pose guides such as "Kaze ni mo Tsuka" and provides audio guidance.

端末装置10は、インカメラで撮影する際に、ユーザとポーズガイドとを画面に重畳表示する。ポーズガイドは、例えばシルエットや輪郭でもよいし、半透明の表示でもよい。また、音声で「こうしてください」でもよい。端末装置10は、ユーザの現在のポーズとポーズガイドとの差分を特定して「もっと右手を挙げてください」、「もう少し、足を挙げてください」等のように、ポーズと違う部分を特定して表示/案内してもよい。そして、端末装置10は、ユーザのポーズがポーズガイドに一致したと判定した場合に、自動で撮影してもよい。 The terminal device 10 displays the user and the pose guide in a superimposed manner on the screen when photographing with the in-camera. The pose guide may be, for example, a silhouette or an outline, or may be a semi-transparent display. Alternatively, you may say "Please do this" in voice. The terminal device 10 identifies the difference between the user's current pose and the pose guide, and identifies parts that are different from the pose, such as "Please raise your right hand more" or "Please raise your foot a little more." It may be displayed/guided. Then, when the terminal device 10 determines that the user's pose matches the pose guide, the terminal device 10 may automatically shoot the image.

また、ポーズガイドは、表情のガイドであってもよい。例えば、「一回転したら、笑顔になる」等でもよい。すなわち、撮影の度に、同一の表情でなくてもよい。また、端末装置10は、最初の画像でポーズを特定して、特定したポーズガイドを表示してもよい。 The pose guide may also be a guide to facial expressions. For example, it may be "turn around once and smile." In other words, the facial expression does not have to be the same each time a photo is taken. The terminal device 10 may also identify a pose in the first image and display the identified pose guide.

このように、本実施形態では、端末装置10は、多視点画像を撮影する際に、所定の撮影ガイドを画面に表示する。例えば、端末装置10は、撮影ガイドとして被写体のうち被撮影者(撮影モデル)のポーズ、表情、持ち方のうち少なくとも1つに関するガイドを画面に表示する。また、端末装置10は、撮影ガイドとして被写体のシルエット、輪郭、又は半透明の表示を画面に表示する。 In this manner, in this embodiment, the terminal device 10 displays a predetermined shooting guide on the screen when shooting a multi-view image. For example, the terminal device 10 displays on the screen, as a photography guide, a guide regarding at least one of the pose, facial expression, and holding style of the person to be photographed (photographed model) among the subjects. Further, the terminal device 10 displays a silhouette, outline, or semi-transparent display of the subject on the screen as a photography guide.

また、端末装置10は、被写体を撮影する際に、被写体に撮影ガイドを重畳表示する。また、端末装置10は、最初に撮影された画像で被写体のうち被撮影者のポーズを特定し、特定されたポーズに応じた撮影ガイドを選択して表示する。 Furthermore, when photographing a subject, the terminal device 10 displays a photographing guide superimposed on the subject. Further, the terminal device 10 specifies the pose of the photographed person among the subjects in the first photographed image, and selects and displays a photographic guide corresponding to the specified pose.

また、端末装置10は、撮影時の視点を移動する度に、画面に表示された撮影ガイドを視点に応じて変更する。また、端末装置10は、撮影時の視点を移動するにつれて、撮影ガイドを段階的に変更してもよい。 Furthermore, each time the terminal device 10 moves the viewpoint at the time of photographing, the terminal device 10 changes the photographing guide displayed on the screen according to the viewpoint. Furthermore, the terminal device 10 may change the photographing guide in stages as the viewpoint at the time of photographing moves.

また、端末装置10は、端末装置10に対して、被写体が撮影ガイドに一致した場合には自動的に撮影するように指示する。また、端末装置10は、被写体が撮影ガイドとずれている場合、被写体が撮影ガイドとずれている箇所を撮影者(利用者U)に通知(提示)する。なお、被写体は、撮影者自身であってもよい。すなわち、撮影者と被撮影者は同一人物であってもよい。 Further, the terminal device 10 instructs the terminal device 10 to automatically take a photograph when the subject matches the photographing guide. Furthermore, when the subject is out of alignment with the photography guide, the terminal device 10 notifies (presents) the location where the subject is out of alignment with the photography guide to the photographer (user U). Note that the subject may be the photographer himself. That is, the photographer and the photographed person may be the same person.

なお、上記の各処理は、端末装置10ではなく、APIを介して情報提供装置100が実施してもよい。 Note that each of the above processes may be performed by the information providing apparatus 100 via the API instead of the terminal device 10.

〔1-4.アノテーション対象の候補の認識〕
本実施形態では、端末装置10は、多視点画像を構成する画像の撮影時に、撮影された画像に含まれる撮影対象(アノテーション対象の候補)を特定し、特定された撮影対象を利用者に通知する。
[1-4. Recognition of candidates for annotation]
In this embodiment, the terminal device 10 identifies a shooting target (candidate for annotation target) included in the shot image when capturing images constituting a multi-view image, and notifies the user of the identified shooting target. do.

端末装置10は、多視点画像の登録時に、撮影の度に画像認識又は機械学習で画像に含まれる撮影対象を認識し、撮影対象に関する情報を利用者に画面表示や音声で通知する。撮影対象は複数であってもよい。撮影対象を特定して通知することで、後でタグ付けが楽になる。また、先にタグ付けをする手間がなくなる。なお、端末装置10は、事前にタグ付けの対象(アノテーション対象)をユーザに通知し、撮影の度にそのタグ付けの対象(アノテーション対象)が撮影されているか否かをユーザに通知してもよい。 When registering a multi-view image, the terminal device 10 uses image recognition or machine learning to recognize a photographic subject included in the image each time a photograph is taken, and notifies the user of information regarding the photographic subject through a screen display or voice. A plurality of objects may be photographed. By identifying and notifying the subject of the photograph, it becomes easier to tag it later. Also, there is no need to add tags first. Note that the terminal device 10 may notify the user of the tagging target (annotation target) in advance, and notify the user whether or not the tagging target (annotation target) is being photographed each time a photograph is taken. good.

また、端末装置10は、「ワンピースが撮れました」、「バックは何カット撮れました」等を利用者に画面表示や音声で通知してもよい。また、撮る度に、「残り○○枚です」のように、あと何枚撮影するかを利用者に画面表示や音声で通知してもよい。すなわち、端末装置10は、撮影の度に、撮影対象の撮影枚数(ショット数)や、多視点画像を構成する画像の必要数までの残り枚数を利用者に通知してもよい。また、端末装置10は、撮影が完了した(又は完了していない)カメラの位置(ポジション)や角度(アングル)を利用者に画面表示や音声で通知してもよい。また、端末装置10は、多視点画像の生成に必要な各視点の画像について、撮影漏れの視点(画像)があれば、利用者に画面表示や音声で通知してもよい。このとき、端末装置10は、通知内容を示したタグを付与して表示することで通知してもよい。 The terminal device 10 may also notify the user by displaying on the screen or by voice, such as "One piece has been taken", "How many shots of the background have been taken", etc. Each time a shot is taken, the terminal device 10 may also notify the user by displaying on the screen or by voice, how many more shots are left to be taken, such as "XX shots remaining". That is, each time a shot is taken, the terminal device 10 may notify the user of the number of shots of the subject, or the number of shots remaining until the required number of images constituting the multi-view image is taken. The terminal device 10 may also notify the user by displaying on the screen or by voice, of the position and angle of the camera where shooting has been completed (or not completed). The terminal device 10 may also notify the user by displaying on the screen or by voice, if there are any viewpoints (images) that have not been captured, regarding the images of each viewpoint required for generating the multi-view image. At this time, the terminal device 10 may notify the user by adding and displaying a tag indicating the notification content.

また、端末装置10は、カメラの位置(ポジション)や角度(アングル)が変わったことにより、撮影の途中で見えなくなった(ユーザや他の対象の陰に隠れた)撮影対象を通知してもよい。このとき、端末装置10は、撮影対象が他の対象の陰に隠れていることを示すタグを付与して表示することにより、撮影の途中で見えなくなった(ユーザや他の対象の陰に隠れた)撮影対象を通知してもよい。 Additionally, the terminal device 10 may notify you of a subject that has become invisible (hidden behind the user or another subject) during shooting due to a change in the position or angle of the camera. good. At this time, the terminal device 10 adds and displays a tag indicating that the object to be photographed is hidden behind another object, so that the object becomes invisible during the photographing process (hidden behind the user or another object). ) The subject to be photographed may be notified.

なお、上記の各処理は、端末装置10ではなく、APIを介して情報提供装置100が実施してもよい。 Note that each of the above processes may be performed by the information providing apparatus 100 via the API instead of the terminal device 10.

〔1-5.撮影モデルの顔画像の置換〕
本実施形態では、情報提供装置100は、多視点画像の被撮影者(撮影モデル)の顔を、閲覧者である利用者Uの顔に置き換える。すなわち、情報提供装置100は、多視点画像の被撮影者(撮影モデル)の顔を別人の顔に置き換える。図3は、被撮影者(撮影モデル)の顔画像の置換の概要を示す説明図である。図3では、画像内において、顔画像の置換前の被撮影者(撮影モデル)をM1、被撮影者とともに撮影されたバッグをB、顔画像を利用者Uの顔画像に置換した被撮影者をM+Uとして示す。
[1-5. Replacing the face image of the photographed model]
In the present embodiment, the information providing apparatus 100 replaces the face of the photographed person (photographed model) in the multi-view image with the face of the user U who is the viewer. That is, the information providing device 100 replaces the face of the photographed person (photographed model) in the multi-view image with the face of another person. FIG. 3 is an explanatory diagram showing an overview of replacement of a face image of a photographed person (photographed model). In FIG. 3, in the image, M1 is the photographed person (photographed model) before face image replacement, B is the bag photographed with the photographed person, and the photographed person whose face image has been replaced with the face image of user U. is shown as M+U.

図3に示すように、情報提供装置100は、ネットワークN(図4参照)を介して、利用者U(ユーザ)の端末装置10から、利用者Uの顔の多視点顔画像を取得する(ステップS21)。例えば、情報提供装置100は、利用者Uの端末装置10から、投稿された多視点画像を閲覧する利用者Uの顔を、複数の視点から撮影した多視点顔画像を取得する。 As shown in FIG. 3, the information providing device 100 acquires a multi-view face image of the user U's face from the user U's terminal device 10 via the network N (see FIG. 4). Step S21). For example, the information providing device 100 acquires, from the terminal device 10 of the user U, a multi-view face image of the face of the user U who views the posted multi-view image from a plurality of viewpoints.

次に、情報提供装置100は、利用者Uの閲覧対象となる多視点画像から、被撮影者(撮影モデル)の顔を特定する(ステップS22)。例えば、情報提供装置100は、多視点画像の視点ごとの被撮影者(撮影モデル)の顔を特定する。本実施形態では、閲覧対象となる多視点画像は、利用者U(ユーザ)とは異なる被撮影者(撮影モデル)の顔が含まれる多視点画像である。なお、実際には、利用者U(ユーザ)自身の顔が含まれる多視点画像であってもよい。 Next, the information providing device 100 identifies the face of the photographed person (photographed model) from the multi-view image to be viewed by the user U (step S22). For example, the information providing device 100 identifies the face of the photographed person (photographed model) for each viewpoint of the multi-view image. In this embodiment, the multi-view image to be viewed is a multi-view image that includes the face of a photographed person (photographed model) who is different from the user U (user). Note that, in reality, it may be a multi-view image that includes the face of the user U (user) himself/herself.

次に、情報提供装置100は、閲覧対象となる多視点画像から、撮影時の視点を特定する(ステップS23)。例えば、情報提供装置100は、多視点画像の視点ごとの被撮影者(撮影モデル)の顔の位置(ポジション)や角度(アングル)を特定する。 Next, the information providing device 100 identifies the viewpoints at the time of shooting from the multi-view image to be viewed (step S23). For example, the information providing device 100 identifies the position and angle of the face of the person being photographed (model) for each viewpoint of the multi-view image.

次に、情報提供装置100は、撮影時の視点に応じて、閲覧対象となる多視点画像の被撮影者の顔を、閲覧者である利用者U(ユーザ)の顔に変更する(ステップS24)。例えば、情報提供装置100は、多視点画像の視点ごとの被撮影者(撮影モデル)の顔の位置(ポジション)や角度(アングル)に応じて、被撮影者(撮影モデル)の顔をユーザの顔に置き換えた画像を生成する。このとき、情報提供装置100は、閲覧対象となる多視点画像の被撮影者の顔を、閲覧者である利用者U(ユーザ)の顔に、可能な限り自然な形で(できるだけ違和感が無いように)置き換える。また、情報提供装置100は、同時に閲覧される複数の多視点画像のそれぞれの撮影時の視点に合わせて、それぞれの被撮影者(撮影モデル)の顔を一括して利用者U(ユーザ)の顔に変換する。 Next, the information providing device 100 changes the face of the person to be photographed in the multi-view image to be viewed to the face of the user U (user) who is the viewer, according to the viewpoint at the time of photography (step S24 ). For example, the information providing device 100 displays the face of the photographed person (photographed model) of the user according to the position and angle of the photographed person's (photographed model) face for each viewpoint of the multi-view image. Generate an image with the face replaced. At this time, the information providing apparatus 100 displays the face of the person in the multi-view image to be viewed in the face of the user U (user) who is the viewer, in a form as natural as possible (with as little discomfort as possible). ). In addition, the information providing device 100 collectively displays the face of each photographed person (photographed model) for the user U (user) according to the viewpoint at the time of photographing each of a plurality of multi-view images that are viewed at the same time. Convert to face.

次に、情報提供装置100は、多視点画像の被撮影者(撮影モデル)の顔を、閲覧者である利用者U(ユーザ)の顔に変更する際、必要に応じて、多視点画像の被撮影者(撮影モデル)の身長調整を行う(ステップS25)。すなわち、情報提供装置100は、被撮影者(撮影モデル)の顔に限らず身長もユーザに合わせて変更してもよい。例えば、情報提供装置100は、多視点画像の被撮影者(撮影モデル)の身長をユーザの身長に変更してもよい。また、情報提供装置100は、多視点画像の被撮影者(撮影モデル)の顔とユーザの顔とに基づいて被撮影者の身長を調整してもよい。また、情報提供装置100は、背景や被撮影者と一緒に撮影された撮影対象のサイズに合わせて被撮影者の身長を調整してもよい。 Next, when changing the face of the photographed person (photographed model) in the multi-view image to the face of the user U (user) who is the viewer, the information providing apparatus 100 changes the face of the photographed person (photographed model) of the multi-view image to the face of the user U (user) who is the viewer. The height of the person to be photographed (photographed model) is adjusted (step S25). That is, the information providing apparatus 100 may change not only the face but also the height of the photographed person (photographed model) according to the user. For example, the information providing apparatus 100 may change the height of the photographed person (photographed model) in the multi-view image to the height of the user. Further, the information providing device 100 may adjust the height of the person to be photographed based on the face of the person to be photographed (photographed model) in the multi-view image and the face of the user. Further, the information providing device 100 may adjust the height of the person to be photographed according to the background or the size of the object to be photographed together with the person to be photographed.

また、情報提供装置100は、多視点画像の被撮影者(撮影モデル)の顔をユーザの顔に変更した際、あるいは多視点画像の被撮影者(撮影モデル)がユーザ本人である場合に、画像加工編集等により、画像内のユーザの髪型や髪の色(濃淡を含む)、表情等を変更してもよい。例えば、ロングヘアーをショートヘアーに変更したり、黒髪を茶髪にしたり、目尻や口角を上げ下げしたりしてもよい。あるいは、情報提供装置100は、ユーザの指示等に応じて、多視点画像に表示されている現在の顔画像(変換後のユーザの顔画像等)を、髪型や髪の色(濃淡を含む)、表情等が異なる顔画像に変換してもよい。 In addition, when the face of the person (photographed model) in the multi-view image is changed to the face of the user, or when the person (photographed model) in the multi-view image is the user himself, the information providing device 100 may change the hairstyle, hair color (including shade), facial expression, etc. of the user in the image by image processing and editing, etc. For example, long hair may be changed to short hair, black hair to brown hair, or the corners of the eyes and mouth may be raised and lowered. Alternatively, the information providing device 100 may convert the current facial image (such as the converted facial image of the user) displayed in the multi-view image into a facial image with a different hairstyle, hair color (including shade), facial expression, etc., in response to the user's instructions, etc.

次に、情報提供装置100は、ネットワークN(図4参照)を介して、利用者U(ユーザ)の端末装置10に、変換後の多視点画像を表示する(ステップS26)。 Next, the information providing device 100 displays the converted multi-view image on the terminal device 10 of the user U (step S26) via the network N (see FIG. 4).

なお、上記の説明では、情報提供装置100は、多視点画像の被撮影者の顔を、閲覧者である利用者Uの顔に変換したが、実際には、閲覧者である利用者Uの顔に限定されない。情報提供装置100は、閲覧者である利用者Uの顔以外にも、任意の人物の顔に変換してもよい。例えば、情報提供装置100は、多視点画像に含まれる撮影対象のうちタグ付けの対象(アノテーション対象)に該当する商品を購入した際のプレゼント先となる利用者Uの友人の顔にしてもよい。 Note that in the above explanation, the information providing device 100 converts the face of the person to be photographed in the multi-view image into the face of the user U who is the viewer, but in reality, the information providing device 100 converts the face of the person to be photographed in the multi-view image It's not limited to the face. The information providing device 100 may convert the face of any person other than the face of the user U who is the viewer. For example, the information providing device 100 may use the face of a friend of the user U who will be the recipient of a gift when purchasing a product that corresponds to the tagging target (annotation target) among the photographic targets included in the multi-view image. .

また、上記の説明では、情報提供装置100は、多視点画像の被撮影者の顔を、別人の顔に変換したが、実際には、別人の顔に限定されない。情報提供装置100は、別人の顔に限らず、同一人物の別の顔に変換してもよい。例えば、情報提供装置100は、ある多視点画像の被撮影者が閲覧者である利用者U本人である場合(多視点画像の被撮影者と閲覧者が同一人である場合等)、その多視点画像の被撮影者である利用者Uの顔を、利用者Uの別の顔に変換してもよい。 Further, in the above description, the information providing apparatus 100 converts the face of the person to be photographed in the multi-view image into the face of another person, but in reality, the information providing apparatus 100 is not limited to the face of another person. The information providing device 100 may convert not only the face of another person but also another face of the same person. For example, if the person to be photographed in a certain multi-view image is the user U who is the viewer (such as when the person to be photographed in the multi-view image and the viewer are the same person), the information providing device 100 may The face of the user U who is the subject of the viewpoint image may be converted to another face of the user U.

また、情報提供装置100は、ディープフェイク等の技術を用いて、閲覧対象となる多視点画像の被撮影者の顔を変換してもよい。また、情報提供装置100は、単一視点の顔画像から複数視点の画像を生成する公知技術を用いて、差し替え先となる顔の多視点画像を生成し、これを用いて画像の顔を変換してもよい。 Further, the information providing apparatus 100 may transform the face of the person to be photographed in the multi-view image to be viewed using a technique such as deep fake. Additionally, the information providing device 100 generates a multi-view image of the face to be replaced using a known technique that generates a multi-view image from a single-view face image, and uses this to convert the face in the image. You may.

なお、上記の各処理は、情報提供装置100ではなく、端末装置10がアプリ等の機能により実施してもよい。すなわち、端末装置10上で処理が完結してもよい。 Note that each of the above processes may be performed by the terminal device 10 instead of the information providing device 100 using functions such as an application. That is, the processing may be completed on the terminal device 10.

〔2.情報処理システムの構成例〕
次に、図4を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図4は、実施形態に係る情報処理システム1の構成例を示す図である。図4に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the information providing apparatus 100 according to the embodiment will be described using FIG. 4. FIG. 4 is a diagram illustrating a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 4, the information processing system 1 according to the embodiment includes a terminal device 10 and an information providing device 100. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図4に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図4では、図示の簡略化のため、端末装置10を1台のみ示したが、これはあくまでも例示であって限定されるものではなく、2台以上であってもよい。 Furthermore, the number of devices included in the information processing system 1 shown in FIG. 4 is not limited to what is illustrated. For example, in FIG. 4, only one terminal device 10 is shown for simplification of illustration, but this is just an example and is not limited, and there may be two or more terminal devices.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス等である。 The terminal device 10 is an information processing device used by the user U. For example, the terminal device 10 may be a smart device such as a smartphone or a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a game console or AV device with a communication function, a car navigation system, a smart watch, or the like. These include wearable devices such as head-mounted displays, smart glasses, etc.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。 The terminal device 10 also supports wireless communication networks such as LTE (Long Term Evolution), 4G (4th Generation), and 5G (5th Generation), Bluetooth (registered trademark), and wireless LAN (Local It is possible to connect to a network N via short-distance wireless communication such as a local area network) and communicate with the information providing device 100.

情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。 The information providing device 100 is, for example, a PC, a server device, a mainframe, a workstation, etc. The information providing device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図5を用いて、端末装置10の構成について説明する。図5は、端末装置10の構成例を示す図である。図5に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、撮像部15と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be explained using FIG. 5. FIG. 5 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 5, the terminal device 10 includes a communication section 11, a display section 12, an input section 13, a positioning section 14, an imaging section 15, a sensor section 20, a control section 30 (controller), A storage unit 40 is provided.

(通信部11)
通信部11は、ネットワークN(図4参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication Department 11)
The communication unit 11 is connected to a network N (see FIG. 4) by wire or wirelessly, and transmits and receives information to and from the information providing device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electro-luminescent display (EL display). Further, the display unit 12 is a touch panel type display, but is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input section 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 includes buttons for inputting characters, numbers, and the like. Note that the input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Further, when the display section 12 is a touch panel display, a part of the display section 12 functions as the input section 13. Further, the input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives signals (radio waves) transmitted from satellites of a GPS (Global Positioning System), and acquires position information (e.g., latitude and longitude) indicating the current position of the terminal device 10 based on the received signals. That is, the positioning unit 14 measures the position of the terminal device 10. Note that the GPS is merely an example of a GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 Further, the positioning unit 14 can measure the position using various methods other than GPS. For example, the positioning unit 14 may use various communication functions of the terminal device 10 to measure the position as an auxiliary positioning means for position correction and the like, as described below.

(撮像部15)
撮像部15は、被写体を撮影する画像センサ(カメラ)である。例えば、撮像部15は、CMOSイメージセンサやCCDイメージセンサ等である。なお、撮像部15は、内蔵カメラに限らず、端末装置10と通信可能なワイヤレスカメラや、Webカメラ等の外付けカメラであってもよい。
(Imaging unit 15)
The imaging unit 15 is an image sensor (camera) that photographs a subject. For example, the imaging unit 15 is a CMOS image sensor, a CCD image sensor, or the like. Note that the imaging unit 15 is not limited to a built-in camera, and may be an external camera such as a wireless camera that can communicate with the terminal device 10 or a web camera.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the terminal device 10 using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 performs Wi-Fi communication, etc., and determines the position of the terminal device 10 by measuring the distance to nearby base stations and access points.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may use the Bluetooth (registered trademark) function of the terminal device 10 to measure the position. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting to a beacon transmitter connected by a Bluetooth (registered trademark) function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Furthermore, the positioning unit 14 positions the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10 .

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Furthermore, for example, if the terminal device 10 has a function of an RFID (Radio Frequency Identification) tag equivalent to a contactless IC card used at station ticket gates, in stores, etc., or has a function of reading an RFID tag, the location of use is recorded together with information on a payment or the like made by the terminal device 10. The positioning unit 14 may obtain such information to measure the location of the terminal device 10. Furthermore, the location may be measured by an optical sensor, an infrared sensor, or the like provided in the terminal device 10.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the terminal device 10 using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図5に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27とを備える。
(sensor section 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10. Note that the connection may be a wired connection or a wireless connection. For example, the sensors may be a detection device other than the terminal device 10, such as a wearable device or a wireless device. In the example shown in FIG. 5, the sensor section 20 includes an acceleration sensor 21, a gyro sensor 22, an atmospheric pressure sensor 23, an air temperature sensor 24, a sound sensor 25, an optical sensor 26, and a magnetic sensor 27.

なお、上記した各センサ21~27は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~27のうちの一部を備える構成であってもよいし、各センサ21~27に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。また、撮像部15も、画像センサの一種である。 The sensors 21 to 27 described above are merely examples and are not limiting. That is, the sensor unit 20 may be configured to include some of the sensors 21 to 27, or may include other sensors such as a humidity sensor in addition to or instead of the sensors 21 to 27. The imaging unit 15 is also a type of image sensor.

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects the physical movement of the terminal device 10, such as the moving direction, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects physical movements of the terminal device 10 such as tilt in three axes directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 is equipped with the above-mentioned acceleration sensor 21, gyro sensor 22, atmospheric pressure sensor 23, etc., it is possible to implement technologies such as pedestrian autonomous navigation (PDR) using these sensors 21 to 23, etc. It becomes possible to measure the position of the terminal device 10 using the . This makes it possible to obtain indoor position information that is difficult to obtain using positioning systems such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, by using the gyro sensor 22, it is possible to know the direction of travel of the user U, the direction of the line of sight, and the inclination of the user's body. Further, from the atmospheric pressure detected by the atmospheric pressure sensor 23, it is also possible to know the altitude and the number of floors where the terminal device 10 of the user U is located.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。撮像部15は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects, for example, the temperature around the terminal device 10. The sound sensor 25 detects, for example, sounds around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10 . The magnetic sensor 27 detects, for example, the earth's magnetism around the terminal device 10. The imaging unit 15 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び撮像部15は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The above-mentioned atmospheric pressure sensor 23, temperature sensor 24, sound sensor 25, optical sensor 26, and imaging unit 15 each detect atmospheric pressure, temperature, sound, and illuminance, and capture images of the surroundings, thereby providing information to the terminal device 10. It is possible to detect the surrounding environment and situation. Furthermore, it is possible to improve the accuracy of the location information of the terminal device 10 based on the environment and situation around the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33と、ガイド表示部34と、ガイド変更部35と、撮影判定部36と、認識部37と、通知部38とを備える。なお、実際には、処理部33が、ガイド表示部34と、ガイド変更部35と、撮影判定部36と、認識部37と、通知部38とを備えていてもよい。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, etc., and various circuits. Further, the control unit 30 may be configured with hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control section 30 includes a transmitting section 31 , a receiving section 32 , a processing section 33 , a guide display section 34 , a guide changing section 35 , an imaging determination section 36 , a recognition section 37 , and a notification section 38 . Note that, in reality, the processing section 33 may include a guide display section 34, a guide change section 35, a shooting determination section 36, a recognition section 37, and a notification section 38.

(送信部31)
送信部31は、例えば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~27によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介して情報提供装置100へ送信することができる。
(Transmission unit 31)
The transmitting unit 31 receives, for example, various information input by the user U using the input unit 13, various information detected by the sensors 21 to 27 mounted on or connected to the terminal device 10, and information measured by the positioning unit 14. The location information of the terminal device 10 and the like can be transmitted to the information providing device 100 via the communication unit 11.

(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される各種情報や、情報提供装置100からの各種情報の要求を受信することができる。
(Receiving unit 32)
The receiving unit 32 can receive various information provided from the information providing device 100 and requests for various information from the information providing device 100 via the communication unit 11 .

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10, including the display unit 12 and the like. For example, the processing unit 33 can output various types of information transmitted by the transmitting unit 31 and various types of information received by the receiving unit 32 from the information providing device 100 to the display unit 12 for display.

(ガイド表示部34)
ガイド表示部34は、多視点画像を撮影する際に、所定の撮影ガイドを画面に表示する。例えば、ガイド表示部34は、撮影ガイドとして被写体のうち被撮影者(撮影モデル)のポーズ、表情、持ち方のうち少なくとも1つに関するガイドを画面に表示する。また、ガイド表示部34は、撮影ガイドとして被写体のシルエット、輪郭、又は半透明の表示を画面に表示する。
(Guide display section 34)
The guide display unit 34 displays a predetermined photographing guide on the screen when photographing a multi-view image. For example, the guide display unit 34 displays on the screen, as a photography guide, a guide regarding at least one of the pose, facial expression, and holding style of the person to be photographed (photographed model) among the subjects. Further, the guide display unit 34 displays a silhouette, outline, or semi-transparent display of the subject on the screen as a photography guide.

また、ガイド表示部34は、被写体を撮影する際に、被写体に撮影ガイドを重畳表示する。また、ガイド表示部34は、最初に撮影された画像で被写体のうち被撮影者のポーズを特定し、特定されたポーズに応じた撮影ガイドを選択して表示する。 Further, the guide display unit 34 displays a photographing guide superimposed on the subject when photographing the subject. Further, the guide display unit 34 specifies the pose of the photographed person among the subjects in the first photographed image, and selects and displays a photographic guide corresponding to the specified pose.

(ガイド変更部35)
ガイド変更部35は、撮影時の視点を移動する度に、画面に表示された撮影ガイドを視点に応じて変更する。また、ガイド変更部35は、撮影時の視点を移動するにつれて、撮影ガイドを段階的に変更してもよい。
(Guide change unit 35)
The guide change unit 35 changes the shooting guide displayed on the screen according to the viewpoint every time the viewpoint during shooting is moved. The guide change unit 35 may also change the shooting guide step by step as the viewpoint during shooting is moved.

(撮影判定部36)
撮影判定部36は、被写体が前記撮影ガイドに一致した場合、撮像部15を用いて、自動的に撮影する。また、撮影判定部36は、多視点画像の撮影が完了した場合、送信部31を用いて、多視点画像を情報提供装置100に投稿する。このとき、撮影判定部36は、撮影された画像から多視点画像を生成してもよい。
(Photographing determination unit 36)
The photographing determination unit 36 automatically photographs the subject using the imaging unit 15 when the subject matches the photographing guide. Further, when the shooting of the multi-view image is completed, the shooting determination unit 36 posts the multi-view image to the information providing device 100 using the transmitting unit 31 . At this time, the photographing determination unit 36 may generate a multi-view image from the photographed images.

(認識部37)
認識部37は、多視点画像を構成する画像の撮影時に、画像に含まれる撮影対象を認識する。例えば、認識部37は、画像認識又は機械学習で、画像に含まれる撮影対象を認識する。また、認識部37は、撮影の度に、画像に含まれる撮影対象を認識する。また、認識部37は、撮影の度に、画像に含まれる複数の撮影対象の各々を認識する。また、認識部37は、撮影の度に、他の撮影対象に隠れて見えなくなった撮影対象を認識する。
(Recognition unit 37)
The recognition unit 37 recognizes a photographic subject included in an image when an image constituting a multi-view image is photographed. For example, the recognition unit 37 recognizes a photographic subject included in an image by image recognition or machine learning. Furthermore, the recognition unit 37 recognizes the photographic subject included in the image every time the image is photographed. Further, the recognition unit 37 recognizes each of the plurality of photographic targets included in the image every time a photograph is taken. Moreover, the recognition unit 37 recognizes a photographic subject that is hidden behind another photographic subject and becomes invisible every time a photograph is taken.

(通知部38)
通知部38は、被写体が撮影ガイドとずれている場合、被写体が撮影ガイドとずれている箇所を撮影者に通知する。なお、被写体は、撮影者自身であってもよい。すなわち、撮影者と被撮影者は同一人物であってもよい。
(Notification unit 38)
When the subject is out of alignment with the photography guide, the notification unit 38 notifies the photographer of the portion where the subject is out of alignment with the photography guide. The subject may be the photographer himself. In other words, the photographer and the person being photographed may be the same person.

また、通知部38は、認識部37により認識された撮影対象を利用者に通知する。例えば、通知部38は、撮影の度に、認識された撮影対象を利用者に通知する。また、通知部38は、撮影の度に、認識された複数の撮影対象の各々を利用者に通知する。また、通知部38は、撮影の度に、認識された撮影対象の画像の撮影枚数を利用者に通知する。また、通知部38は、撮影の度に、多視点画像を構成する画像の必要数までの残り枚数を利用者に通知する。また、通知部38は、撮影の度に、他の撮影対象に隠れて見えなくなった撮影対象を利用者に通知する。 Furthermore, the notification unit 38 notifies the user of the photographic subject recognized by the recognition unit 37. For example, the notification unit 38 notifies the user of the recognized photographic subject every time a photograph is taken. Furthermore, the notification unit 38 notifies the user of each of the plurality of recognized photographic targets each time a photograph is taken. Furthermore, the notification unit 38 notifies the user of the number of images of the recognized object to be photographed each time a photograph is taken. Furthermore, the notification unit 38 notifies the user of the remaining number of images constituting the multi-view image, up to the required number, each time a photograph is taken. Moreover, the notification unit 38 notifies the user of a photographic subject that is hidden behind another photographic subject and is no longer visible every time a photograph is taken.

このとき、通知部38は、特定された撮影対象を利用者に音声で通知してもよい。また、通知部38は、特定された撮影対象を利用者に画面表示で通知してもよい。 At this time, the notification unit 38 may notify the user of the identified shooting target by voice. Further, the notification unit 38 may notify the user of the identified photographic subject through a screen display.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. The storage unit 40 stores various programs, various data, and the like.

〔4.情報提供装置の構成例〕
次に、図6を用いて、実施形態に係る情報提供装置100の構成について説明する。図6は、実施形態に係る情報提供装置100の構成例を示す図である。図6に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of information providing device]
Next, the configuration of the information providing apparatus 100 according to the embodiment will be described using FIG. 6. FIG. 6 is a diagram showing a configuration example of the information providing apparatus 100 according to the embodiment. As shown in FIG. 6, the information providing device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図4参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 4) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD、SSD、光ディスク等の記憶装置によって実現される。図6に示すように、記憶部120は、利用者情報データベース121と、履歴情報データベース122と、画像情報データベース123とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a HDD, an SSD, an optical disk, etc. As shown in FIG. 6 , the storage unit 120 has a user information database 121, a history information database 122, and an image information database 123.

(利用者情報データベース121)
利用者情報データベース121は、利用者Uに関する利用者情報を記憶する。例えば、利用者情報データベース121は、利用者Uの属性等の種々の情報を記憶する。図7は、利用者情報データベース121の一例を示す図である。図7に示した例では、利用者情報データベース121は、「利用者ID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目を有する。
(User information database 121)
The user information database 121 stores user information regarding the user U. For example, the user information database 121 stores various information such as user U's attributes. FIG. 7 is a diagram showing an example of the user information database 121. In the example shown in FIG. 7, the user information database 121 has items such as "user ID (identifier),""age,""gender,""home,""worklocation," and "interest."

「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、利用者Uの連絡先(電話番号、メールアドレス等)であってもよいし、利用者Uの端末装置10を識別するための識別情報であってもよい。 “User ID” indicates identification information for identifying user U. Note that the "user ID" may be user U's contact information (telephone number, email address, etc.), or may be identification information for identifying user U's terminal device 10.

また、「年齢」は、利用者IDにより識別される利用者Uの年齢を示す。なお、「年齢」は、利用者Uの具体的な年齢(例えば35歳など)を示す情報であってもよいし、利用者Uの年代(例えば30代など)を示す情報であってもよい。あるいは、「年齢」は、利用者Uの生年月日を示す情報であってもよいし、利用者Uの世代(例えば80年代生まれなど)を示す情報であってもよい。また、「性別」は、利用者IDにより識別される利用者Uの性別を示す。 Moreover, "age" indicates the age of the user U identified by the user ID. Note that the "age" may be information indicating the specific age of the user U (for example, 35 years old, etc.), or may be information indicating the age of the user U (for example, 30s, etc.) . Alternatively, the "age" may be information indicating the date of birth of the user U, or may be information indicating the generation of the user U (for example, born in the 1980s). Furthermore, “gender” indicates the gender of the user U identified by the user ID.

また、「自宅」は、利用者IDにより識別される利用者Uの自宅の位置情報を示す。なお、図7に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Moreover, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 7, "home" is illustrated as an abstract code such as "LC11", but it may also be latitude/longitude information or the like. Furthermore, for example, "home" may be a region name or address.

また、「勤務地」は、利用者IDにより識別される利用者Uの勤務地(学生の場合は学校)の位置情報を示す。なお、図7に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Moreover, "work place" indicates the location information of the work place (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 7, the "work location" is illustrated as an abstract code such as "LC12," but it may also be latitude and longitude information. Further, for example, the "work location" may be a region name or address.

また、「興味」は、利用者IDにより識別される利用者Uの興味を示す。すなわち、「興味」は、利用者IDにより識別される利用者Uが関心の高い対象を示す。例えば、「興味」は、利用者Uが検索エンジンに入力して検索した検索クエリ(キーワード)等であってもよい。なお、図7に示す例では、「興味」は、各利用者Uに1つずつ図示するが、複数であってもよい。 Moreover, "interest" indicates the interest of the user U identified by the user ID. That is, "interest" indicates an object in which the user U identified by the user ID has a high interest. For example, "interest" may be a search query (keyword) that the user U inputs into a search engine. In the example shown in FIG. 7, one "interest" is shown for each user U, but there may be a plurality of "interests".

例えば、図7に示す例において、利用者ID「U1」により識別される利用者Uの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、自宅が「LC11」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、勤務地が「LC12」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、「スポーツ」に興味があることを示す。 For example, in the example shown in FIG. 7, the age of the user U identified by the user ID "U1" is "20s", and the gender is "male". Further, for example, the user U identified by the user ID "U1" indicates that his home is "LC11". Further, for example, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, the user U identified by the user ID "U1" indicates that he is interested in "sports."

ここで、図7に示す例では、「U1」、「LC11」及び「LC12」といった抽象的な値を用いて図示するが、「U1」、「LC11」及び「LC12」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 7, abstract values such as "U1", "LC11", and "LC12" are used for illustration, but "U1", "LC11", and "LC12" have specific values. It is assumed that information such as character strings and numerical values is stored. Below, abstract values may be illustrated in diagrams related to other information as well.

なお、利用者情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、利用者情報データベース121は、利用者Uの端末装置10に関する各種情報を記憶してもよい。また、利用者情報データベース121は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、利用者情報データベース121は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。 Note that the user information database 121 is not limited to the above, and may store various information depending on the purpose. For example, the user information database 121 may store various information regarding the terminal device 10 of the user U. In addition, the user information database 121 includes information such as demographic (demographic attributes), psychographic (psychological attributes), geographic (geographical attributes), behavioral (behavioral attributes), etc. of user U. Information regarding attributes may also be stored. For example, the user information database 121 includes name, family structure, place of birth (locality), occupation, position, income, qualifications, type of residence (single-family house, condominium, etc.), presence or absence of a car, commuting/commuting time, commuting/commuting. Memorizes information such as routes, commuter pass sections (stations, lines, etc.), frequently used stations (other than the station closest to your home or work), lessons (location, time zone, etc.), hobbies, interests, lifestyle, etc. You can.

(履歴情報データベース122)
履歴情報データベース122は、利用者Uの行動を示す履歴情報(ログデータ)に関する各種情報を記憶する。図8は、履歴情報データベース122の一例を示す図である。図8に示した例では、履歴情報データベース122は、「利用者ID」、「位置履歴」、「検索履歴」、「閲覧履歴」、「購入履歴」、「投稿履歴」といった項目を有する。
(History information database 122)
The history information database 122 stores various information related to history information (log data) indicating the actions of the user U. FIG. 8 is a diagram showing an example of the history information database 122. In the example shown in FIG. 8, the history information database 122 has items such as "user ID", "location history", "search history", "browsing history", "purchase history", and "posting history".

「利用者ID」は、利用者Uを識別するための識別情報を示す。また、「位置履歴」は、利用者Uの位置や移動の履歴である位置履歴を示す。また、「検索履歴」は、利用者Uが入力した検索クエリの履歴である検索履歴を示す。また、「閲覧履歴」は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴を示す。また、「購入履歴」は、利用者Uによる購入の履歴である購入履歴を示す。また、「投稿履歴」は、利用者Uによる投稿の履歴である投稿履歴を示す。なお、「投稿履歴」は、利用者Uの所有物に関する質問を含んでいてもよい。 “User ID” indicates identification information for identifying user U. Further, “position history” indicates a position history that is a history of the user U's position and movement. Further, “search history” indicates a search history that is a history of search queries input by the user U. In addition, “browsing history” indicates a browsing history that is a history of contents that the user U has viewed. Moreover, "purchase history" indicates a purchase history that is a history of purchases by user U. Moreover, "posting history" indicates a posting history that is a history of postings by user U. Note that the "posting history" may include questions regarding user U's belongings.

例えば、図8に示す例において、利用者ID「U1」により識別される利用者Uは、「位置履歴#1」の通りに移動し、「検索履歴#1」の通りに検索し、「閲覧履歴#1」の通りにコンテンツを閲覧し、「購入履歴#1」の通りに所定の店舗等で所定の商品等を購入し、「投稿履歴」の通りに投稿したことを示す。 For example, in the example shown in FIG. 8, user U identified by user ID "U1" moves as shown in "location history #1," searches as shown in "search history #1," views content as shown in "browsing history #1," purchases specific products at specific stores as shown in "purchase history #1," and posts as shown in "posting history."

ここで、図8に示す例では、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」といった抽象的な値を用いて図示するが、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」には、具体的な文字列や数値等の情報が記憶されるものとする。 In the example shown in FIG. 8, abstract values such as "U1", "Location History #1", "Search History #1", "Browse History #1", "Purchase History #1", and "Post History #1" are used for illustration, but specific information such as character strings and numerical values is stored in "U1", "Location History #1", "Search History #1", "Browse History #1", "Purchase History #1", and "Post History #1".

なお、履歴情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、履歴情報データベース122は、利用者Uの所定のサービスの利用履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの実店舗の来店履歴又は施設の訪問履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。 Note that the history information database 122 is not limited to the above, and may store various information depending on the purpose. For example, the history information database 122 may store the user U's usage history of a predetermined service. Further, the history information database 122 may store the user U's visit history to a physical store, visit history to a facility, or the like. Further, the history information database 122 may store the payment history of user U's payment using the terminal device 10 (electronic payment).

(画像情報データベース123)
画像情報データベース123は、多視点画像に関する各種情報を記憶する。図9は、画像情報データベース123の一例を示す図である。図9に示した例では、画像情報データベース123は、「多視点画像」、「画像」、「視点」、「撮影対象」、「位置」、「アノテーション対象」、「タグ」、「顔の位置」といった項目を有する。
(Image information database 123)
The image information database 123 stores various information regarding multi-view images. FIG. 9 is a diagram showing an example of the image information database 123. In the example shown in FIG. 9, the image information database 123 includes "multi-view image", "image", "viewpoint", "shooting target", "position", "annotation target", "tag", "face position It has items such as ”.

「多視点画像」は、多視点画像を識別するための識別情報を示す。なお、実際には、多視点画像のデータの格納場所や所在位置等であってもよい。また、「画像」は、多視点画像を構成する画像を識別するための識別情報を示す。なお、実際には、多視点画像を構成する画像のデータの格納場所や所在位置等であってもよい。 “Multi-view image” indicates identification information for identifying a multi-view image. Note that, in reality, it may be a storage location or location of data of a multi-view image. Further, "image" indicates identification information for identifying images forming a multi-view image. Note that, in reality, it may be a storage location or location of data of images forming a multi-view image.

また、「視点」は、多視点画像を構成する画像を撮影した時の視点を示す。すなわち、視点は、多視点画像を構成する画像に組まれる撮影対象の位置(ポジション)や角度(アングル)を示す。 Moreover, "viewpoint" indicates the viewpoint when images forming the multi-view image are photographed. In other words, the viewpoint indicates the position and angle of the photographic subject included in the images constituting the multi-view image.

また、「撮影対象」は、多視点画像を構成する画像に含まれる撮影対象を示す。すなわち、被写体として撮影された撮影対象を示す。例えば、撮影対象の分類(カテゴリ)や具体的な商品名、商品コード等を示す。また、撮影対象は、被撮影者(人物)であってもよい。また、撮影対象は、複数であってもよい。すなわち、1つの画像に複数の撮影対象が含まれていてもよい。例えば、被撮影者と、その被撮影者が身につけている2つのファッションアイテムを、それぞれ撮影対象としてもよい。 Further, "photographing target" indicates a photographing target included in images forming a multi-view image. In other words, it indicates a photographic subject photographed as a subject. For example, it shows the classification (category) of the photographic object, specific product name, product code, etc. Furthermore, the subject to be photographed may be a person to be photographed (person). Furthermore, there may be a plurality of objects to be photographed. That is, one image may include a plurality of shooting targets. For example, a person to be photographed and two fashion items worn by the person to be photographed may be photographed.

また、「位置」は、多視点画像内の撮影対象の位置(画像内の位置)を示す。本実施形態では、多視点画像を構成する個々の画像内の撮影対象の3次元的な位置を示す。撮影対象の3次元的な位置は、画像内の座標等の絶対位置であってもよいし、基準点や他の撮像対象からの相対位置であってもよい。また、3次元的な位置は一例に過ぎない。 Further, "position" indicates the position of the photographing target within the multi-view image (position within the image). In this embodiment, the three-dimensional position of the photographing target in each image constituting the multi-view image is shown. The three-dimensional position of the object to be imaged may be an absolute position such as coordinates within an image, or may be a relative position from a reference point or another object to be imaged. Further, the three-dimensional position is only an example.

また、「アノテーション対象」は、撮影対象(アノテーション対象の候補)のうち、タグ付けの対象(アノテーション対象)を示す。タグ付けの対象は、ユーザにより選択されたものであってもよいし、事前設定や機械学習等により自動的に決定されたものであってもよい。 In addition, the "annotation target" refers to the target of tagging (annotation target) among the photographed subjects (candidates for annotation targets). The tagging target may be selected by the user, or may be automatically determined by pre-setting, machine learning, etc.

また、「タグ」は、タグ付けの対象(アノテーション対象)に付与されるタグを示す。例えば、事前に登録されたタグを識別するための識別情報であってもよいし、タグの内容であってもよい。例えば、タグ付けの対象(アノテーション対象)となる商品(ファッションアイテム)の商品ページに関する情報であってもよい。このとき、ファッション通販サイト(例えば「ZOZOTOWN」(登録商標))等の電子商取引サイトの各商品ページから画像認識又は機械学習で当該商品の類似画像を検索し、検索結果に基づいて当該商品の商品ページを自動で特定してもよい。 Further, "tag" indicates a tag attached to a tagging target (annotation target). For example, the information may be identification information for identifying a tag registered in advance, or may be the contents of the tag. For example, the information may be information regarding a product page of a product (fashion item) to be tagged (annotated). At this time, image recognition or machine learning is used to search for similar images of the product from each product page on e-commerce sites such as fashion mail order sites (e.g. "ZOZOTOWN" (registered trademark)), and based on the search results, the products of the product are The page may be automatically identified.

また、「顔の位置」は多視点画像内の被撮影者の顔の位置(画像内の顔の位置)を示す。本実施形態では、多視点画像を構成する個々の画像内の被撮影者の顔の3次元的な位置を示す。顔の位置は、画像内の座標等の絶対位置であってもよいし、基準点や他の撮像対象からの相対位置であってもよい。また、顔の輪郭や顔の各部(眉、目、耳、鼻、口、顎等)の位置等であってもよい。 Further, "position of face" indicates the position of the face of the person to be photographed within the multi-view image (position of the face within the image). In this embodiment, the three-dimensional position of the face of the photographed person in each image constituting the multi-view image is shown. The position of the face may be an absolute position such as coordinates within an image, or may be a relative position from a reference point or other imaging target. It may also be the outline of the face or the position of each part of the face (eyebrows, eyes, ears, nose, mouth, chin, etc.).

例えば、図9に示す例において、多視点画像「A」を構成する画像「A1」は、「視点#A1」で撮影され、撮影対象である「バッグ」が画像内の「位置#A1」にあり、「アノテーション対象」(タグ付けの対象)として選定されており、対象のバッグに関するウェブサイト「サイト#W1」へのリンクがタグとして付与され、画像内の被撮影者の顔の位置は「顔位置#A1」であることを示す。 For example, in the example shown in FIG. 9, the image "A1" constituting the multi-view image "A" is photographed at "viewpoint #A1", and the photographed object "bag" is located at "position #A1" in the image. Yes, it has been selected as an "annotation target" (tagging target), a link to the website "Site #W1" related to the target bag is added as a tag, and the position of the photographed person's face in the image is " face position #A1".

ここで、図9に示す例では、「A」、「A1」、「視点#A1」、「位置#A1」、「サイト#W1」及び「顔位置#A1」といった抽象的な値を用いて図示するが、「A」、「A1」、「視点#A1」、「位置#A1」、「サイト#W1」及び「顔位置#A1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 9, abstract values such as "A", "A1", "Viewpoint #A1", "Position #A1", "Site #W1" and "Face position #A1" are used. As shown in the figure, "A", "A1", "Viewpoint #A1", "Position #A1", "Site #W1" and "Face position #A1" contain information such as specific character strings and numerical values. shall be remembered.

なお、画像情報データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、画像情報データベース123は、多視点画像の投稿者又は閲覧者を識別するための識別情報を記憶してもよい。また、画像情報データベース123は、被写体(撮影対象、被撮影者等)に関する詳細情報を記憶してもよい。また、画像情報データベース123は、候補となるタグのリストを記憶してもよい。また、画像情報データベース123は、撮影場所や撮影日時に関する情報を記憶してもよい。また、画像情報データベース123は、撮影に用いた撮影装置(ユーザの端末装置等)や撮影環境に関する情報を記憶してもよい。 Note that the image information database 123 is not limited to the above, and may store various information depending on the purpose. For example, the image information database 123 may store identification information for identifying the poster or viewer of the multi-view image. Further, the image information database 123 may store detailed information regarding a subject (a subject to be photographed, a person to be photographed, etc.). The image information database 123 may also store a list of candidate tags. Further, the image information database 123 may store information regarding the shooting location and the shooting date and time. The image information database 123 may also store information regarding the photographing device used for photographing (user's terminal device, etc.) and the photographing environment.

(制御部130)
図6に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図6に示す例では、制御部130は、取得部131と、特定部132と、推定部133と、タグ付与部134と、タグ変更部135と、画像変換部136と、提供部137とを有する。
(Control unit 130)
Returning to FIG. 6, the explanation will be continued. The control unit 130 is a controller, and uses, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) to control the information providing apparatus 100. This is achieved by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 6, the control unit 130 includes an acquisition unit 131, an identification unit 132, an estimation unit 133, a tag assignment unit 134, a tag change unit 135, an image conversion unit 136, and a provision unit 137. have

(取得部131)
取得部131は、利用者Uにより入力された検索クエリを取得する。例えば、取得部131は、利用者Uが検索エンジン等に検索クエリを入力してキーワード検索を行った際に、通信部110を介して、当該検索クエリを取得する。すなわち、取得部131は、通信部110を介して、利用者Uにより検索エンジンやサイト又はアプリの検索窓に入力されたキーワードを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires a search query input by the user U. For example, when the user U inputs a search query into a search engine or the like and performs a keyword search, the acquisition unit 131 acquires the search query via the communication unit 110. That is, the acquisition unit 131 acquires, via the communication unit 110, a keyword input by the user U into a search window of a search engine, site, or application.

また、取得部131は、通信部110を介して、利用者Uに関する利用者情報を取得する。例えば、取得部131は、利用者Uの端末装置10から、利用者Uを示す識別情報(利用者ID等)や、利用者Uの位置情報、利用者Uの属性情報等を取得する。また、取得部131は、利用者Uのユーザ登録時に、利用者Uを示す識別情報や、利用者Uの属性情報等を取得してもよい。そして、取得部131は、利用者情報を、記憶部120の利用者情報データベース121に登録する。 The acquisition unit 131 also acquires user information about the user U via the communication unit 110. For example, the acquisition unit 131 acquires identification information (such as a user ID) indicating the user U, location information of the user U, attribute information of the user U, and the like from the terminal device 10 of the user U. The acquisition unit 131 may also acquire identification information indicating the user U, attribute information of the user U, and the like when registering the user U. Then, the acquisition unit 131 registers the user information in the user information database 121 of the storage unit 120.

また、取得部131は、通信部110を介して、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、取得部131は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報を取得する。そして、取得部131は、各種の履歴情報を、記憶部120の履歴情報データベース122に登録する。 The acquisition unit 131 also acquires various types of history information (log data) indicating the behavior of the user U via the communication unit 110. For example, the acquisition unit 131 acquires various types of history information indicating the behavior of the user U from the terminal device 10 of the user U, or from various servers, etc. based on the user ID, etc. Then, the acquisition unit 131 registers the various types of history information in the history information database 122 of the storage unit 120.

また、取得部131は、通信部110を介して、投稿者又は閲覧者である利用者Uから多視点画像を取得する。例えば、取得部131は、投稿者である利用者Uの端末装置10から、投稿者が撮影した多視点画像を取得する。また、取得部131は、閲覧者である利用者Uが指定した他の投稿者が撮影した多視点画像を取得する。 Further, the acquisition unit 131 acquires a multi-view image from the user U who is the poster or the viewer via the communication unit 110. For example, the acquisition unit 131 acquires a multi-view image taken by the poster from the terminal device 10 of the user U who is the poster. The acquisition unit 131 also acquires multi-view images taken by other posters designated by the user U who is the viewer.

また、取得部131は、通信部110を介して、被撮影者とは異なる別人の顔の多視点画像を取得する。例えば、取得部131は、別人の顔を複数の視点から撮影した多視点顔画像を取得する。別人の顔は、閲覧者である利用者Uの顔であってもよい。本実施形態では、取得部131は、通信部110を介して、閲覧者の顔の多視点画像を取得する。なお、取得部131は、閲覧者の顔の多視点画像を事前に取得してもよいし、閲覧時に取得してもよい。また、閲覧者の顔の多視点画像は、少なくとも閲覧者の顔を含む多視点画像であってもよい。例えば、取得部131は、閲覧者である利用者Uの顔を複数の視点から撮影した多視点顔画像を取得する。 The acquisition unit 131 also acquires a multi-view image of the face of another person different from the photographed person via the communication unit 110. For example, the acquisition unit 131 acquires a multi-view face image in which the face of the other person is photographed from multiple viewpoints. The face of the other person may be the face of the user U who is the viewer. In this embodiment, the acquisition unit 131 acquires a multi-view image of the viewer's face via the communication unit 110. Note that the acquisition unit 131 may acquire a multi-view image of the viewer's face in advance, or may acquire it at the time of viewing. Furthermore, the multi-view image of the viewer's face may be a multi-view image that includes at least the viewer's face. For example, the acquisition unit 131 acquires a multi-view face image in which the face of the user U who is the viewer is photographed from multiple viewpoints.

また、取得部131は、通信部110を介して、投稿者からタグ付けの対象の選択を受け付ける受付部としても機能する。例えば、取得部131(受付部)は、投稿者から、タグ付けの対象の選択と、タグ付けの対象に対応付けるウェブページの指定とを受け付ける。 The acquisition unit 131 also functions as a reception unit that receives a selection of a tagging target from a poster via the communication unit 110. For example, the acquisition unit 131 (reception unit) receives from the poster a selection of a tagging target and a designation of a web page to be associated with the tagging target.

(特定部132)
特定部132は、多視点画像に含まれる撮影対象を特定する。そして、特定部132は、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する。このとき、特定部132は、多視点画像の各視点の画像ごとに画像認識又は機械学習で撮影対象を特定して分類する。
(Specific unit 132)
The specifying unit 132 specifies a shooting target included in the multi-view image. The identifying unit 132 then identifies an annotation tagging target from among the photographic targets included in the multi-view image. At this time, the specifying unit 132 uses image recognition or machine learning to specify and classify the shooting target for each viewpoint image of the multi-view image.

例えば、特定部132は、投稿者からのタグ付けの対象の選択に応じて、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する。あるいは、特定部132は、画像認識又は機械学習で、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する。 For example, the specifying unit 132 specifies an annotation tagging target from among the shooting targets included in the multi-view image in response to a tagging target selection from a poster. Alternatively, the specifying unit 132 uses image recognition or machine learning to specify a target for annotation tagging from among photographic targets included in the multi-view image.

また、特定部132は、ネットワーク上の複数のウェブページから画像認識又は機械学習でタグ付けの対象の画像の類似画像を検索し、類似画像を含むウェブページをタグ付けの対象に対応付けるウェブページとして自動で特定する。 The identification unit 132 also searches for similar images to the image to be tagged from a plurality of web pages on the network using image recognition or machine learning, and associates the web page containing the similar image with the tagged target as a web page. Automatically identify.

また、特定部132は、利用者Uの閲覧対象となる多視点画像の被撮影者の顔を特定する。例えば、特定部132は、利用者Uの閲覧対象となる多視点画像の被撮影者の顔と、多視点画像の撮影時の視点とを特定する。このとき、特定部132は、同時に閲覧される複数の多視点画像のそれぞれの被撮影者の顔と、複数の多視点画像のそれぞれの撮影時の視点とを特定してもよい。 Further, the specifying unit 132 specifies the face of the person to be photographed in the multi-view image that is to be viewed by the user U. For example, the specifying unit 132 specifies the face of the person to be photographed in the multi-view image that is to be viewed by the user U, and the viewpoint at the time the multi-view image was taken. At this time, the specifying unit 132 may specify the face of the person to be photographed in each of the plurality of multi-view images that are viewed at the same time, and the viewpoint at the time of shooting each of the plurality of multi-view images.

(推定部133)
推定部133は、多視点画像内の撮影対象の位置を推定する。すなわち、推定部133は、多視点画像内の撮影対象から選択されたタグ付けの対象の位置を推定する。本実施形態では、推定部133は、タグ付けの対象の多視点画像内の3次元的な位置を推定する。多視点画像内の3次元的な位置は、画像内の座標等の絶対位置であってもよいし、基準点や他の撮像対象からの相対位置であってもよい。なお、実際には、特定部132が推定部133として機能してもよい。このとき、特定部132は、タグ付けの対象の多視点画像内の3次元的な位置を特定する。
(Estimation unit 133)
The estimation unit 133 estimates the position of the shooting target in the multi-view image. That is, the estimation unit 133 estimates the position of the tagging target selected from the shooting targets in the multi-view image. In this embodiment, the estimation unit 133 estimates the three-dimensional position of the tagging target in the multi-view image. The three-dimensional position in the multi-view image may be an absolute position such as coordinates in the image, or may be a relative position from a reference point or another imaging target. Note that, in practice, the identification unit 132 may function as the estimation unit 133. At this time, the identification unit 132 identifies the three-dimensional position of the tagging target in the multi-view image.

(タグ付与部134)
タグ付与部134は、タグ付けの対象の位置に合わせてタグを付与する。例えば、タグ付与部134は、タグ付けの対象の3次元的な位置に合わせてタグ付けの対象にタグを付与する。これにより、付与されたタグが画面内に表示される。また、タグ付与部134は、タグ付けの対象にタグを付与する際、タグが他の対象及び他のタグと重複しないように付与する。
(Tagging section 134)
The tagging unit 134 adds a tag according to the position of the tag target. For example, the tagging unit 134 tags the tagging target according to the three-dimensional position of the tagging target. As a result, the assigned tag will be displayed on the screen. Furthermore, when tagging a target to be tagged, the tagging unit 134 tags the tag so that the tag does not overlap with other targets or tags.

また、タグ付与部134は、タグ付けの対象にタグを付与する際、タグ付けの対象が他の対象により隠されていない状態であれば、タグ付けの対象にタグを付与する。なお、タグ付与部134は、タグ付けの対象にタグを付与する際、タグ付けの対象が他の対象により隠されている状態であっても、タグ付けの対象のタグが他の対象のタグよりも表示の優先度が高い場合には、他の対象にはタグを付与せず、タグ付けの対象にタグを付与してもよい。 In addition, when tagging the target of tagging, the tagging unit 134 tags the target of tagging if the target of tagging is not hidden by another target. Note that when tagging a tag to a target, the tagging unit 134 is configured to tag the target to be tagged, even if the target to be tagged is hidden by another target. If the display priority is higher than that of the tag, the tag may be added to the tagged object without adding the tag to other objects.

(タグ変更部135)
タグ変更部135は、多視点画像の視点の変更に伴い画面内のタグ付けの対象の位置が変更した場合に、タグ付けの対象の位置の変更に合わせてタグの表示位置を変更する。また、タグ変更部135は、多視点画像の視点が変更されても、タグ付けの対象とタグとの位置関係が保持されるような位置にタグを配置する。なお、実際には、タグ付与部134がタグ変更部135として機能してもよい。この場合、タグ付与部134は、多視点画像の視点が変更される度に、タグ付けの対象の位置の変更に合わせて、タグ付けの対象にタグを付与する。
(tag change unit 135)
When the position of the tag target in the screen changes due to a change in the viewpoint of the multi-view image, the tag change unit 135 changes the display position of the tag in accordance with the change in the position of the tag target. Furthermore, the tag changing unit 135 places the tag at a position where the positional relationship between the tag and the tag is maintained even if the viewpoint of the multi-view image is changed. Note that, in reality, the tag adding section 134 may function as the tag changing section 135. In this case, the tagging unit 134 tags the target of tagging in accordance with the change in the position of the target of tagging each time the viewpoint of the multi-view image is changed.

(画像変換部136)
画像変換部136は、多視点画像を構成する画像ごとに、多視点画像の被撮影者の顔を別人の顔に変換する。例えば、画像変換部136は、多視点画像を構成する画像ごとに、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、別人の顔に変換する。このとき、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、別人の顔に置き換えた新たな多視点画像を生成してもよい。
(Image conversion unit 136)
The image conversion unit 136 converts the face of the person to be photographed in the multi-view image into the face of another person for each image forming the multi-view image. For example, the image converting unit 136 converts the face of the person to be photographed in the multi-view image into the face of another person, in accordance with the viewpoint at the time of shooting the multi-view image, for each image forming the multi-view image. At this time, the image conversion unit 136 may generate a new multi-view image in which the face of the person to be photographed in the multi-view image is replaced with the face of another person in accordance with the viewpoint at the time the multi-view image was taken.

本実施形態では、画像変換部136は、多視点画像を構成する画像ごとに、多視点画像の被撮影者の顔を、閲覧者である利用者Uの顔に変換する。例えば、画像変換部136は、多視点画像を構成する画像ごとに、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、利用者Uの顔に変換する。このとき、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、利用者Uの顔に置き換えた新たな多視点画像を生成してもよい。 In this embodiment, the image conversion unit 136 converts the face of the person photographed in the multi-viewpoint image into the face of the user U who is the viewer, for each image constituting the multi-viewpoint image. For example, the image conversion unit 136 converts the face of the person photographed in the multi-viewpoint image into the face of the user U, for each image constituting the multi-viewpoint image, in accordance with the viewpoint at the time the multi-viewpoint image was captured. At this time, the image conversion unit 136 may generate a new multi-viewpoint image in which the face of the person photographed in the multi-viewpoint image is replaced with the face of the user U in accordance with the viewpoint at the time the multi-viewpoint image was captured.

また、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、別人の顔に変換する際に、多視点画像の被撮影者の身長を別人の身長に合わせて調整する。このとき、画像変換部136は、被撮影者の顔と別人の顔とに基づいて被撮影者の身長を調整してもよい。 In addition, the image conversion unit 136 converts the height of the person in the multi-view image when converting the face of the person in the multi-view image into the face of another person in accordance with the viewpoint at the time of shooting the multi-view image. Adjust to suit the height of another person. At this time, the image conversion unit 136 may adjust the height of the person to be photographed based on the face of the person to be photographed and the face of another person.

本実施形態では、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、閲覧者である利用者Uの顔に変換する際に、多視点画像の被撮影者の身長を利用者Uの身長に合わせて調整する。このとき、画像変換部136は、被撮影者の顔と利用者Uの顔とに基づいて被撮影者の身長を調整してもよい。 In the present embodiment, the image conversion unit 136 converts the face of the person to be photographed in the multi-view image into the face of the user U, who is the viewer, in accordance with the viewpoint at the time of shooting the multi-view image. The height of the person to be photographed in the viewpoint image is adjusted to match the height of the user U. At this time, the image conversion unit 136 may adjust the height of the person to be photographed based on the face of the person to be photographed and the face of user U.

また、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、別人の顔に変換するとともに、変換後の画像の別人の顔の表情を変更する。また、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、別人の顔に変換するとともに、変換後の画像の別人の髪型を変更する。また、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、別人の顔に変換するとともに、変換後の画像の別人の髪の色(濃淡を含む)を変更する。 Further, the image converting unit 136 converts the face of the photographed person in the multi-view image into the face of another person in accordance with the viewpoint at the time of shooting the multi-view image, and also converts the facial expression of the other person in the converted image. change. Further, the image conversion unit 136 converts the face of the photographed person in the multi-view image to the face of another person in accordance with the viewpoint at the time of shooting the multi-view image, and also changes the hairstyle of the other person in the converted image. . In addition, the image conversion unit 136 converts the face of the photographed person in the multi-view image to the face of another person in accordance with the viewpoint at the time of shooting the multi-view image, and also converts the color of the hair of the other person in the converted image ( (including shading).

本実施形態では、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、閲覧者である利用者Uの顔に変換する際に、変換後の利用者Uの顔の表情を変更する。また、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、利用者Uの顔に変換する際に、変換後の利用者Uの髪型を変更する。また、画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、利用者Uの顔に変換する際に、変換後の利用者Uの髪の色を変更する。 In this embodiment, the image conversion unit 136 performs conversion when converting the face of the photographed person in the multi-view image into the face of the user U who is the viewer, in accordance with the viewpoint at the time of shooting the multi-view image. The facial expression of the subsequent user U is changed. In addition, when converting the face of the person to be photographed in the multi-view image into the face of the user U in accordance with the viewpoint at the time of shooting the multi-view image, the image conversion unit 136 also converts the hairstyle of the user U after the conversion into the face of the user U. change. In addition, when converting the face of the person to be photographed in the multi-view image to the face of the user U in accordance with the viewpoint at the time of shooting the multi-view image, the image conversion unit 136 also converts the user U's hair after the conversion. Change the color of.

例えば、画像変換部136は、画像加工編集等により、画像内の利用者Uの髪型や髪の色(濃淡を含む)、表情等を変更してもよい。あるいは、画像変換部136は、利用者Uの指示等に応じて、多視点画像に表示されている現在の顔画像(変換後の利用者Uの顔画像等)を、髪型や髪の色(濃淡を含む)、表情等が異なる顔画像に変換してもよい。 For example, the image conversion unit 136 may change user U's hairstyle, hair color (including shading), facial expression, etc. in the image by image processing and editing. Alternatively, the image conversion unit 136 converts the current face image displayed in the multi-view image (the face image of the user U after conversion, etc.) according to an instruction from the user U to the hairstyle or hair color ( (including shading), facial expressions, etc. may be converted into facial images with different facial expressions.

また、画像変換部136は、同時に閲覧される複数の多視点画像のそれぞれの撮影時の視点に合わせて、それぞれの被撮影者の顔を一括して別人の顔に変換する。本実施形態では、画像変換部136は、同時に閲覧される複数の多視点画像のそれぞれの撮影時の視点に合わせて、それぞれの被撮影者の顔を一括して閲覧者である利用者Uの顔に変換する。 Further, the image converting unit 136 collectively converts the face of each person to be photographed into the face of another person in accordance with the viewpoint at the time of photographing each of a plurality of multi-view images that are viewed at the same time. In the present embodiment, the image conversion unit 136 collectively converts the faces of the photographed persons to the user U who is the viewer, according to the viewpoint at the time of shooting each of the plurality of multi-view images that are viewed at the same time. Convert to face.

(提供部137)
提供部137は、別人の顔に変換後の多視点画像を利用者Uに提供する。例えば、提供部137は、生成された新たな多視点画像を利用者Uに提供する。また、提供部137は、別人の顔に変換後の複数の多視点画像のそれぞれを利用者Uに提供する。
(Providing Department 137)
The providing unit 137 provides the user U with the multi-view image converted into another person's face. For example, the providing unit 137 provides the user U with the generated new multi-view image. Further, the providing unit 137 provides the user U with each of the plurality of multi-view images after being converted into another person's face.

本実施形態では、提供部137は、閲覧者である利用者Uの顔に変換後の多視点画像を利用者Uに提供する。例えば、提供部137は、生成された新たな多視点画像を利用者Uに提供する。また、提供部137は、利用者Uの顔に変換後の複数の多視点画像のそれぞれを利用者Uに提供する。 In the present embodiment, the providing unit 137 provides the user U, who is the viewer, with a multi-view image converted into the face of the user U. For example, the providing unit 137 provides the user U with the generated new multi-view image. Further, the providing unit 137 provides the user U with each of the plurality of multi-view images after the conversion into the user's U face.

〔5.処理手順〕
次に、図10を用いて実施形態に係る端末装置10及び情報提供装置100による処理手順について説明する。図10は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30及び情報提供装置100の制御部130によって繰り返し実行される。また、端末装置10と情報提供装置100とは連携する。
[5. Processing procedure]
Next, a processing procedure by the terminal device 10 and the information providing device 100 according to the embodiment will be described using FIG. 10. FIG. 10 is a flowchart showing the processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 30 of the terminal device 10 and the control unit 130 of the information providing device 100. Further, the terminal device 10 and the information providing device 100 cooperate.

図10に示すように、端末装置10のガイド表示部34は、多視点画像を撮影する際に、所定の撮影ガイドを画面に表示する(ステップS101)。 As shown in FIG. 10, the guide display unit 34 of the terminal device 10 displays a predetermined shooting guide on the screen when shooting a multi-view image (step S101).

続いて、端末装置10の撮影判定部36は、被写体が前記撮影ガイドに一致した場合、撮像部15により、自動的に撮影する(ステップS102)。このとき、端末装置10の通知部38は、被写体が撮影ガイドとずれている場合、被写体が撮影ガイドとずれている箇所を撮影者に通知する。このとき、通知部38は、特定された撮影対象を利用者に音声で通知してもよいし、特定された撮影対象を利用者に画面表示で通知してもよい。 Subsequently, when the subject matches the photographing guide, the photographing determining section 36 of the terminal device 10 automatically photographs the subject using the imaging section 15 (step S102). At this time, if the subject is misaligned with the photography guide, the notification unit 38 of the terminal device 10 notifies the photographer of the location where the subject is misaligned with the photography guide. At this time, the notification unit 38 may notify the user of the specified object to be photographed by voice, or may notify the user of the specified object to be photographed by displaying the screen.

続いて、端末装置10の認識部37は、撮影された画像に含まれる撮影対象を認識する。端末装置10の通知部38は、認識部37により認識された撮影対象を利用者に通知する(ステップS103)。例えば、通知部38は、撮影の度に、認識された撮影対象の画像の撮影枚数や、多視点画像を構成する画像の必要数までの残り枚数、他の撮影対象に隠れて見えなくなった撮影対象等を利用者に通知する。 Subsequently, the recognition unit 37 of the terminal device 10 recognizes the photographic subject included in the photographed image. The notification unit 38 of the terminal device 10 notifies the user of the photographic subject recognized by the recognition unit 37 (step S103). For example, each time a photograph is taken, the notification unit 38 informs the user of the number of images of the recognized photographic target, the number of remaining images up to the required number of images constituting a multi-view image, and the number of images of the recognized photographic target that are hidden behind other photographic targets. Notify users of the target etc.

続いて、端末装置10のガイド変更部35は、撮影時の視点を移動する度に、画面に表示された撮影ガイドを視点に応じて変更する(ステップS104)。このとき、ガイド変更部35は、撮影時の視点を移動するにつれて、撮影ガイドを段階的に変更してもよい。 Subsequently, the guide changing unit 35 of the terminal device 10 changes the photographing guide displayed on the screen according to the viewpoint each time the viewpoint at the time of photographing is moved (step S104). At this time, the guide changing unit 35 may change the photographing guide in stages as the viewpoint at the time of photographing is moved.

続いて、端末装置10の撮影判定部36は、多視点画像の撮影が完了した場合、送信部31を用いて、多視点画像を情報提供装置100に投稿する(ステップS105)。このとき、撮影判定部36は、撮影された画像から多視点画像を生成してもよい。また、撮影判定部36は、投稿前に撮影者に投稿してもよいか確認するようにしてもよい。 Subsequently, when the shooting of the multi-view image is completed, the shooting determination unit 36 of the terminal device 10 posts the multi-view image to the information providing device 100 using the transmitting unit 31 (step S105). At this time, the photographing determination unit 36 may generate a multi-view image from the photographed images. Furthermore, the photographing determination unit 36 may confirm with the photographer whether it is okay to post before posting.

続いて、情報提供装置100の推定部133は、多視点画像内の撮影対象の位置を推定する(ステップS106)。例えば、情報提供装置100の取得部131は、通信部110を介して、端末装置10から多視点画像を取得する。情報提供装置100の特定部132は、多視点画像内の撮影対象を特定する。そして、情報提供装置100の推定部133は、多視点画像内の撮影対象の3次元的な位置を推定する。 Subsequently, the estimation unit 133 of the information providing device 100 estimates the position of the photographing target within the multi-view image (step S106). For example, the acquisition unit 131 of the information providing device 100 acquires multi-view images from the terminal device 10 via the communication unit 110. The specifying unit 132 of the information providing device 100 specifies a shooting target in a multi-view image. Then, the estimation unit 133 of the information providing device 100 estimates the three-dimensional position of the photographing target within the multi-view image.

続いて、情報提供装置100の特定部132は、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する(ステップS107)。例えば、特定部132は、投稿者からのタグ付けの対象の選択に応じて、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する。あるいは、特定部132は、画像認識又は機械学習で、多視点画像に含まれる撮影対象の中から、アノテーションのタグ付けの対象を特定する。 Subsequently, the identifying unit 132 of the information providing apparatus 100 identifies an annotation tagging target from among the photographic targets included in the multi-view image (step S107). For example, the specifying unit 132 specifies an annotation tagging target from among the shooting targets included in the multi-view image in response to a tagging target selection from a poster. Alternatively, the specifying unit 132 uses image recognition or machine learning to specify a target for annotation tagging from among photographic targets included in the multi-view image.

続いて、情報提供装置100のタグ付与部134は、タグ付けの対象にタグを付与する(ステップS108)。このとき、情報提供装置100の推定部133は、多視点画像内のタグ付けの対象の位置を推定する。タグ付与部134は、タグ付けの対象の位置に合わせてタグを付与する。なお、タグを付与する位置については、多視点画像を投稿した投稿者があらかじめ指定していてもよい。 Subsequently, the tagging unit 134 of the information providing device 100 adds a tag to the target of tagging (step S108). At this time, the estimation unit 133 of the information providing device 100 estimates the position of the tag target within the multi-view image. The tagging unit 134 adds a tag according to the position of the tag target. Note that the position where the tag is added may be specified in advance by the poster who posted the multi-view image.

このとき、タグ付与部134は、タグ付けの対象にタグを付与する際、タグが他の対象及び他のタグと重複しないように付与する。また、タグ付与部134は、タグ付けの対象にタグを付与する際、タグ付けの対象が他の対象により隠されていない状態であれば、タグ付けの対象にタグを付与する。なお、タグ付与部134は、タグ付けの対象にタグを付与する際、タグ付けの対象が他の対象により隠されている状態であっても、タグ付けの対象のタグが他の対象のタグよりも表示の優先度が高い場合には、他の対象にはタグを付与せず、タグ付けの対象にタグを付与してもよい。 At this time, when tagging the target to be tagged, the tagging unit 134 tags the tag so that the tag does not overlap with other targets or tags. Furthermore, when tagging the tagging target, the tagging unit 134 tags the tagging target if the tagging target is not hidden by another target. Note that when tagging a tag to a target, the tagging unit 134 is configured to tag the target of tagging even if the target of tagging is hidden by another target. If the display priority is higher than that of the tag, the tag may be added to the tag target without tags being added to other targets.

続いて、情報提供装置100のタグ変更部135は、多視点画像の各視点の画像に合わせて、タグ付けの対象に付与されたタグの表示位置を変更する(ステップS109)。
例えば、タグ変更部135は、多視点画像の視点の変更に伴い画面内のタグ付けの対象の位置が変更した場合に、タグ付けの対象の位置の変更に合わせてタグの表示位置を変更する。
Next, the tag change unit 135 of the information providing device 100 changes the display position of the tag assigned to the tagging target in accordance with each viewpoint image of the multi-viewpoint image (step S109).
For example, when the position of the tagged target on the screen changes with a change in the viewpoint of a multi-view image, the tag change unit 135 changes the display position of the tag in accordance with the change in the position of the tagged target.

続いて、情報提供装置100の画像変換部136は、多視点画像の撮影時の視点に合わせて、多視点画像の被撮影者の顔を、閲覧者の顔に変換する(ステップS110)。このとき、情報提供装置100の取得部131は、通信部110を介して、閲覧者の顔の多視点画像を取得する。なお、取得部131は、閲覧者の顔の多視点画像を事前に取得してもよいし、閲覧時に取得してもよい。また、情報提供装置100の提供部137は、通信部110を介して、閲覧者の顔に変換後の多視点画像を閲覧者に提供する。 Next, the image conversion unit 136 of the information providing device 100 converts the face of the person photographed in the multi-viewpoint image into the face of the viewer, in accordance with the viewpoint at the time of photographing the multi-viewpoint image (step S110). At this time, the acquisition unit 131 of the information providing device 100 acquires the multi-viewpoint image of the viewer's face via the communication unit 110. Note that the acquisition unit 131 may acquire the multi-viewpoint image of the viewer's face in advance, or may acquire it at the time of viewing. Furthermore, the provision unit 137 of the information providing device 100 provides the multi-viewpoint image after conversion to the viewer's face to the viewer via the communication unit 110.

〔6.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modified example]
The terminal device 10 and the information providing device 100 described above may be implemented in various different forms other than the above embodiments. Therefore, a modification of the embodiment will be described below.

上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、情報提供装置100を備えているともいえる。 In the above embodiment, part or all of the processing executed by the information providing device 100 may actually be executed by the terminal device 10. For example, the process may be completed stand-alone (by the terminal device 10 alone). In this case, it is assumed that the terminal device 10 has the functions of the information providing device 100 in the above embodiment. Furthermore, in the embodiment described above, since the terminal device 10 cooperates with the information providing device 100, it appears to the user U that the terminal device 10 also executes the processing of the information providing device 100. That is, from another perspective, it can be said that the terminal device 10 includes the information providing device 100.

また、上記の実施形態において、撮影対象(アノテーション対象の候補)及びタグ付けの対象(アノテーション対象)としてファッションアイテムを例に説明しているが、実際にはファッションアイテムに限定されない。撮影対象及びタグ付けの対象(アノテーション対象)は、多視点画像の撮影時に、ユーザとともに撮影される物品であってもよい。例えば、撮影時にユーザが着用しているウェアラブルデバイスや手に持っている端末装置等であってもよいし、撮影時にユーザの周囲に配置されている家電製品(家電機器・電化製品)、背景として一緒に撮影された室内のインテリア、本棚の書籍、キッチンやテーブルの料理や食器、アート作品等であってもよい。 Further, in the above embodiment, a fashion item is described as an example of a photographing target (annotation target candidate) and a tagging target (annotation target), but the present invention is not actually limited to fashion items. The object to be photographed and the object to be tagged (annotated object) may be an article that is photographed together with the user when a multi-view image is photographed. For example, it may be a wearable device worn by the user or a terminal device held in the user's hand at the time of shooting, home appliances (home appliances/electrical appliances) placed around the user at the time of shooting, or as a background. It may also be the interior of the room that was photographed together, books on a bookshelf, food and tableware in the kitchen or table, artwork, etc.

また、上記の実施形態において、多視点画像の撮影時に、ユーザではなく、特定の物品のみを撮影してもよい。例えば、多視点画像内のタグ付けの対象(アノテーション対象)にアノテーション(注釈)のタグを付与する際、多視点画像にユーザが含まれていなくてもよい。 In addition, in the above embodiment, when capturing a multi-view image, only a specific item may be captured, rather than a user. For example, when adding an annotation tag to a tagging target (annotation target) in a multi-view image, the user does not need to be included in the multi-view image.

〔7.効果〕
上述してきたように、本願に係る情報処理装置(端末装置10及び情報提供装置100)は、多視点画像を撮影する際に、所定の撮影ガイドを画面に表示するガイド表示部34と、撮影時の視点を移動する度に、画面に表示された撮影ガイドを視点に応じて変更するガイド変更部35と、を備える。
[7. effect〕
As described above, the information processing device (terminal device 10 and information providing device 100) according to the present application includes a guide display unit 34 that displays a predetermined shooting guide on the screen when shooting a multi-view image, and a guide display unit 34 that displays a predetermined shooting guide on the screen when shooting a multi-view image. The camera includes a guide changing unit 35 that changes the photographing guide displayed on the screen according to the viewpoint each time the viewpoint is moved.

ガイド表示部34は、撮影ガイドとして被写体のうち被撮影者のポーズ、表情、持ち方のうち少なくとも1つに関するガイドを画面に表示する。 The guide display unit 34 displays a guide regarding at least one of the pose, facial expression, and way of holding the photographed person among the subjects on the screen as a photographing guide.

ガイド表示部34は、撮影ガイドとして被写体のシルエット、輪郭、又は半透明の表示を画面に表示する。 The guide display unit 34 displays a silhouette, outline, or semi-transparent display of the subject on the screen as a photography guide.

ガイド表示部34は、被写体を撮影する際に、被写体に撮影ガイドを重畳表示する。 The guide display unit 34 superimposes a shooting guide on the subject when the subject is photographed.

ガイド表示部34は、最初に撮影された画像で被写体のうち被撮影者のポーズを特定し、特定されたポーズに応じた撮影ガイドを選択して表示する。 The guide display unit 34 specifies the pose of the photographed subject among the subjects in the first photographed image, and selects and displays a photographic guide corresponding to the specified pose.

ガイド変更部35は、撮影時の視点を移動するにつれて、撮影ガイドを段階的に変更する。 The guide change unit 35 gradually changes the shooting guide as the viewpoint during shooting moves.

本願に係る情報処理装置は、被写体が撮影ガイドに一致した場合、自動的に撮影する撮影判定部36と、をさらに備える。 The information processing device according to the present application further includes a photography determination unit 36 that automatically takes a photograph when the subject matches the photography guide.

本願に係る情報処理装置は、被写体が撮影ガイドとずれている場合、被写体が撮影ガイドとずれている箇所を撮影者に通知する通知部37と、をさらに備える。 The information processing device according to the present application further includes a notification unit 37 that notifies the photographer of the location where the subject is misaligned with the photography guide when the subject is misaligned with the photography guide.

上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、多視点画像を用いたサービス提供の質をより向上させることができる。 By using any one or a combination of the above-described processes, the information processing apparatus according to the present application can further improve the quality of service provision using multi-view images.

〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置100を例に挙げて説明する。図11は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Furthermore, the terminal device 10 and the information providing device 100 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. 11. The information providing apparatus 100 will be described below as an example. FIG. 11 is a diagram showing an example of the hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected to a bus. 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and performs various processes. The arithmetic device 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the calculation device 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and includes a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid Disk Drive). This is realized using flash memory, etc. The secondary storage device 1050 may be a built-in storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information, such as a display, projector, printer, etc., and is realized by a connector conforming to a standard such as USB (Universal Serial Bus), DVI (Digital Visual Interface), or HDMI (registered trademark) (High Definition Multimedia Interface). The input I/F 1070 is an interface for receiving information from various input devices 1020, such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by a USB, etc.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, output device 1010 and input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 The input device 1020 may be a device that reads information from, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends it to computing device 1030, and also sends data generated by computing device 1030 to other devices via network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the information providing device 100, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the primary storage device 1040. Further, the arithmetic device 1030 of the computer 1000 may load a program obtained from another device via the network I/F 1080 onto the primary storage device 1040, and execute the loaded program. Furthermore, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I/F 1080, and may call and use program functions, data, etc. from other programs of other devices.

〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information providing apparatus 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 The above-described embodiments and variations can be combined as appropriate to the extent that they do not cause inconsistencies in the processing content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
34 ガイド表示部
35 ガイド変更部
36 撮影判定部
37 認識部
38 通知部
100 情報提供装置
110 通信部
120 記憶部
121 利用者情報データベース
122 履歴情報データベース
123 画像情報データベース
130 制御部
131 取得部
132 特定部
133 推定部
134 タグ付与部
135 タグ変更部
136 画像変換部
137 提供部
1 Information processing system 10 Terminal device 34 Guide display unit 35 Guide change unit 36 Shooting determination unit 37 Recognition unit 38 Notification unit 100 Information providing device 110 Communication unit 120 Storage unit 121 User information database 122 History information database 123 Image information database 130 Control Section 131 Acquisition section 132 Specification section 133 Estimation section 134 Tagging section 135 Tag changing section 136 Image conversion section 137 Providing section

Claims (9)

多視点画像を撮影する際に、被写体のポーズ及び所持品の撮影時の構図を示す撮影ガイドを画面に表示するガイド表示部と、
撮影時の視点を移動する度に、前記画面に表示された前記撮影ガイドの形態その時点の視点に応じて自動的に変更するガイド変更部と、
被写体のポーズ及び所持品が前記撮影ガイドに一致していると判定した場合、自動的に撮影する撮影判定部と、
を備えることを特徴とする情報処理装置。
a guide display unit that displays on a screen a shooting guide indicating a pose of a subject and a composition for shooting belongings when shooting a multi-viewpoint image;
a guide change unit that automatically changes the form of the imaging guide displayed on the screen according to the viewpoint at the time of imaging each time the viewpoint is moved;
a photography determination unit that automatically takes a photograph when it is determined that the pose and belongings of the subject match the photography guide;
An information processing device comprising:
前記ガイド表示部は、前記撮影ガイドとして被写体のうち被撮影者のポーズ、表情、持ち方のうち少なくとも1つに関するガイドを前記画面に表示する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the guide display unit displays, as the photographing guide, a guide regarding at least one of a pose, an expression, and a way of holding the photographed person among the subjects on the screen. .
前記ガイド表示部は、前記撮影ガイドとして被写体のシルエット、輪郭、又は半透明の表示を前記画面に表示する
ことを特徴とする請求項1又は2に記載の情報処理装置。
The information processing device according to claim 1 or 2, wherein the guide display unit displays a silhouette, an outline, or a semi-transparent display of the subject on the screen as the photographing guide.
前記ガイド表示部は、被写体を撮影する際に、前記被写体に前記撮影ガイドを重畳表示する
ことを特徴とする請求項1~3のうちいずれか1つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 3, wherein the guide display section displays the photographing guide superimposed on the subject when photographing the subject.
前記ガイド表示部は、最初に撮影された画像で被写体のうち被撮影者のポーズを特定し、特定されたポーズに応じた撮影ガイドを選択して表示する
ことを特徴とする請求項1~4のうちいずれか1つに記載の情報処理装置。
Claims 1 to 4, wherein the guide display unit specifies the pose of the photographed subject among the subjects in the first photographed image, and selects and displays a photographic guide according to the specified pose. The information processing device according to any one of the above.
前記ガイド変更部は、撮影時の視点を移動するにつれて、前記撮影ガイドを段階的に変更する
ことを特徴とする請求項1~5のうちいずれか1つに記載の情報処理装置。
The information processing device according to any one of claims 1 to 5, wherein the guide changing unit changes the photographing guide in stages as the viewpoint at the time of photographing moves.
被写体が前記撮影ガイドとずれている場合、前記被写体が前記撮影ガイドとずれている箇所を撮影者に通知する通知部と、
をさらに備えることを特徴とする請求項1~のうちいずれか1つに記載の情報処理装置。
a notification unit that notifies a photographer of a location where the subject is misaligned with the photography guide when the subject is misaligned with the photography guide;
The information processing device according to any one of claims 1 to 6 , further comprising the following.
情報処理装置が実行する情報処理方法であって、
多視点画像を撮影する際に、被写体のポーズ及び所持品の撮影時の構図を示す撮影ガイドを画面に表示するガイド表示工程と、
撮影時の視点を移動する度に、前記画面に表示された前記撮影ガイドの形態その時点の視点に応じて自動的に変更するガイド変更工程と、
被写体のポーズ及び所持品が前記撮影ガイドに一致していると判定した場合、自動的に撮影する撮影判定工程と、
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing device, the method comprising:
a guide display step of displaying a shooting guide on the screen that indicates the pose of the subject and the composition of the belongings when shooting the multi-view image;
a guide changing step of automatically changing the form of the photographing guide displayed on the screen each time the viewpoint at the time of photographing is moved according to the viewpoint at that time ;
a photographing determination step of automatically photographing when it is determined that the subject's pose and belongings match the photographing guide;
An information processing method characterized by comprising:
多視点画像を撮影する際に、被写体のポーズ及び所持品の撮影時の構図を示す撮影ガイドを画面に表示するガイド表示手順と、
撮影時の視点を移動する度に、前記画面に表示された前記撮影ガイドの形態その時点の視点に応じて自動的に変更するガイド変更手順と、
被写体のポーズ及び所持品が前記撮影ガイドに一致していると判定した場合、自動的に撮影する撮影判定手順と、
をコンピュータに実行させるための情報処理プログラム。
A guide display procedure for displaying a shooting guide on a screen that indicates the pose of a subject and the composition of their belongings when shooting a multi-view image;
a guide changing procedure for automatically changing the form of the photographing guide displayed on the screen according to the viewpoint at that time each time the viewpoint at the time of photographing is moved;
a photographing determination procedure for automatically photographing when it is determined that the subject's pose and belongings match the photographing guide;
An information processing program that allows a computer to execute.
JP2021200357A 2021-12-09 2021-12-09 Information processing device, information processing method, and information processing program Active JP7458363B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021200357A JP7458363B2 (en) 2021-12-09 2021-12-09 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021200357A JP7458363B2 (en) 2021-12-09 2021-12-09 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2023086000A JP2023086000A (en) 2023-06-21
JP7458363B2 true JP7458363B2 (en) 2024-03-29

Family

ID=86775779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021200357A Active JP7458363B2 (en) 2021-12-09 2021-12-09 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7458363B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290635A (en) 2008-05-30 2009-12-10 Nikon Corp Camera
JP2019012474A (en) 2017-06-30 2019-01-24 株式会社メルカリ System, program and method of assisting in putting up commodity for sale
JP2021033764A (en) 2019-08-27 2021-03-01 株式会社メルカリ Goods exhibition support program, method, and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290635A (en) 2008-05-30 2009-12-10 Nikon Corp Camera
JP2019012474A (en) 2017-06-30 2019-01-24 株式会社メルカリ System, program and method of assisting in putting up commodity for sale
JP2021033764A (en) 2019-08-27 2021-03-01 株式会社メルカリ Goods exhibition support program, method, and system

Also Published As

Publication number Publication date
JP2023086000A (en) 2023-06-21

Similar Documents

Publication Publication Date Title
US10839605B2 (en) Sharing links in an augmented reality environment
US10965975B2 (en) Systems and methods for recognizing faces using non-facial information
US9400805B2 (en) Image-related social network methods and arrangements
US20150095228A1 (en) Capturing images for financial transactions
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
US9857177B1 (en) Personalized points of interest for mapping applications
JP6720385B1 (en) Program, information processing method, and information processing terminal
JP6120467B1 (en) Server device, terminal device, information processing method, and program
KR20150042894A (en) System and method for sharing profile image card
US9600720B1 (en) Using available data to assist in object recognition
US9607094B2 (en) Information communication method and information communication apparatus
KR20170112743A (en) Method for composing image and an electronic device thereof
JP7458363B2 (en) Information processing device, information processing method, and information processing program
JP7458362B2 (en) Information processing device, information processing method, and information processing program
JP7459038B2 (en) Information processing device, information processing method, and information processing program
JP2017228278A (en) Server device, terminal device, information processing method, and program
JP7531473B2 (en) Information processing device, information processing method, and information processing program
JP7476163B2 (en) Information processing device, information processing method, and information processing program
JP2023027548A (en) Device, method, and program for processing information
KR102278680B1 (en) System, method, and computer readable medium for providing photography pose
JP2024025997A (en) Information processing device, information processing method, and information processing program
JP7244458B2 (en) Information processing device, information processing method and information processing program
US20240071019A1 (en) Three-dimensional models of users wearing clothing items
KR20180026999A (en) Method for browsing a post for place-based sns, terminal, server and system for performing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230113

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7458363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150