JP7197462B2 - Apparatus and program for determining value of information presentation - Google Patents
Apparatus and program for determining value of information presentation Download PDFInfo
- Publication number
- JP7197462B2 JP7197462B2 JP2019227689A JP2019227689A JP7197462B2 JP 7197462 B2 JP7197462 B2 JP 7197462B2 JP 2019227689 A JP2019227689 A JP 2019227689A JP 2019227689 A JP2019227689 A JP 2019227689A JP 7197462 B2 JP7197462 B2 JP 7197462B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- presentation surface
- area
- vector
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 claims description 79
- 230000005484 gravity Effects 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 9
- 239000004984 smart glass Substances 0.000 description 4
- 101710171225 30S ribosomal protein S18 Proteins 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- -1 that is Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、3次元空間内において情報提示に使用できる面(情報提示面)が情報提示において有用であるか否かを判定する技術に関する。 The present invention relates to a technique for determining whether a surface (information presentation surface) that can be used for information presentation in a three-dimensional space is useful for information presentation.
特許文献1は、通信サービスを提供している各領域の情報提示における価値を評価する構成を開示している。特許文献1によると、無線端末の移動履歴と、当該無線端末のカメラのフォーカス位置等を示す情報を多くの無線端末から取得し、これら情報に基づき通信サービスを提供している各領域の情報提示における価値を評価している。
特許文献1の構成は、領域を単位としてその価値を判定するものであり、3次元空間におけるある面(以下、情報提示面)が多くのユーザに注目されるものであるか否かを判定するものではない。つまり、例えば、特許文献1の構成では、実空間の建物のある側面が、情報提示面としての利用価値が高いものであるか否かを判定することはできない。
The configuration of
本発明は、情報提示面の価値を判定する技術を提供するものである。 The present invention provides a technique for determining the value of information presentation.
本発明の一態様によると、判定装置は、ユーザ装置から、当該ユーザ装置の位置及び当該位置での当該ユーザ装置の方向を示すユーザ情報を取得する取得手段と、予め定義された複数の領域それぞれの領域価値を前記複数の領域内の所定条件を満たすユーザ装置の数に基づき判定する領域価値判定手段と、情報提示面を情報提示に使用する場合における当該情報提示面の価値を示す提示面価値を、前記複数の領域の内の当該情報提示面が存在する第1領域の前記領域価値と、前記第1領域のユーザ装置から取得した前記ユーザ情報が示す位置及び方向と、当該情報提示面の位置及び方向と、に基づき判定する提示面価値判定手段と、を備えていることを特徴とする。 According to one aspect of the present invention, a determination device includes acquisition means for acquiring, from a user device, user information indicating the position of the user device and the direction of the user device at the position; area value determination means for determining the area value of based on the number of user devices satisfying predetermined conditions in the plurality of areas; and a presentation surface value indicating the value of the information presentation surface when the information presentation surface is used for information presentation are the area value of the first area where the information presentation surface exists among the plurality of areas, the position and direction indicated by the user information acquired from the user device in the first area, and the information presentation surface It is characterized by comprising presentation aspect value judgment means for judging based on the position and direction.
本発明によると、情報提示面の価値を判定することができる。 According to the present invention, the value of information presentation can be determined.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the claims, and not all combinations of features described in the embodiments are essential to the invention. Two or more of the features described in the embodiments may be combined arbitrarily. Also, the same or similar configurations are denoted by the same reference numerals, and redundant explanations are omitted.
図1は、本実施形態による判定装置1を含むシステムの構成図である。判定装置1は、1つ以上の基地局(BS)と通信可能な様に構成される。図1に示す判定装置1は、BS21及びBS22の2つのBSと通信可能な様に構成されている。BS21は、セル31を提供し、セル31に在圏するUE41及びUE42と通信できる。同様に、BS22は、セル32を提供し、セル32に在圏するUE43と通信できる。なお、判定装置1が通信するBSの数は、1つであっても、3つ以上であっても良い。各BSは、セルを提供し、提供するセルに在圏する1つ以上のUEと通信可能である。以下の説明において、判定装置1が通信するBSにより提供されるセルを合わせた領域を判定対象領域と呼ぶものとする。例えば、図1においては、セル31とセル32とを合わせた領域が判定対象領域である。
FIG. 1 is a configuration diagram of a system including a
UE41~UE43(以下、単にUEと表記する)には、本実施形態によるAR(拡張現実)アプリケーションがインストールされている。UEのユーザがARアプリケーションを実行している(アクティベイトしている)と、UEは、例えば、ユーザ操作によりユーザ情報を取得し、在圏しているセルのBSを介して判定装置1にユーザ情報を送信する。 An AR (augmented reality) application according to the present embodiment is installed in UE41 to UE43 (hereinafter simply referred to as UE). When the user of the UE is executing (activating) the AR application, the UE acquires user information by user operation, for example, and sends the user Send information.
ユーザ情報は、位置情報、方向情報及び時刻情報を含んでいる。ここで、位置情報とは、UEの緯度及び経度、或いは、UEの緯度、経度及び高度等の、UEの位置を示す情報である。UEは、例えば、GPS機能によりUEの位置情報を取得することができる。方向情報は、UEの方向を示す情報である。なお、本実施形態では、UEのカメラの方向又はUEのユーザの視線方向をUEの方向と定義する。例えば、ユーザがUEのカメラ機能を利用して、ある方向にカメラのフォーカスを合わせたときに、当該カメラのレンズの光軸方向をUEの方向を示す方向情報として取得することができる。また、UEがARアプリケーションと連動するスマートグラスを含み、当該スマートグラスをユーザが装着している場合には、スマートグラスの方向、つまり、当該スマートグラスを装着しているユーザの視線方向を方向情報として取得することができる。なお、UEが判定装置1に送信するユーザ情報に含まれる位置情報及び方向情報は、同じタイミングで取得したものであり、当該ユーザ情報に含まれる時刻情報は、当該位置情報及び方向情報を取得した時刻の情報である。UEは、このユーザ情報を取得する度に、BSを介して、取得したユーザ情報を判定装置1に送信する。
User information includes location information, direction information and time information. Here, the location information is information indicating the location of the UE, such as the latitude and longitude of the UE, or the latitude, longitude and altitude of the UE. The UE can obtain the location information of the UE, for example, through GPS functionality. The direction information is information indicating the direction of the UE. In addition, in this embodiment, the direction of the camera of the UE or the line-of-sight direction of the user of the UE is defined as the direction of the UE. For example, when the user uses the camera function of the UE to focus the camera in a certain direction, the optical axis direction of the lens of the camera can be obtained as direction information indicating the direction of the UE. In addition, when the UE includes smart glasses that work in conjunction with an AR application and the user wears the smart glasses, the direction of the smart glasses, that is, the line-of-sight direction of the user wearing the smart glasses is indicated as direction information. can be obtained as The position information and direction information included in the user information that the UE transmits to the
図2は、判定装置1の構成図である。記憶部11は、UEから受信したユーザ情報を格納する。また、記憶部11には、判定対象領域を分割した分割領域と、各分割領域内にある情報提示面を示す情報が格納されている。
FIG. 2 is a configuration diagram of the
図3は、判定対象領域を分割した分割領域を示している。図3によると、判定対象領域を9つの分割領域#1~#9に分割している。なお、分割数は9に限定されない。また、図3では、各分割領域を方形としているが、分割領域の形状に限定はない。情報提示面は、各分割領域に存在する建物の側面や、建物の上部にある空間部分に設定した仮想的な面等、例えば、広告等を表示することができる面である。情報提示面を示す情報は、当該情報提示面が占有する領域、つまり、例えば、情報提示面の外周に沿った位置(緯度、経度及び高度等)を特定する情報である。価値の判定対象である情報提示面については予め決定し、決定した情報提示面を示すデータについては予め記憶部11に格納しておく。
FIG. 3 shows divided areas obtained by dividing the determination target area. According to FIG. 3, the determination target area is divided into nine divided
本実施形態の判定装置1は、所定期間を単位として、各情報提示面の価値を判定する価値判定処理を行う。所定期間は、例えば、1日とすることができる。或いは、所定期間は、例えば、半日とすることができる。以下では、価値判定処理を行う所定期間を処理期間と呼ぶものとする。判定装置1は、処理期間毎に価値判定処理を繰り返すことができる。
The
領域価値判定部12は、処理期間における分割領域#k(本例においてkは1から9までの整数)の領域価値Skを算出する。このため、領域価値判定部12は、各分割領域#kについて、処理期間におけるアクティブユーザ数Akを求める。分割領域#kのアクティブユーザ数Akは、分割領域#kにおいてARアプリケーションを起動させていたUEの数に基づき求める。例えば、領域価値判定部12は、分割領域#kにおいて、ARアプリケーションを起動させていたUEの数の処理期間に渡る平均値、最大値、又は、最小値等の統計値をアクティブユーザ数Akとすることができる。或いは、領域価値判定部12は、処理期間の終了時点又は開始時点においてARアプリケーションを起動させていた分割領域#k内のUEの数をアクティブユーザ数Akとすることができる。なお、分割領域#kにおいてARアプリケーションを起動させた上で、ユーザ情報を判定装置1に送信したUEの数をアクティブユーザ数Akとすることもできる。
The area
図3には、ある処理期間における分割領域#1~分割領域#9のアクティブユーザ数A1~A9も示している。図3によると、分割領域#1のアクティブユーザ数A1は10であり、分割領域#2のアクティブユーザ数A2は30である。領域価値判定部12は、ある分割領域#kの領域価値Skを、以下の式(1)により算出する。
Sk=X×(Ak-Amin)/(Amax-Amin) (1)
なお、AminはA1~A9の最小値であり図3の例においては10(分割領域#1)である。また、AmaxはA1~A9の最大値であり、図3の例においては100(分割領域#9)である。また、Xは所定の係数である。式(1)から領域価値Skは、0~Xの値であって、アクティブユーザ数Akが多い程、高くなる。
FIG. 3 also shows the numbers A 1 to A 9 of active users in the segmented
S k =X×(A k −A min )/(A max −A min ) (1)
Note that A min is the minimum value of A 1 to A 9 and is 10 (divided region #1) in the example of FIG. A max is the maximum value of A 1 to A 9 and is 100 (divided area #9) in the example of FIG. Also, X is a predetermined coefficient. From equation (1), the area value S k is a value between 0 and X, and increases as the number of active users A k increases.
提示面価値判定部13は、記憶部11に保存されている情報提示面毎にその価値Vを判定する。なお、情報提示面の価値Vの判定は、分割領域毎に独立して行われる。以下では、ある1つの分割領域内に存在する、ある1つの情報提示面の価値Vの算出について説明する。なお、以下の説明において、"情報提示面"とは、価値Vの判定対象である情報提示面を意味し、"分割領域"とは、価値Vの判定対象の情報提示面が存在する分割領域を意味するものとする。提示面価値判定部13は、処理期間内において、分割領域内のUEから取得したユーザ情報毎に、情報提示面に対する中間値Yを算出する。そして、処理期間内において、分割領域内のUEから取得したユーザ情報毎に求めたこの中間値Yの平均値に、当該分割領域の領域価値Sを乗ずることで情報提示面の価値Vを求める。
The presentation surface
図4は、1つのユーザ情報に対する中間値Yの算出方法の説明図である。図4において、参照符号55は、ユーザ情報に含まれる位置情報が示す位置である。また、参照符号51は、ユーザ情報に含まれる方向情報が示す方向に対応する単位ベクトル(以下、視線ベクトルG)である。さらに、参照符号52は、ユーザ情報に含まれる方向情報が示す方向とは逆向きの単位ベクトル(以下、視線逆ベクトルGr)である。位置55と、視線ベクトルGと、視線逆ベクトルGrは、UEから取得するユーザ情報から特定される。
FIG. 4 is an explanatory diagram of a method of calculating the median value Y for one piece of user information. In FIG. 4,
本実施形態では、情報提示面の位置を情報提示面の重心位置として定義する。しかしながら、情報提示面の任意の位置を情報提示面の位置として定義することができる。また、本実施形態では、情報提示面の方向を、情報提示面とは直交し、かつ、情報を提示する面が向いている方向と定義する。つまり、情報提示面が建物の外部側面であると、当該側面に直交し、かつ、当該建物の内部から外部に向かう方向が情報提示面の方向である。また、情報提示面が、空間を占有する物体がない空間領域内である場合、当該情報提示面に直交し、かつ、広告等を表示しない側から広告等を表示する側に向かう方向が情報提示面の方向である。情報提示面の方向及び位置については、情報提示面を示すデータから求めることができる。なお、情報提示面の方向及び位置を予め求めておき、当該情報提示面に関連付けて記憶部11に格納しておく構成とすることもできる。参照符号53は、情報提示面の方向の単位ベクトル(以下、法線ベクトルN)である。さらに、直線56は、位置情報が示す位置55と情報提示面の位置(重心位置)とを結ぶ直線であり、参照符号54は、情報提示面の重心位置から位置55に向かう単位ベクトル(以下、接続ベクトルC)である。直線56及び接続ベクトル54は、位置情報が示す位置と、情報提示面の位置と、に基づき判定することができる。
In this embodiment, the position of the information presentation surface is defined as the barycentric position of the information presentation surface. However, any position of the information presentation surface can be defined as the position of the information presentation surface. Further, in this embodiment, the direction of the information presentation surface is defined as the direction perpendicular to the information presentation surface and in which the information presentation surface faces. In other words, if the information presentation surface is the exterior side surface of the building, the direction of the information presentation surface is the direction perpendicular to the side surface and directed from the interior to the exterior of the building. In addition, when the information presentation surface is in a space area where there is no object occupying the space, the direction perpendicular to the information presentation surface and from the side where the advertisement is not displayed to the side where the advertisement is displayed is the information presentation surface. It is the direction of the face. The direction and position of the information presentation surface can be obtained from the data representing the information presentation surface. Alternatively, the direction and position of the information presentation surface may be obtained in advance and stored in the
提示面価値判定部13は、中間値Yを以下の式(2)に基づき計算する。
Y=α×f(N・C)+β×f(C・Gr) (2)
式(2)においてα及びβは、所定の係数である。例えば、α及びβは、α+β=1となる様に決定することができる。また、N・Cは、法線ベクトルNと接続ベクトルCとの内積を示し、C・Grは、接続ベクトルCと視線逆ベクトルGrとの内積を示している。また、関数f(x)は、xが0以上であるとxとなり、xが0未満(負の値)であると、0となる関数である。
The presentation face
Y=α×f(N・C)+β×f(C・Gr) (2)
α and β in equation (2) are predetermined coefficients. For example, α and β can be determined such that α+β=1. N·C indicates the inner product of the normal vector N and the connection vector C, and C·Gr indicates the inner product of the connection vector C and the line-of-sight inverse vector Gr. Also, the function f(x) is a function that becomes x when x is 0 or more, and becomes 0 when x is less than 0 (negative value).
法線ベクトルN、接続ベクトルC及び視線逆ベクトルGrは、総て単位ベクトルであるため、内積の値は、2つのベクトルの角度が0の場合には1であり、角度が大きくなると小さくなる。したがって、f(N・C)は、法線ベクトルNと接続ベクトルCの角度が0のときは1であり、角度が90度以上であると0であり、角度が0から90度までは、角度が大きくなるに従って小さくなる。f(C・Gr)についても同様である。したがって、中間値Yは、法線ベクトルN、接続ベクトルC及び視線逆ベクトルGrの総てが同じ方向の場合に最も大きくなる。これは、情報提示面の重心を通り、情報提示面に垂直な直線上にUEが位置し、かつ、その方向情報が情報提示面の重心に向かう方向であること、つまり、UEのユーザが情報提示面の重心位置を見ていることに対応する。そして、中間値Yは、UEの位置が、情報提示面の重心を通り情報提示面に垂直な直線上からずれたり、方向情報が示す方向が情報提示面の重心に向かう方向からずれたりすると小さくなる。ここで、ずれ量が大きくなる程、中間値Yは小さくなる。なお、α及びβは、UEの位置を重視するか、視線の方向を重視するかにより決定される重みである。つまり、UEの位置を重視する場合には、αをβより大きくし、視線の方向を重視する場合にはβをαより大きくする。また、α及びβのいずれかを0とすることもできる。つまり、f(N・C)又はf(C・Gr)のみに基づき中間値を算出する構成とすることもできる。なお、関数f(x)により2つのベクトルの角度が90度を超えた場合に内積値を0とするのは、角度が90を超えていることは情報提示面を見ていないとの判断によるものである。なお、関数f(x)を使用せず、純粋な内積値のみで中間値を計算する構成であっても良い。 Since the normal vector N, connection vector C, and line-of-sight inverse vector Gr are all unit vectors, the value of the inner product is 1 when the angle between the two vectors is 0, and decreases as the angle increases. Therefore, f(N·C) is 1 when the angle between the normal vector N and the connection vector C is 0, and is 0 when the angle is 90 degrees or more. decreases as the angle increases. The same applies to f(C·Gr). Therefore, the median value Y becomes the largest when the normal vector N, the connection vector C, and the line-of-sight inverse vector Gr all have the same direction. This means that the UE is positioned on a straight line that passes through the center of gravity of the information presentation surface and is perpendicular to the information presentation surface, and that the direction information is the direction toward the center of gravity of the information presentation surface. This corresponds to viewing the position of the center of gravity of the presentation surface. Then, the intermediate value Y becomes smaller when the position of the UE deviates from the straight line passing through the center of gravity of the information presentation surface and perpendicular to the information presentation surface, or when the direction indicated by the direction information deviates from the direction toward the center of gravity of the information presentation surface. Become. Here, the median value Y becomes smaller as the deviation amount becomes larger. Note that α and β are weights determined depending on whether the position of the UE is emphasized or the line-of-sight direction is emphasized. That is, α is made larger than β when the position of the UE is important, and β is made larger than α when the direction of the line of sight is important. Also, either α or β can be set to 0. That is, it is also possible to adopt a configuration in which the intermediate value is calculated based only on f(N·C) or f(C·Gr). The inner product value is set to 0 when the angle between the two vectors exceeds 90 degrees using the function f(x). It is. Note that the intermediate value may be calculated using pure inner product values without using the function f(x).
上述した様に、中間値Yは、UEから取得したユーザ情報毎に求められる値である。提示面価値判定部13は、処理期間内に分割領域内のUEから取得したユーザ情報それぞれについて中間値Yを求め、その平均値に分割領域の領域価値Sを乗ずることで情報提示面の価値Vを判定する。
As described above, the intermediate value Y is a value obtained for each user information acquired from the UE. The presentation surface
以下では、判定装置1が、ある処理期間において、分割領域のUEから3つのユーザ情報(第1ユーザ情報から第3ユーザ情報)を取得した場合を例にして、情報提示面の価値Vの値の計算方法を説明する。図5(A)~図5(C)は、それぞれ、価値Vを判定する情報提示面及びその法線ベクトルNと、第1ユーザ情報から第3ユーザ情報に基づき判定される接続ベクトルC及び視線ベクトルGを示している。なお、図の簡略化のため視線逆ベクトルGrについては省略している。
Below, the
図5(A)に示す様に、第1ユーザ情報に基づき判定される接続ベクトルCと法線ベクトルNの角度は60度であり、接続ベクトルCと視線ベクトルGの角度は180度である。つまり、接続ベクトルCと視線逆ベクトルGrの角度は0度である。図5(B)に示す様に、第2ユーザ情報に基づき判定される接続ベクトルCと法線ベクトルNの角度は60度であり、接続ベクトルCと視線ベクトルGの角度は120度である。つまり、接続ベクトルCと視線逆ベクトルGrの角度は60度である。図5(C)に示す様に、第3ユーザ情報に基づき判定される接続ベクトルCと法線ベクトルNの角度は0度であり、接続ベクトルCと視線ベクトルGの角度は180度である。つまり、接続ベクトルCと視線逆ベクトルGrの角度は0度である。 As shown in FIG. 5A, the angle between the connection vector C and the normal vector N determined based on the first user information is 60 degrees, and the angle between the connection vector C and the line-of-sight vector G is 180 degrees. That is, the angle between the connection vector C and the line-of-sight inverse vector Gr is 0 degrees. As shown in FIG. 5B, the angle between the connection vector C and the normal vector N determined based on the second user information is 60 degrees, and the angle between the connection vector C and the line-of-sight vector G is 120 degrees. That is, the angle between the connection vector C and the line-of-sight inverse vector Gr is 60 degrees. As shown in FIG. 5C, the angle between the connection vector C and the normal vector N determined based on the third user information is 0 degrees, and the angle between the connection vector C and the line-of-sight vector G is 180 degrees. That is, the angle between the connection vector C and the line-of-sight inverse vector Gr is 0 degrees.
図6に示す様に、第1ユーザ情報から求められる接続ベクトルCと法線ベクトルNの角度は60度であるため、内積の値(N・C)は0.5である。また、接続ベクトルCと視線逆ベクトルGの角度は0度であるため、内積の値(C・Gr)は1である。なお、内積の値は共に0より大きいため、f(N・C)及びf(C・Gr)は、内積の値と同じである。この場合において、α=β=0.5とすると、第1ユーザ情報に対応する中間値Yは、0.5×0.5+0.5×1=0.75となる。同様に、第2ユーザ情報から求められる中間値Yは0.5となり、第3ユーザ情報から求められる中間値Yは1となる。従って、中間値Yの平均値は、2.25/3であり、領域価値Sを100とすると、情報提示面の価値Vは225/3と判定される。 As shown in FIG. 6, since the angle between the connection vector C and the normal vector N obtained from the first user information is 60 degrees, the inner product value (N·C) is 0.5. Also, since the angle between the connection vector C and the line-of-sight inverse vector G is 0 degrees, the value of the inner product (C·Gr) is 1. Since the inner product values are both greater than 0, f(N·C) and f(C·Gr) are the same as the inner product values. In this case, if α=β=0.5, the intermediate value Y corresponding to the first user information is 0.5×0.5+0.5×1=0.75. Similarly, the median value Y obtained from the second user information is 0.5, and the median value Y obtained from the third user information is 1. Therefore, the average value of the intermediate values Y is 2.25/3, and if the area value S is 100, the information presentation value V is determined to be 225/3.
以上、ユーザ情報毎に、情報提示面に対する中間値Yを求める。中間値Yは、ユーザ情報を送信したUEのユーザが当該情報提示面を注目している度合いが高い程、大きくなる値である。よって、処理期間内に取得したユーザ情報から求めた中間値Yの平均値を求めることにより、処理期間において情報提示面の平均的な注目度合いを取得することができる。また、処理期間において領域価値Sを求める。領域価値Sは、ARアプリケーションを利用しているユーザ数が多い程、高くなる値である。そして、本実施形態では、情報提示面の価値Vを、当該情報提示面に対して求めた中間値Yの平均値と、当該情報提示面が存在する分割領域の領域価値Sとの積として求める。情報提示面の価値は、ARアプリケーションを利用しているユーザ数が多い領域に存在する程高くなり、かつ、平均的な注目度合いが高い程高くなるため、上記構成により情報提示面が情報提示として有用であるか否かを定量的に判定することができる。 As described above, the intermediate value Y for the information presentation surface is obtained for each piece of user information. The median value Y is a value that increases as the user of the UE that has transmitted the user information pays more attention to the information presentation surface. Therefore, by obtaining the average value of the intermediate values Y obtained from the user information obtained during the processing period, it is possible to obtain the average attention degree of the information presentation surface during the processing period. Also, the area value S is obtained during the processing period. The area value S is a value that increases as the number of users using the AR application increases. Then, in this embodiment, the value V of the information presentation surface is calculated as the product of the average value of the intermediate values Y obtained for the information presentation surface and the area value S of the divided area in which the information presentation surface exists. . The value of the information presentation surface increases as the number of users using the AR application increases, and the average degree of attention increases. Whether or not it is useful can be determined quantitatively.
<第二実施形態>
続いて、第二実施形態について第一実施形態との相違点を中心に説明する。第一実施形態の情報提示面の価値Vの算出においては、UEと当該情報提示面との距離については考慮していなかった。本実施形態では、UEと情報提示面との距離を考慮して当該情報提示面の価値Vを算出する。
<Second embodiment>
Next, the second embodiment will be described, focusing on differences from the first embodiment. In calculating the value V of the information presentation surface in the first embodiment, the distance between the UE and the information presentation surface was not considered. In this embodiment, the value V of the information presentation surface is calculated in consideration of the distance between the UE and the information presentation surface.
まず、各分割領域それぞれに対して最大距離Lmaxを予め求め、最大距離Lmaxを分割領域に関連付けて記憶部11に格納しておく。分割領域の最大距離Lmaxとは、分割領域内の任意の2点間を結ぶ直線距離の内の最も長い距離である。例えば、分割領域の形状が、図3に示す様に方形であると、最大距離Lmaxは対角線の長さとなる。提示面価値判定部13は、位置情報が示す位置56と情報提示面の重心を結ぶ直線56(図4)の長さLを求め、係数γを以下の式(3)により求める。
γ=L/Lmax (3)
そして、提示面価値判定部13は、以下の式(4)により中間値Yを算出する。
Y=γ×(α×f(N・C)+β×f(C・G)) (4)
例えば、図5(A)及び図5(B)の距離Lが2であり、図5(C)の距離Lが1であり、最大距離Lmaxが4√2であるものとする。この場合、第1ユーザ情報及び第2ユーザ情報におけるγは、図7に示す様に2/(4√2)=√2/4となる。また、第3ユーザ情報におけるγは、図7に示す様に1/(4√2)=√2/8となる。したがって、α=β=0.5とすると、第1ユーザ情報に対応する中間値Yは、0.75×√2/4=3√2/16となる。同様に、第2ユーザ情報から求められる中間値Yは0.5×√2/4=√2/8となり、第3ユーザ情報から求められる中間値Yは1×√2/8=√2/8となる。従って、中間値Yの平均値は、7√2/48であり、領域価値Sを100とすると、情報提示面の価値Vは700√2/48=175√2/12と判定される。
First, the maximum distance L max is obtained in advance for each divided area, and the maximum distance L max is stored in the
γ=L/ Lmax (3)
Then, the presentation face
Y=γ×(α×f(N・C)+β×f(C・G)) (4)
For example, assume that the distance L in FIGS. 5A and 5B is 2, the distance L in FIG. 5C is 1, and the maximum distance L max is 4√2. In this case, γ in the first user information and the second user information is 2/(4√2)=√2/4 as shown in FIG. γ in the third user information is 1/(4√2)=√2/8 as shown in FIG. Therefore, if α=β=0.5, the intermediate value Y corresponding to the first user information is 0.75×√2/4=3√2/16. Similarly, the intermediate value Y obtained from the second user information is 0.5×√2/4=√2/8, and the intermediate value Y obtained from the third user information is 1×√2/8=√2/ 8. Therefore, the average value of the intermediate values Y is 7√2/48, and if the area value S is 100, the information presentation value V is determined to be 700√2/48=175√2/12.
本実施形態において係数γは、0~1の値であり、UEと情報提示面との距離が大きくなる程、大きくなる。これは、遠くからでも注目される情報提示面程、その価値を大きく評価することに対応する。遠くからでも注目される情報提示面は、情報提示としての利用価値が高いものであり、この構成により、情報提示面の価値を定量的に判定することができる。 In this embodiment, the coefficient γ is a value between 0 and 1, and increases as the distance between the UE and the information presentation surface increases. This corresponds to evaluating the value of an information presentation surface that attracts attention even from a distance. An information presentation surface that attracts attention even from a distance has a high utility value as information presentation, and this configuration allows the value of the information presentation surface to be quantitatively determined.
<その他の実施形態>
なお、上記各実施形態では、法線ベクトルN、接続ベクトルC及び視線逆ベクトルGrを単位ベクトル、つまり、長さが同じベクトルとしたが、法線ベクトルN、接続ベクトルC及び視線逆ベクトルGrの長さ(大きさ)を異ならせることができる。つまり、法線ベクトルN、接続ベクトルC及び視線逆ベクトルGrの内の価値の算出に重視するベクトルを他のベクトルの長さより長くすることができる。
<Other embodiments>
In each of the above embodiments, the normal vector N, the connection vector C, and the inverse line-of-sight vector Gr are unit vectors, that is, vectors having the same length. The length (size) can be different. That is, the length of the vector among the normal vector N, the connection vector C, and the line-of-sight inverse vector Gr that is emphasized in calculating the value can be made longer than the length of the other vectors.
なお、判定装置1は、処理期間における各情報提示面の価値Vを算出することを繰り返すことができる。例えば、処理期間を1日とすることで、平日における各情報提示面の価値や、休日における各情報提示面の価値を判定することができる。さらに、処理期間を半日とすることで、昼間の時間帯と夜間の時間帯における各情報提示面の価値を判定することができる。
Note that the
なお、本発明による判定装置1は、例えば、コンピュータといった装置の1つ以上のプロセッサで実行されると、当該装置を上記判定装置1として機能・動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。
The
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。 The invention is not limited to the above embodiments, and various modifications and changes are possible within the scope of the invention.
11:記憶部、12:領域価値判定部、13:提示面価値判定部 11: storage unit, 12: area value determination unit, 13: presentation surface value determination unit
Claims (15)
予め定義された複数の領域それぞれの領域価値を前記複数の領域内の所定条件を満たすユーザ装置の数に基づき判定する領域価値判定手段と、
情報提示面を情報提示に使用する場合における当該情報提示面の価値を示す提示面価値を、前記複数の領域の内の当該情報提示面が存在する第1領域の前記領域価値と、前記第1領域のユーザ装置から取得した前記ユーザ情報が示す位置及び方向と、当該情報提示面の位置及び方向と、に基づき判定する提示面価値判定手段と、
を備えていることを特徴とする判定装置。 acquisition means for acquiring user information indicating the position of the user device and the direction of the user device at the position from the user device;
an area value determining means for determining an area value of each of a plurality of predefined areas based on the number of user devices satisfying a predetermined condition in the plurality of areas;
The presentation surface value indicating the value of the information presentation surface when the information presentation surface is used for information presentation is defined as the area value of the first area in which the information presentation surface exists among the plurality of areas, and the first presentation surface value determination means for determining based on the position and direction indicated by the user information acquired from the user device in the region and the position and direction of the information presentation surface;
A determination device characterized by comprising:
前記第2内積値は、前記第1ベクトルと前記第3ベクトルとの内積が0以上の値であると前記第1ベクトルと前記第3ベクトルの内積の値であり、前記第1ベクトルと前記第3ベクトルとの内積が0未満の値であると0であることを特徴とする請求項3又は4に記載の判定装置。 The first inner product value is a value of the inner product of the first vector and the second vector when the inner product of the first vector and the second vector is a value of 0 or more; is 0 if the inner product with the two vectors is less than 0;
The second inner product value is a value of the inner product of the first vector and the third vector when the inner product of the first vector and the third vector is a value of 0 or more; 5. The determination device according to claim 3, wherein an inner product with three vectors is zero if the value is less than zero.
前記提示面価値判定手段は、前記所定期間内において前記第1領域のユーザ装置から取得した前記ユーザ情報に基づき前記提示面価値を判定することを特徴とする請求項1から12のいずれか1項に記載の判定装置。 The area value determination means determines the area value of each of the plurality of areas based on the number of user devices satisfying the predetermined condition within a predetermined period,
13. The presentation aspect value determination means determines the presentation aspect value based on the user information acquired from the user device in the first area within the predetermined period of time. The determination device according to .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227689A JP7197462B2 (en) | 2019-12-17 | 2019-12-17 | Apparatus and program for determining value of information presentation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227689A JP7197462B2 (en) | 2019-12-17 | 2019-12-17 | Apparatus and program for determining value of information presentation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021096663A JP2021096663A (en) | 2021-06-24 |
JP7197462B2 true JP7197462B2 (en) | 2022-12-27 |
Family
ID=76431363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227689A Active JP7197462B2 (en) | 2019-12-17 | 2019-12-17 | Apparatus and program for determining value of information presentation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7197462B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093183A (en) | 2007-10-09 | 2009-04-30 | Sony Computer Entertainment America Inc | Method of increasing number of advertising impression in interactive environment |
JP2010176686A (en) | 2003-09-03 | 2010-08-12 | Google Inc | Determining and/or using location information in advertisement system |
JP2012123727A (en) | 2010-12-10 | 2012-06-28 | Hitachi Solutions Ltd | Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system |
JP2016038825A (en) | 2014-08-11 | 2016-03-22 | 東日本旅客鉄道株式会社 | Advertisement evaluation apparatus, advertisement evaluation method, and program |
-
2019
- 2019-12-17 JP JP2019227689A patent/JP7197462B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010176686A (en) | 2003-09-03 | 2010-08-12 | Google Inc | Determining and/or using location information in advertisement system |
JP2009093183A (en) | 2007-10-09 | 2009-04-30 | Sony Computer Entertainment America Inc | Method of increasing number of advertising impression in interactive environment |
JP2012123727A (en) | 2010-12-10 | 2012-06-28 | Hitachi Solutions Ltd | Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system |
JP2016038825A (en) | 2014-08-11 | 2016-03-22 | 東日本旅客鉄道株式会社 | Advertisement evaluation apparatus, advertisement evaluation method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021096663A (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10416311B2 (en) | Systems and techniques for geofence crossing-based control | |
US8854282B1 (en) | Measurement method | |
AU2010257305B2 (en) | Techniques for density mapping | |
US10235812B2 (en) | Augmented reality | |
US20140160170A1 (en) | Provision of an Image Element on a Display Worn by a User | |
US20220076373A1 (en) | Foveated rendering using eye motion | |
CN118884491A (en) | Positioning method and electronic equipment | |
JP2017516154A5 (en) | ||
CN110390045B (en) | Interest point recommendation method and device based on location service | |
Hossen et al. | Performance improvement of indoor positioning using light-emitting diodes and an image sensor for light-emitting diode communication | |
US9398408B2 (en) | Gaze-directed content delivery | |
CN107077154A (en) | Cloud platform control method, device, storage medium and unmanned plane | |
CN104765151A (en) | Large visual field helmet display optical system with dual free-form surface reflection mirrors | |
EP3368962B1 (en) | Method and system for interaction using holographic display system | |
CN104616119A (en) | Method and device used for providing history order data and method and device used for providing real-time order list | |
JP7197462B2 (en) | Apparatus and program for determining value of information presentation | |
US11921286B2 (en) | Lens array for shifting perspective of an imaging system | |
CN110299063A (en) | The visual presentation method and device of track data | |
JP5650613B2 (en) | Server apparatus and program for determining value of geographical area in communication service | |
JP5638578B2 (en) | Observation support device, observation support method and program | |
CN111683238B (en) | 3D image fusion method and device based on observation and tracking | |
CN109990775A (en) | Geography of tourism localization method and system | |
US20230351675A1 (en) | Occlusion of Virtual Content in Extended Reality | |
CN112529279A (en) | Method, device, computer equipment and medium for generating order receiving guidance information | |
Lemelson et al. | A study on user acceptance of error visualization techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7197462 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |