[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021176033A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021176033A
JP2021176033A JP2020081056A JP2020081056A JP2021176033A JP 2021176033 A JP2021176033 A JP 2021176033A JP 2020081056 A JP2020081056 A JP 2020081056A JP 2020081056 A JP2020081056 A JP 2020081056A JP 2021176033 A JP2021176033 A JP 2021176033A
Authority
JP
Japan
Prior art keywords
entity
image
reference time
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020081056A
Other languages
Japanese (ja)
Inventor
健介 安間
Kensuke Yasuma
圭介 大井
Keisuke Oi
優輝 望月
Yuki Mochizuki
喜大 外園
Yoshihiro HOKAZONO
一平 多田
Ippei TADA
隆裕 川中
Takahiro KAWANAKA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixie Dust Technologies Inc
Original Assignee
Pixie Dust Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixie Dust Technologies Inc filed Critical Pixie Dust Technologies Inc
Priority to JP2020081056A priority Critical patent/JP2021176033A/en
Priority to PCT/JP2021/014853 priority patent/WO2021220757A1/en
Publication of JP2021176033A publication Critical patent/JP2021176033A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To present information by which an overview of an object space is easily and intuitively grasped to a user.SOLUTION: An information processing device according to one aspect of the present disclosure comprises means for: specifying an entity to be associated with a reference point of time, which is at least one of a sensor arranged in an object space at at least one reference point, and a detection object of the sensor at the reference point of time; generating an entity image corresponding to the entity; generating a space image corresponding to the object space; and generating a synthetic image by synthesizing the entity image with the space image so that the entity image is arranged at a position corresponding to a position of the entity at the reference point of time in the space image.SELECTED DRAWING: Figure 3

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.

例えばプロジェクトの管理者は、作業の進捗管理をする必要がある。 For example, a project manager needs to manage the progress of work.

特許文献1には、工事箇所の位置情報及び工事に関する情報を含む識別コードが表示された表示部材を工事箇所に配置し、携帯端末でこの識別コードを読み取った上で工事箇所を撮影することにより、工事の経過が写った画像を、工事箇所ごと且つ工程順に配列して表示する技術が開示されている。 In Patent Document 1, a display member on which an identification code including location information of a construction site and information related to construction is displayed is arranged at the construction site, and the construction site is photographed after reading the identification code with a mobile terminal. Disclosed is a technique for displaying images showing the progress of construction by arranging them for each construction site and in order of process.

特開2020-030519号公報Japanese Unexamined Patent Publication No. 2020-030519

作業は、3次元空間で行われ、且つ、時間に応じて変化する。したがって、進捗管理には、3次元空間において時間を考慮する必要がある。 The work is done in a three-dimensional space and changes with time. Therefore, it is necessary to consider time in the three-dimensional space for progress management.

特許文献1に記載の技術によれば、工事の経過が写った画像を、工事箇所ごと且つ工程順に配列して表示できる。しかしながら、工事の対象は3次元の空間(例えば建物)であるのに対して撮影画像は2次元の情報であるから、管理者が工事の経過が写った画像を眺めただけでは作業の進捗を空間的に把握することは容易でない。また、工事の経過が写った画像は工事箇所ごとに配列されるから、管理者がある時点の複数の工事箇所の作業の進捗の概観を把握することは容易でない。 According to the technique described in Patent Document 1, images showing the progress of construction can be displayed by arranging them for each construction site and in order of process. However, while the object of construction is a three-dimensional space (for example, a building), the captured image is two-dimensional information, so the manager can see the progress of the work just by looking at the image showing the progress of the construction. It is not easy to grasp spatially. In addition, since images showing the progress of construction are arranged for each construction site, it is not easy for the manager to grasp an overview of the progress of work at a plurality of construction sites at a certain point in time.

つまり、特許文献1では、3次元空間において時間が考慮されていないので、対象空間の概観を直感的に把握することが難しい。 That is, in Patent Document 1, since time is not considered in the three-dimensional space, it is difficult to intuitively grasp the overview of the target space.

本開示の目的は、対象空間の概観を直感的に把握し易い情報をユーザに提示することである。 An object of the present disclosure is to present to the user information that makes it easy to intuitively grasp the appearance of the target space.

本開示の一態様に係る情報処理装置は、少なくとも1つの基準時点に対象空間に配置されていたセンサ、および当該基準時点における当該センサの検出対象のうち少なくとも1つである基準時点に関連付けられるエンティティを特定する手段と、エンティティに対応するエンティティ画像を生成する手段と、対象空間に対応する空間画像を生成する手段と、空間画像において、エンティティ画像が基準時点における当該エンティティの位置に対応する位置に配置されるように、エンティティ画像と空間画像とを合成することで、合成画像を生成する手段とを備える。 The information processing apparatus according to one aspect of the present disclosure includes a sensor arranged in the target space at at least one reference time point, and an entity associated with a reference time point which is at least one of the detection targets of the sensor at the reference time point. A means for specifying, a means for generating an entity image corresponding to an entity, a means for generating a spatial image corresponding to a target space, and a position in the spatial image in which the entity image corresponds to the position of the entity at a reference time. It is provided with a means for generating a composite image by synthesizing the entity image and the spatial image so as to be arranged.

本開示によれば、対象空間の概観を直感的に把握し易い情報をユーザに提示できる。 According to the present disclosure, it is possible to present to the user information that makes it easy to intuitively grasp the appearance of the target space.

本実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of this embodiment. 本実施形態の情報の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information of this embodiment. 本実施形態の概要の説明図である。It is explanatory drawing of the outline of this embodiment. 本実施形態の人物データベースのデータ構造を示す図である。It is a figure which shows the data structure of the person database of this embodiment. 本実施形態の物体データベースのデータ構造を示す図である。It is a figure which shows the data structure of the object database of this embodiment. 本実施形態のセンサデータベースのデータ構造を示す図である。It is a figure which shows the data structure of the sensor database of this embodiment. 本実施形態のセンシング結果データベースのデータ構造を示す図である。It is a figure which shows the data structure of the sensing result database of this embodiment. 本実施形態の3次元モデルデータベースのデータ構造を示す図である。It is a figure which shows the data structure of the 3D model database of this embodiment. 本実施形態のデータベース更新処理のフローチャートである。It is a flowchart of the database update process of this embodiment. 本実施形態の表示処理のフローチャートである。It is a flowchart of the display process of this embodiment. 図10の処理において表示される画面の領域構成を示す図である。It is a figure which shows the area structure of the screen displayed in the process of FIG. 図10の処理において表示される画面のうちタイムラインビューワ領域に表示されるタイムスライダオブジェクトの例を示す図である。It is a figure which shows the example of the time slider object displayed in the timeline viewer area among the screens displayed in the process of FIG. 図10の処理において表示される画面のパラメータビューワ領域に表示されるパラメータ画像の例を示す図である。It is a figure which shows the example of the parameter image displayed in the parameter viewer area of the screen displayed in the process of FIG. 図10の処理において表示される画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。It is a figure which shows the example of the composite image displayed in the space viewer area in the screen displayed in the process of FIG. 変形例の表示処理のフローチャートである。It is a flowchart of the display processing of a modification. 図15の処理において表示される画面のうちタイムラインビューワ領域に表示されるタイムスライダオブジェクトの例を示す図である。It is a figure which shows the example of the time slider object displayed in the timeline viewer area in the screen displayed in the process of FIG. 図15の処理において表示される画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。It is a figure which shows the example of the composite image displayed in the space viewer area in the screen displayed in the process of FIG. その他の変形例のユーザインタフェース画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。It is a figure which shows the example of the composite image displayed in the space viewer area in the user interface screen of another modification. その他の変形例のユーザインタフェース画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。It is a figure which shows the example of the composite image displayed in the space viewer area in the user interface screen of another modification.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing a configuration of an information processing system of the present embodiment.

図1に示すように、情報処理システム1は、情報処理装置10と、センサ30とを備える。センサ30の台数は任意である。
情報処理装置10及びセンサ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes an information processing device 10 and a sensor 30. The number of sensors 30 is arbitrary.
The information processing device 10 and the sensor 30 are connected via a network (for example, the Internet or an intranet) NW.

情報処理装置10は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、またはサーバ(例えば、Webサーバ、アプリケーションサーバ、データベースサーバ、またはそれらの組み合わせ)である。
情報処理装置10は、センサ30から送信されるセンシングデータに基づいて、センシング結果データベースを管理する。
情報処理装置10は、センシング結果データベースを参照して、後述する合成画像を生成し、当該合成画像をユーザに対して提示する。
The information processing device 10 is, for example, a smartphone, a tablet terminal, a personal computer, or a server (for example, a Web server, an application server, a database server, or a combination thereof).
The information processing device 10 manages a sensing result database based on the sensing data transmitted from the sensor 30.
The information processing device 10 refers to the sensing result database, generates a composite image described later, and presents the composite image to the user.

センサ30は、対象空間に設置される。センサ30は、センシングを行い、センシングデータを情報処理装置10に送信する。センサ30は、任意の種別のセンサ装置である。センサ30は、以下のいずれかであってよい。
・カメラ
・デプスカメラ
・LIDAR
・ToFカメラ
・気圧センサ
・温度センサ
・震度センサ
The sensor 30 is installed in the target space. The sensor 30 performs sensing and transmits the sensing data to the information processing device 10. The sensor 30 is an arbitrary type of sensor device. The sensor 30 may be any of the following.
・ Camera ・ Depth camera ・ LIDAR
・ ToF camera ・ Barometric pressure sensor ・ Temperature sensor ・ Seismic intensity sensor

(1−1)情報処理装置の構成
情報処理装置の構成について説明する。図2は、本実施形態の情報の構成例を示すブロック図である。
(1-1) Configuration of Information Processing Device The configuration of the information processing device will be described. FIG. 2 is a block diagram showing a configuration example of information of the present embodiment.

図2に示すように、情報処理装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。 As shown in FIG. 2, the information processing device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、情報処理装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the information processing device 10 by activating the program stored in the storage device 11. The processor 12 is an example of a computer.

入出力インタフェース13は、情報処理装置10に接続される入力デバイスからユーザの指示を取得し、かつ、情報処理装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、センサ(例えば、カメラ、マイクロホン、加速度センサ)、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ、スピーカ、またはそれらの組み合わせである。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the information processing device 10 and output information to an output device connected to the information processing device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, a sensor (eg, a camera, a microphone, an acceleration sensor), or a combination thereof.
The output device is, for example, a display, a speaker, or a combination thereof.

通信インタフェース14は、情報処理装置10と外部装置(例えばセンサ30)との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the information processing device 10 and an external device (for example, a sensor 30).

(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of the Embodiment The outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the present embodiment.

図3に示すように、ある基準時点において、対象空間SP(例えば、建設済みの建造物、または建設、修繕、もしくは解体作業中の建造物)には、時刻に関連付けられる要素(「エンティティ」という)が存在する。エンティティは、センサSN、及び、当該センサSNの検出対象DT(例えば、人物、物体、及び、生物の少なくとも1つ)を含む。
情報処理装置10は、例えばセンサSNのセンシング結果を参照して、基準時点に関連付けられるエンティティとして、センサSNおよび検出対象DTを特定する。
As shown in FIG. 3, at a certain reference time point, the target space SP (for example, a building that has already been constructed or a building that is under construction, repair, or demolition) has an element associated with time (referred to as “entity”). ) Exists. The entity includes a sensor SN and a DT to be detected by the sensor SN (for example, at least one of a person, an object, and an organism).
The information processing device 10 refers to, for example, the sensing result of the sensor SN, and identifies the sensor SN and the detection target DT as an entity associated with the reference time point.

情報処理装置10は、例えばセンサSNのセンシング結果を参照して、センサSNに対応するエンティティ画像EI1と、検出対象DTに対応するエンティティ画像EI2とを生成する。
情報処理装置10は、例えば対象空間SPの3次元モデル情報MDを参照し、対象空間SPに対応する空間画像SIを生成する。
情報処理装置10は、空間画像SIにおいて、エンティティ画像EI1が基準時点におけるセンサSNに対応する位置に配置され、かつ、エンティティ画像EI2が基準時点における検出対象DTに対応する位置に配置されるように、エンティティ画像EI1と、エンティティ画像EI2と、空間画像SIとを合成することで、合成画像CIを生成する。
The information processing device 10 generates, for example, the entity image EI1 corresponding to the sensor SN and the entity image EI2 corresponding to the detection target DT by referring to the sensing result of the sensor SN.
The information processing device 10 refers to, for example, the three-dimensional model information MD of the target space SP, and generates a spatial image SI corresponding to the target space SP.
In the spatial image SI, the information processing device 10 is arranged so that the entity image EI1 is arranged at a position corresponding to the sensor SN at the reference time point and the entity image EI2 is arranged at a position corresponding to the detection target DT at the reference time point. , The composite image CI is generated by synthesizing the entity image EI1, the entity image EI2, and the spatial image SI.

合成画像CIによれば、ユーザは、基準時点におけるエンティティ(すなわち、センサSN、および検出対象DT)に対応するエンティティ画像EI1およびEI2について、当該基準時点における各エンティティの対象空間SP内の位置を確認することができる。すなわち、情報処理装置10は、基準時点における対象空間とエンティティの位置関係を直感的に把握し易い合成画像CIをユーザに提示できる。 According to the composite image CI, the user confirms the positions of the entity images EI1 and EI2 corresponding to the entities (that is, the sensor SN and the detection target DT) at the reference time in the target space SP of each entity at the reference time. can do. That is, the information processing device 10 can present the user with a composite image CI that makes it easy to intuitively grasp the positional relationship between the target space and the entity at the reference time.

(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置11に記憶される。
(3) Database The database of the present embodiment will be described. The following database is stored in the storage device 11.

(3−1)人物データベース
本実施形態の人物データベースについて説明する。図4は、本実施形態の人物データベースのデータ構造を示す図である。
(3-1) Person database The person database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the person database of the present embodiment.

図4に示すように、人物データベースは、「ID」フィールドと、「名称」フィールドと、「人物属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
人物データベースには、人物情報が格納される。人物情報は、人物に関する情報である。
As shown in FIG. 4, the person database includes an "ID" field, a "name" field, and a "person attribute" field. Each field is associated with each other.
Person information is stored in the person database. Person information is information about a person.

「ID」フィールドには、人物識別情報が格納される。人物識別情報は、人物を識別する情報である。 Person identification information is stored in the "ID" field. The person identification information is information for identifying a person.

「名称」フィールドには、人物名称情報が格納される。人物名称情報は、人物の名称に関する情報である。 Person name information is stored in the "name" field. The person name information is information related to the name of the person.

「人物属性」フィールドには、人物属性情報が格納される。人物属性情報は、人物の属性に関する情報である。「人物属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。 Person attribute information is stored in the "person attribute" field. The person attribute information is information about the attribute of the person. The "Personal Attributes" field includes a "Gender" field and an "Age" field.

「性別」フィールドには、性別情報が格納される。性別情報は、人物の性別に関する情報である。 Gender information is stored in the "Gender" field. Gender information is information about the gender of a person.

「年齢」フィールドには、年齢情報が格納される。年齢情報は、人物の年齢、または年齢層に関する情報である。 Age information is stored in the "Age" field. Age information is information about a person's age or age group.

(3−2)物体データベース
本実施形態の物体データベースについて説明する。図5は、本実施形態の物体データベースのデータ構造を示す図である。
(3-2) Object database The object database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the object database of the present embodiment.

図5に示すように、物体データベースは、「ID」フィールドと、「名称」フィールドと、「種別」フィールドとを含む。各フィールドは、互いに関連付けられている。
物体データベースには、物体情報が格納される。物体情報は、物体に関する情報である。
As shown in FIG. 5, the object database includes an "ID" field, a "name" field, and a "type" field. Each field is associated with each other.
Object information is stored in the object database. Object information is information about an object.

「ID」フィールドには、物体識別情報が格納される。物体識別情報は、物体を識別する情報である。 Object identification information is stored in the "ID" field. The object identification information is information for identifying an object.

「名称」フィールドには、物体名称情報が格納される。物体名称情報は、物体の名称に関する情報である。 Object name information is stored in the "Name" field. The object name information is information related to the name of the object.

「種別」フィールドには、物体種別情報が格納される。物体種別情報は、物体の種別に関する情報である。 Object type information is stored in the "Type" field. The object type information is information related to the type of the object.

(3−3)センサデータベース
本実施形態のセンサデータベースについて説明する。図6は、本実施形態のセンサデータベースのデータ構造を示す図である。
(3-3) Sensor database The sensor database of the present embodiment will be described. FIG. 6 is a diagram showing a data structure of the sensor database of the present embodiment.

図6に示すように、センサデータベースは、「ID」フィールドと、「名称」フィールドと、「センサ種別」フィールドと、「出力形式」フィールドと、「設置位置」フィールドと、「設置方向」フィールドと、「固定」フィールドとを含む。各フィールドは、互いに関連付けられている。
センサデータベースには、センサ情報が格納される。センサ情報は、センサ30に関する情報である。
As shown in FIG. 6, the sensor database includes an "ID" field, a "name" field, a "sensor type" field, an "output format" field, an "installation position" field, and an "installation direction" field. , Includes "fixed" fields. Each field is associated with each other.
Sensor information is stored in the sensor database. The sensor information is information about the sensor 30.

「ID」フィールドには、センサ識別情報が格納される。センサ識別情報は、センサ30を識別する情報である。 Sensor identification information is stored in the "ID" field. The sensor identification information is information that identifies the sensor 30.

「名称」フィールドには、センサ名称情報が格納される。センサ名称情報は、センサ30に関する情報である。 Sensor name information is stored in the "Name" field. The sensor name information is information about the sensor 30.

「センサ種別」フィールドには、センサ種別情報が格納される。センサ種別情報は、センサ30の種別に関する情報である。 Sensor type information is stored in the "sensor type" field. The sensor type information is information regarding the type of the sensor 30.

「出力形式」フィールドには、出力形式情報が格納される。出力形式情報は、センサ30の出力形式(例えば、センシングデータの種別)に関する情報である。 Output format information is stored in the Output Format field. The output format information is information regarding the output format (for example, the type of sensing data) of the sensor 30.

「設置位置」フィールドには、設置位置情報が格納される。設置位置情報は、センサ30の設置位置(対象空間SP内の所定の位置を原点とする空間座標系の位置)に関する情報である。 The installation position information is stored in the "installation position" field. The installation position information is information regarding the installation position of the sensor 30 (the position of the spatial coordinate system having a predetermined position in the target space SP as the origin).

「設置方向」フィールドには、設置方向情報が格納される。設置方向情報は、センサ30の設置方向に関する情報である。 Installation direction information is stored in the installation direction field. The installation direction information is information regarding the installation direction of the sensor 30.

「固定」フィールドには、固定情報が格納される。固定情報は、センサ30が固定式であるか否(すなわち移動式)かを示す情報である。固定式のセンサ30は、設置位置に固定された状態でセンシングを行う。移動式のセンサ30は、複数の異なる位置でセンシングを行う。 Fixed information is stored in the "fixed" field. The fixed information is information indicating whether or not the sensor 30 is fixed (that is, mobile). The fixed sensor 30 performs sensing in a state of being fixed at the installation position. The mobile sensor 30 senses at a plurality of different positions.

(3−4)センシング結果データベース
本実施形態のセンシング結果データベースについて説明する。図7は、本実施形態のセンシング結果データベースのデータ構造を示す図である。
(3-4) Sensing result database The sensing result database of the present embodiment will be described. FIG. 7 is a diagram showing a data structure of the sensing result database of the present embodiment.

図7に示すように、センシング結果データベースは、センサ30毎にテーブル(「センサテーブル」)を備える。センサテーブルは、「時刻」フィールドと、「センシング実施位置」フィールドと、「センシング方向」フィールドと、「生データ」フィールドと、「解析結果」フィールドとを含む。各フィールドは、互いに関連付けられている。
センシング結果データベースは、センシングを実行したセンサ30のセンサ識別情報に関連付けられる。
センシング結果データベースには、センシング結果情報が格納される。センシング結果情報は、センサ30のセンシング結果に関する情報である。
As shown in FIG. 7, the sensing result database includes a table (“sensor table”) for each sensor 30. The sensor table includes a "time" field, a "sensing location" field, a "sensing direction" field, a "raw data" field, and an "analysis result" field. Each field is associated with each other.
The sensing result database is associated with the sensor identification information of the sensor 30 that executed the sensing.
Sensing result information is stored in the sensing result database. The sensing result information is information related to the sensing result of the sensor 30.

「時刻」フィールドには、センシング時刻情報が格納される。センシング時刻情報は、センサ30がセンシングを行った時刻に関する情報である。 Sensing time information is stored in the "Time" field. The sensing time information is information related to the time when the sensor 30 senses.

「センシング実施位置」フィールドには、センシング実施位置情報が格納される。センシング実施位置情報は、センサ30がセンシングを行ったときのセンサ30の位置(以下「センシング実施位置」という)に関する情報である。
例えば、センシング実施位置情報は、以下の少なくとも1つを含む。
・センサ30の設置位置に対するセンシング実施位置の相対位置(例えば、設置位置からセンシング実施位置までの移動量)に関する情報
・空間座標系におけるセンシング実施位置の座標
Sensing execution position information is stored in the "sensing execution position" field. The sensing execution position information is information regarding the position of the sensor 30 (hereinafter referred to as “sensing execution position”) when the sensor 30 performs sensing.
For example, the sensing execution position information includes at least one of the following.
-Information on the relative position of the sensing execution position with respect to the installation position of the sensor 30 (for example, the amount of movement from the installation position to the sensing execution position) -Coordinates of the sensing execution position in the spatial coordinate system

「センシング方向」フィールドには、センシング方向情報が格納される。センシング方向情報は、センサ30がセンシングを行った方向に関する情報である。 Sensing direction information is stored in the "sensing direction" field. The sensing direction information is information regarding the direction in which the sensor 30 senses.

「生データ」フィールドには、生データ情報が格納される。生データ情報は、センサ30によって送信されたセンシングデータ(生データ)に関する情報である。
生データ情報は、位置に関する情報(例えば、被センシング点の位置に関する情報)を含むことがある。生データ情報は、センサ30の位置(センシング実施位置)を原点とするセンサ座標系の位置に関する情報を含んでもよい。センサ座標系の位置は、設置位置情報、およびセンシング実施位置情報の少なくとも1つを参照して、空間座標系の位置に変換できる。
Raw data information is stored in the "raw data" field. The raw data information is information about the sensing data (raw data) transmitted by the sensor 30.
The raw data information may include information about the position (eg, information about the position of the point to be sensed). The raw data information may include information regarding the position of the sensor coordinate system with the position of the sensor 30 (sensing execution position) as the origin. The position of the sensor coordinate system can be converted to the position of the spatial coordinate system by referring to at least one of the installation position information and the sensing execution position information.

「解析結果」フィールドには、解析結果情報が格納される。解析結果情報は、センサ30によって送信されたセンシングデータの解析結果に関する情報である。「解析結果」フィールドは、「解析位置」フィールドと、「エンティティ」フィールドとを含む。 The analysis result information is stored in the "Analysis result" field. The analysis result information is information regarding the analysis result of the sensing data transmitted by the sensor 30. The "Analysis Result" field includes an "Analysis Position" field and an "Entity" field.

「解析位置」フィールドには、解析位置情報が格納される。解析位置情報は、解析結果の空間座標系の位置(一例として、画像データから解析された構造物の空間座標系の位置)に関する情報である。 The analysis position information is stored in the "analysis position" field. The analysis position information is information regarding the position of the spatial coordinate system of the analysis result (for example, the position of the spatial coordinate system of the structure analyzed from the image data).

「エンティティ」フィールドには、エンティティ情報が格納される。エンティティ情報は、解析結果に関連付けられるエンティティに関する情報である。一例として、エンティティデータは、人物データベース(図4)に登録される人物識別情報、人物名称情報、もしくは人物属性情報、または物体データベース(図5)に登録される物体識別情報、物体名称情報、もしくは物体種別情報、であってもよい。 Entity information is stored in the "Entity" field. Entity information is information about the entity associated with the analysis result. As an example, the entity data is the person identification information, the person name information, or the person attribute information registered in the person database (FIG. 4), or the object identification information, the object name information, or the object name information registered in the object database (FIG. 5). It may be object type information.

(3−5)3次元モデルデータベース
本実施形態の3次元モデルデータベースについて説明する。図8は、本実施形態の3次元モデルデータベースのデータ構造を示す図である。
(3-5) Three-dimensional model database The three-dimensional model database of the present embodiment will be described. FIG. 8 is a diagram showing a data structure of the three-dimensional model database of the present embodiment.

図8に示すように、3次元モデルデータベースは、「時刻」フィールドと、「モデルファイル」フィールドとを含む。各フィールドは、互いに関連付けられている。
3次元モデルデータベースには、3次元モデル情報が格納される。3次元モデル情報は、対象空間SPの3次元モデルに関する情報である。
As shown in FIG. 8, the 3D model database includes a "time" field and a "model file" field. Each field is associated with each other.
The 3D model database stores 3D model information. The three-dimensional model information is information about the three-dimensional model of the target space SP.

「時刻」フィールドには、モデル時刻情報が格納される。モデル時刻情報は、3次元モデル情報に関する時刻の情報である。 Model time information is stored in the Time field. The model time information is time information related to the three-dimensional model information.

「モデルファイル」フィールドには、モデルファイル情報が格納される。モデルファイル情報は、3次元モデル情報に関するモデルファイルの情報である。モデルファイルは、例えば、BIM(Building Information Modeling)データ、または3次元CAD(Computer-Aided Design)データである。 Model file information is stored in the "Model File" field. The model file information is the information of the model file related to the three-dimensional model information. The model file is, for example, BIM (Building Information Modeling) data or three-dimensional CAD (Computer-Aided Design) data.

(4)情報処理
本実施形態の情報処理について説明する。
(4) Information processing The information processing of the present embodiment will be described.

(4−1)データベース更新処理
本実施形態のデータベース更新処理について説明する。図9は、本実施形態のデータベース更新処理のフローチャートである。
(4-1) Database update process The database update process of this embodiment will be described. FIG. 9 is a flowchart of the database update process of the present embodiment.

図9に示すように、情報処理装置10は、センシングデータの取得(S110)を実行する。
具体的には、プロセッサ12は、センサ30から送信されたセンシングデータを取得する。
センシングデータの第1の例は、固定式のセンサ30から送信される。センシングデータの第1の例は、センサ識別情報と、生データとを含む。
センシングデータの第2の例は、移動式のセンサ30から送信される。センシングデータの第2の例は、センサ識別情報と、生データと、センシング実施位置情報とを含む。
As shown in FIG. 9, the information processing apparatus 10 executes the acquisition of sensing data (S110).
Specifically, the processor 12 acquires the sensing data transmitted from the sensor 30.
The first example of sensing data is transmitted from the fixed sensor 30. The first example of sensing data includes sensor identification information and raw data.
A second example of sensing data is transmitted from the mobile sensor 30. The second example of the sensing data includes sensor identification information, raw data, and sensing execution position information.

ステップS110の後に、情報処理装置10は、センシングデータの解析(S111)を実行する。
具体的には、プロセッサ12は、ステップS110において取得したセンシングデータを解析する。一例として、プロセッサ12は、センシングデータの解析により、以下の少なくとも1つを実現する。
・対象空間SPにおけるエンティティの存否の判定
・対象空間SPにおけるエンティティの位置の推定
・対象空間SPにおえるエンティティの状態(例えば、体調、動作状態、部位(例えば、頭部、手、または足)の位置、外見的特徴、またはそれらの組み合わせ)の推定
・対象空間SPにおけるエンティティの属性(例えば、年齢、性別、種別、またはそれらの組み合わせ)の推定
・対象空間SPにおけるエンティティの識別
・対象空間SPの3次元モデルの構成要素の少なくとも1つに関連付けられる出来形の計算(出来形は、例えば3次元モデル情報と点群データとに基づいて計算可能である)
After step S110, the information processing apparatus 10 executes the analysis of sensing data (S111).
Specifically, the processor 12 analyzes the sensing data acquired in step S110. As an example, the processor 12 realizes at least one of the following by analyzing the sensing data.
-Determining the existence or nonexistence of an entity in the target space SP-Estimating the position of the entity in the target space SP-The state of the entity in the target space SP (for example, physical condition, motion state, part (for example, head, hand, or foot)) Estimating position, appearance characteristics, or a combination thereof) ・ Estimating the attributes of an entity in the target space SP (for example, age, gender, type, or a combination thereof) ・ Identifying an entity in the target space SP ・ Identifying the target space SP Calculation of the finished shape associated with at least one of the components of the 3D model (The finished shape can be calculated based on, for example, 3D model information and point group data).

ステップS111の後に、情報処理装置10は、センシング結果データベースの更新(S112)を実行する。
具体的には、プロセッサ12は、ステップS110において取得したセンシングデータと、ステップS111において得た解析結果とを参照して、センシング結果データベース(図7)を更新する。一例として、プロセッサ12は、ステップS110のセンシングデータの取得時刻を示すデータを「時刻」フィールドに格納してもよいし、当該センシングデータが時刻データを含む場合には当該時刻データを「時刻」フィールドに格納してもよい。プロセッサ12は、ステップS110のセンシングデータがセンシング実施位置情報を含む場合には当該センシング実施位置情報を「センシング実施位置」フィールドに格納する。プロセッサ12は、ステップS110のセンシングデータに含まれる生データを「生データ」フィールドに格納し、ステップS111の解析結果を「解析結果」フィールドに格納する。
After step S111, the information processing apparatus 10 executes the update of the sensing result database (S112).
Specifically, the processor 12 updates the sensing result database (FIG. 7) with reference to the sensing data acquired in step S110 and the analysis result obtained in step S111. As an example, the processor 12 may store data indicating the acquisition time of the sensing data in step S110 in the “time” field, or if the sensing data includes time data, the time data is stored in the “time” field. It may be stored in. When the sensing data in step S110 includes sensing execution position information, the processor 12 stores the sensing execution position information in the “sensing execution position” field. The processor 12 stores the raw data included in the sensing data in step S110 in the “raw data” field, and stores the analysis result in step S111 in the “analysis result” field.

(4−2)表示処理
本実施形態の表示処理について説明する。図10は、本実施形態の表示処理のフローチャートである。図11は、図10の処理において表示される画面の領域構成を示す図である。図12は、図10の処理において表示される画面のうちタイムラインビューワ領域に表示されるタイムスライダオブジェクトの例を示す図である。図13は、図10の処理において表示される画面のパラメータビューワ領域に表示されるパラメータ画像の例を示す図である。図14は、図10の処理において表示される画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。
(4-2) Display processing The display processing of the present embodiment will be described. FIG. 10 is a flowchart of the display process of the present embodiment. FIG. 11 is a diagram showing an area configuration of a screen displayed in the process of FIG. FIG. 12 is a diagram showing an example of a time slider object displayed in the timeline viewer area among the screens displayed in the process of FIG. FIG. 13 is a diagram showing an example of a parameter image displayed in the parameter viewer area of the screen displayed in the process of FIG. FIG. 14 is a diagram showing an example of a composite image displayed in the spatial viewer area of the screen displayed in the process of FIG.

図10に示すように、情報処理装置10は、基準時点の決定(S120)を実行する。
具体的には、プロセッサ12は、ディスプレイに画面(図11)を表示する。
As shown in FIG. 10, the information processing apparatus 10 executes the determination at the reference time point (S120).
Specifically, the processor 12 displays a screen (FIG. 11) on the display.

図11の画面は、空間ビューワ領域SVR、タイムラインビューワ領域TVR、およびパラメータビューワ領域PVRを含む。 The screen of FIG. 11 includes a spatial viewer area SVR, a timeline viewer area TVR, and a parameter viewer area PVR.

図12に示すように、タイムラインビューワ領域TVRには、タイムスライダオブジェクトTSが配置される。ユーザは、入力デバイスを操作して、タイムスライダオブジェクトTS上の任意の時刻TP1を選択する。プロセッサ12は、ユーザの選択した時刻TP1を基準時点として決定する。 As shown in FIG. 12, a time slider object TS is arranged in the timeline viewer area TVR. The user operates the input device to select any time TP1 on the time slider object TS. The processor 12 determines the time TP1 selected by the user as a reference time point.

プロセッサ12は、入力デバイスの受け付けたユーザの指示に応じて、少なくとも1つの基準時点を決定する。ユーザの指示は、例えば、タップ、クリック、キー入力、音声入力、および、ジェスチャ入力の少なくとも1つである。 The processor 12 determines at least one reference time point in response to a user instruction received by the input device. The user's instructions are, for example, at least one of tap, click, key input, voice input, and gesture input.

ステップS120の後に、情報処理装置10は、エンティティの特定(S121)を実行する。
具体的には、プロセッサ12は、ステップS120において決定した基準時点に関連付けられるエンティティを特定する。基準時点に関連付けられるエンティティは、当該基準時点に対象空間SPに配置されていたセンサ、および当該基準時点における当該センサの検出対象の少なくとも1つである。一例として、プロセッサ12は、センシング結果データベース(図7)を参照し、基準時点に関連付けられるセンシング結果に対応するセンサと、当該センシング結果に含まれる解析結果に含まれる検出対象とを特定する。
After step S120, the information processing apparatus 10 executes the identification of the entity (S121).
Specifically, the processor 12 identifies an entity associated with the reference time determined in step S120. The entity associated with the reference time is at least one of the sensors arranged in the target space SP at the reference time and the detection target of the sensor at the reference time. As an example, the processor 12 refers to the sensing result database (FIG. 7) and identifies a sensor corresponding to the sensing result associated with the reference time point and a detection target included in the analysis result included in the sensing result.

ステップS121の後に、情報処理装置10は、表示対象の特定(S122)を実行する。
具体的には、プロセッサ12は、ステップS121において特定したエンティティの中から表示対象を選択する。
After step S121, the information processing apparatus 10 executes the identification of the display target (S122).
Specifically, the processor 12 selects a display target from the entities specified in step S121.

ステップS122の第1の例では、プロセッサ12は、ステップS121において特定したエンティティを全て表示対象(以下「基準エンティティ」という)として選択する。 In the first example of step S122, the processor 12 selects all the entities specified in step S121 as display targets (hereinafter referred to as "reference entities").

ステップS122の第2の例では、プロセッサ12は、ステップS121において特定したエンティティのうちユーザ指示によって指定されたエンティティを表示対象として選択する。一例として、プロセッサ12は、センシング結果データベース(図7)を参照して、ステップS121において特定した基準エンティティに関する情報(以下「基準エンティティ情報」という)を示すパラメータ画像を生成し、且つ、当該パラメータ画像をパラメータビューワ領域PVRに配置したユーザインタフェース画面を出力デバイス(ディスプレイ)に表示させる。
エンティティに関する情報(以下「エンティティ情報」という)は、センサ30の種別、センシングデータの種別、センシングデータの内容(例えば生データ)、検出対象の識別情報(例えば、人物識別情報、物体識別情報)、検出対象の属性、検出対象の状態、またはそれらの組み合わせである。
In the second example of step S122, the processor 12 selects the entity specified by the user instruction from the entities specified in step S121 as the display target. As an example, the processor 12 refers to the sensing result database (FIG. 7), generates a parameter image showing information about the reference entity specified in step S121 (hereinafter referred to as “reference entity information”), and generates the parameter image. Is displayed on the output device (display) of the user interface screen arranged in the parameter viewer area PVR.
Information about the entity (hereinafter referred to as "entity information") includes the type of sensor 30, the type of sensing data, the content of sensing data (for example, raw data), the identification information of the detection target (for example, person identification information, object identification information), and the like. The attribute of the detection target, the state of the detection target, or a combination thereof.

図13に示すように、パラメータ画像PIにおいて、基準エンティティ情報EIは、基準エンティティが属するカテゴリ別に配置される。カテゴリは、「センサ」、「人物」、および「物体」である。
ユーザは、各エンティティ情報EIのチェックボックスオブジェクトECBを選択する操作を行うことで、当該エンティティ情報EIに対応するエンティティを表示対象とするか否かを指定できる。
ユーザは、各カテゴリのチェックボックスオブジェクトCCBを選択する操作を行うことで、当該カテゴリに属する全てのエンティティを表示対象とするか否かを指定できる。
As shown in FIG. 13, in the parameter image PI, the reference entity information EI is arranged according to the category to which the reference entity belongs. The categories are "sensor", "person", and "object".
The user can specify whether or not to display the entity corresponding to the entity information EI by performing the operation of selecting the check box object ECB of each entity information EI.
The user can specify whether or not to display all the entities belonging to the category by performing the operation of selecting the check box object CCB of each category.

ステップS122の後に、情報処理装置10は、エンティティ画像の生成(S123)を実行する。
具体的には、プロセッサ12は、ステップS122において選択した表示対象のエンティティ画像を生成する。
After step S122, the information processing apparatus 10 executes the generation of the entity image (S123).
Specifically, the processor 12 generates the entity image to be displayed selected in step S122.

ステップS123の第1の例では、プロセッサ12は、センサ30から送信されるセンシングデータに含まれる生データ(例えば画像データ)を参照して、エンティティ画像を生成する。例えば、プロセッサ12は、生データのうち基準時点に関連付けられる生データを選択し、選択した生データを参照して基準時点に応じたエンティティ画像を生成してもよい。 In the first example of step S123, the processor 12 generates an entity image by referring to raw data (for example, image data) included in the sensing data transmitted from the sensor 30. For example, the processor 12 may select raw data associated with a reference time among the raw data, refer to the selected raw data, and generate an entity image according to the reference time.

ステップS123の第2の例では、プロセッサ12は、エンティティに関連付けられている所定の画像(例えば、アイコン、アバター、または事前に用意された写真)を参照して、エンティティ画像を生成する。
エンティティに関連付けられている所定の画像は、時刻にさらに関連付けられていてもよい。この場合に、プロセッサ12は、所定の画像のうち基準時点に関連付けられる画像を選択し、選択した画像を参照して基準時点に応じたエンティティ画像を生成してもよい。
In the second example of step S123, the processor 12 refers to a predetermined image associated with the entity (eg, an icon, an avatar, or a pre-prepared photo) to generate the entity image.
A given image associated with an entity may be further associated with time. In this case, the processor 12 may select an image associated with the reference time among predetermined images and refer to the selected image to generate an entity image according to the reference time.

ステップS120の後に、情報処理装置10は、空間画像の生成(S124)を実行する。
具体的には、プロセッサ12は、対象空間SPに対応する空間画像を生成する。一例として、プロセッサ12は、3次元モデルデータベース(図8)を参照し、ステップS120において決定した基準時点に関連付けられるモデルファイルを特定する。プロセッサ12は、特定したモデルファイルを参照して、対象空間SPの3次元モデルを所定の視点から見た空間画像(つまり、基準時点に応じた空間画像)を生成する。
After step S120, the information processing apparatus 10 executes the generation of the spatial image (S124).
Specifically, the processor 12 generates a spatial image corresponding to the target space SP. As an example, the processor 12 refers to a three-dimensional model database (FIG. 8) and identifies a model file associated with the reference time point determined in step S120. The processor 12 refers to the specified model file and generates a spatial image (that is, a spatial image according to a reference time point) in which the three-dimensional model of the target space SP is viewed from a predetermined viewpoint.

ステップS123およびステップS124の後に、情報処理装置10は、合成画像の生成(S125)を実行する。
具体的には、プロセッサ12は、ステップS123において生成したエンティティ画像とステップS124において生成した空間画像とを合成する。一例として、プロセッサ12は、空間画像において、ステップS120において決定した基準時点におけるエンティティの位置に対応する位置に当該エンティティのエンティティ画像が配置されるように、エンティティ画像と空間画像とを合成する。
図14に示すように、合成画像CIにおいて、人物HM1のエンティティ画像と、物体OB1のエンティティ画像と、センサSN1のエンティティ画像と、センサSN2のエンティティ画像とが、空間画像SI1中の適切な位置(すなわち、基準時点における各エンティティの位置)に配置されている。
After step S123 and step S124, the information processing apparatus 10 executes the generation of the composite image (S125).
Specifically, the processor 12 synthesizes the entity image generated in step S123 and the spatial image generated in step S124. As an example, the processor 12 synthesizes the entity image and the spatial image so that the entity image of the entity is arranged at a position corresponding to the position of the entity at the reference time determined in step S120 in the spatial image.
As shown in FIG. 14, in the composite image CI, the entity image of the person HM1, the entity image of the object OB1, the entity image of the sensor SN1, and the entity image of the sensor SN2 are at appropriate positions in the spatial image SI1. That is, it is arranged at the position of each entity at the reference time point).

ステップS125の後に、情報処理装置10は、合成画像の表示(S126)を実行する。
具体的には、プロセッサ12は、ステップS125において生成した合成画像を空間ビューワ領域SVRに配置したユーザインタフェース画面を出力デバイス(ディスプレイ)に表示させる。
After step S125, the information processing apparatus 10 executes the display of the composite image (S126).
Specifically, the processor 12 causes the output device (display) to display the user interface screen in which the composite image generated in step S125 is arranged in the spatial viewer area SVR.

以上説明したように、情報処理装置10は、基準時点に関連付けられるエンティティを特定し、エンティティ画像を生成する。情報処理装置10は、空間画像において、基準時点におけるエンティティの位置に対応する位置に当該エンティティのエンティティ画像が配置されるように、エンティティ画像と空間画像とを合成する。従って、情報処理装置10によれば、対象空間SPと各エンティティ(表示対象)との位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像CIをユーザに提示することができる。 As described above, the information processing apparatus 10 identifies an entity associated with a reference time point and generates an entity image. The information processing device 10 synthesizes the entity image and the spatial image so that the entity image of the entity is arranged at a position corresponding to the position of the entity at the reference time in the spatial image. Therefore, according to the information processing apparatus 10, it is possible to present to the user a composite image CI that makes it easy to intuitively grasp the positional relationship between the target space SP and each entity (display target) and the positional relationship between the entities.

(5)変形例
本実施形態の変形例について説明する。変形例は、複数の基準時点を選択可能とする例である。
(5) Modification Example A modification of the present embodiment will be described. The modification is an example in which a plurality of reference time points can be selected.

変形例の表示処理について説明する。図15は、変形例の表示処理のフローチャートである。図16は、図15の処理において表示される画面のうちタイムラインビューワ領域に表示されるタイムスライダオブジェクトの例を示す図である。図17は、図15の処理において表示される画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。 The display processing of the modified example will be described. FIG. 15 is a flowchart of a modification display process. FIG. 16 is a diagram showing an example of a time slider object displayed in the timeline viewer area among the screens displayed in the process of FIG. FIG. 17 is a diagram showing an example of a composite image displayed in the spatial viewer area of the screen displayed in the process of FIG.

図15に示すように、情報処理装置10は、基準時点の決定(S220)を実行する。
具体的には、プロセッサ12は、ディスプレイに画面(図11)を表示する。
図16に示すように、タイムラインビューワ領域TVRには、タイムスライダオブジェクトTSが配置される。ユーザは、入力デバイスを操作して、タイムスライダオブジェクトTS上の任意の2つの時刻TP2a、およびTP2bを選択する。プロセッサ12は、ユーザの選択した時刻TP2aおよびTP2bをそれぞれ第1の基準時点および第2の基準時点として決定する。
入力デバイスの受け付けたユーザの指示に応じて、第1の基準時点、および第2の基準時点を決定する。ユーザの指示は、例えば、タップ、クリック、キー入力、音声入力、ジェスチャ入力、スワイプ、ピンチイン、ピンチアウト、ドラグ、またはそれらの組み合わせである。
As shown in FIG. 15, the information processing apparatus 10 executes the determination at the reference time point (S220).
Specifically, the processor 12 displays a screen (FIG. 11) on the display.
As shown in FIG. 16, a time slider object TS is arranged in the timeline viewer area TVR. The user operates the input device to select any two time TP2a and TP2b on the time slider object TS. The processor 12 determines the user-selected times TP2a and TP2b as the first reference time point and the second reference time point, respectively.
The first reference time point and the second reference time point are determined according to the instruction of the user who received the input device. User instructions are, for example, tap, click, keystroke, voice input, gesture input, swipe, pinch-in, pinch-out, drag, or a combination thereof.

ステップS220の後に、情報処理装置10は、エンティティの特定(S221)を実行する。
具体的には、プロセッサ12は、ステップS220において決定した第1の基準時点および第2の基準時点の少なくとも1つに関連付けられるエンティティを特定する。
After step S220, the information processing apparatus 10 executes the identification of the entity (S221).
Specifically, the processor 12 identifies an entity associated with at least one of the first reference time point and the second reference time point determined in step S220.

ステップS221の後に、情報処理装置10は、表示対象の特定(S222)を実行する。
具体的には、プロセッサ12は、ステップS221において特定したエンティティの中から表示対象を選択する。
After step S221, the information processing apparatus 10 executes the identification of the display target (S222).
Specifically, the processor 12 selects a display target from the entities specified in step S221.

ステップS222の後に、情報処理装置10は、エンティティ差の検出(S227)を実行する。
具体的には、プロセッサ12は、ステップS222において選択した表示対象毎に、第1の基準時点における第1の基準エンティティに関する情報(以下「第1の基準エンティティ情報」という)と第2の基準時点における第2の基準エンティティに関する情報(以下「第2の基準エンティティ情報」という)との差(以下「エンティティ差」という)を検出する。例えば、プロセッサ12は、以下の少なくとも1つを検出する。
・第1の基準エンティティの位置と第2の基準エンティティの位置の差
・第1の基準エンティティの状態と第2の基準エンティティの状態の差
After step S222, the information processing apparatus 10 executes entity difference detection (S227).
Specifically, the processor 12 has information about the first reference entity at the first reference time point (hereinafter referred to as “first reference entity information”) and the second reference point time point for each display target selected in step S222. The difference (hereinafter referred to as "entity difference") from the information regarding the second reference entity (hereinafter referred to as "second reference entity information") is detected. For example, the processor 12 detects at least one of the following:
-Difference between the position of the first reference entity and the position of the second reference entity-Difference between the state of the first reference entity and the state of the second reference entity

ステップS227の後に、情報処理装置10は、エンティティ画像の生成(S223)を実行する。
具体的には、プロセッサ12は、ステップS227において検出したエンティティ差の大きさに応じて、ステップS222において選択した表示対象の表示形態を決定する。表示形態は、色、テクスチャ、サイズ、映像効果、またはそれらの組み合わせである。一例として、プロセッサ12は、エンティティ差が閾値以上である場合にエンティティ画像を第1の色に設定し、エンティティ差が閾値未満である場合にエンティティ画像を第1の色とは異なる第2の色に設定する。
After step S227, the information processing apparatus 10 executes the generation of the entity image (S223).
Specifically, the processor 12 determines the display form of the display target selected in step S222 according to the magnitude of the entity difference detected in step S227. The display form is a color, a texture, a size, a video effect, or a combination thereof. As an example, the processor 12 sets the entity image to the first color when the entity difference is greater than or equal to the threshold value, and sets the entity image to a second color different from the first color when the entity difference is less than the threshold value. Set to.

プロセッサ12は、決定した表示形態に応じて、エンティティ画像を生成する。 The processor 12 generates an entity image according to the determined display form.

例えば、プロセッサ12は、センサ30から送信されるセンシングデータに含まれる生データ(例えば画像データ)と表示形態とを参照して、エンティティ画像を生成する。例えば、プロセッサ12は、生データのうち基準時点に関連付けられる生データを選択し、選択した生データと表示形態とを参照して基準時点に応じたエンティティ画像を生成してもよい。 For example, the processor 12 generates an entity image by referring to the raw data (for example, image data) included in the sensing data transmitted from the sensor 30 and the display form. For example, the processor 12 may select raw data associated with a reference time among the raw data, refer to the selected raw data and the display form, and generate an entity image according to the reference time.

例えば、プロセッサ12は、エンティティに関連付けられている所定の画像(例えば、アイコン、アバター、または事前に用意された写真)と表示形態とを参照して、エンティティ画像を生成する。
エンティティに関連付けられている所定の画像は、時刻にさらに関連付けられていてもよい。この場合に、プロセッサ12は、所定の画像のうち基準時点に関連付けられる画像を選択し、選択した画像と表示形態とを参照して基準時点に応じたエンティティ画像を生成してもよい。
For example, the processor 12 generates an entity image by referring to a predetermined image (for example, an icon, an avatar, or a photo prepared in advance) associated with the entity and a display form.
A given image associated with an entity may be further associated with time. In this case, the processor 12 may select an image associated with the reference time among predetermined images, refer to the selected image and the display form, and generate an entity image according to the reference time.

ステップS220の後に、情報処理装置10は、指標差の検出(S228)を実行する。
具体的には、プロセッサ12は、対象空間SPの3次元モデルの構成要素(例えば、壁、天井、床、柱、階段、またはそれらの組み合わせ)毎に、要素指標の第1の基準時点における値(「第1指標値」)と第2の基準時点における値(「第2指標値」)との差(以下「指標差」という)を検出する。一例として、プロセッサ12は、3次元モデルデータベース(図8)を参照し、ステップS220において決定した第1の基準時点および第2の基準時点の少なくとも1つに関連付けられるモデルファイルを特定する。プロセッサ12は、特定したモデルファイルから3次元モデルの構成要素に関する情報を抽出し、抽出した情報を参照して要素指標を算出する。要素指標は、例えば、構成要素の出来形、点群データに関する複数の点のうち構成要素に関連付けられる点の数、またはそれらの組み合わせである。
After step S220, the information processing apparatus 10 executes index difference detection (S228).
Specifically, the processor 12 has a value at the first reference time of the element index for each component (for example, wall, ceiling, floor, pillar, staircase, or a combination thereof) of the three-dimensional model of the target space SP. The difference between (“first index value”) and the value at the second reference time point (“second index value”) (hereinafter referred to as “index difference”) is detected. As an example, the processor 12 refers to a three-dimensional model database (FIG. 8) and identifies a model file associated with at least one of the first reference time point and the second reference time point determined in step S220. The processor 12 extracts information about the components of the three-dimensional model from the specified model file, and calculates the element index with reference to the extracted information. The element index is, for example, the shape of the component, the number of points associated with the component among a plurality of points related to the point cloud data, or a combination thereof.

ステップS228の後に、情報処理装置10は、空間画像の生成(S224)を実行する。
具体的には、プロセッサ12は、ステップS228において検出したモデルの構成要素に関する要素指標の差の大きさに応じて、当該構成要素の表示形態を決定する。表示形態は、色、テクスチャ、サイズ、映像効果、またはそれらの組み合わせである。一例として、プロセッサ12は、差が閾値以上である場合に空間画像のうち対象となる構成要素の部分を第1の色に設定し、差が閾値未満である場合に空間画像のうち対象となる構成要素の部分を第1の色とは異なる第2の色に設定する。
プロセッサ12は、決定した表示形態に応じて、対象空間SPに対応する空間画像を生成する。一例として、プロセッサ12は、3次元モデルデータベース(図8)を参照し、ステップS220において決定した第1の基準時点および第2の基準時点の少なくとも1つに関連付けられるモデルファイルを特定する。プロセッサ12は、特定したモデルファイルから3次元モデルの各構成要素に関する情報を抽出し、抽出した情報と当該構成要素の表示形態とを参照して、対象空間SPの3次元モデルを所定の視点から見た空間画像(つまり、基準時点に応じた空間画像)を生成する。
After step S228, the information processing apparatus 10 executes spatial image generation (S224).
Specifically, the processor 12 determines the display form of the component according to the magnitude of the difference in the element index with respect to the component of the model detected in step S228. The display form is a color, a texture, a size, a video effect, or a combination thereof. As an example, the processor 12 sets the target component portion of the spatial image to the first color when the difference is equal to or greater than the threshold value, and becomes the target of the spatial image when the difference is less than the threshold value. The component part is set to a second color different from the first color.
The processor 12 generates a spatial image corresponding to the target space SP according to the determined display form. As an example, the processor 12 refers to a three-dimensional model database (FIG. 8) and identifies a model file associated with at least one of the first reference time point and the second reference time point determined in step S220. The processor 12 extracts information about each component of the three-dimensional model from the specified model file, refers to the extracted information and the display form of the component, and views the three-dimensional model of the target space SP from a predetermined viewpoint. Generates the viewed spatial image (that is, the spatial image according to the reference time).

ステップS223およびステップS224の後に、情報処理装置10は、合成画像の生成(S225)を実行する。
具体的には、プロセッサ12は、ステップS223において生成したエンティティ画像とステップS224において生成した空間画像とを合成する。一例として、プロセッサ12は、空間画像において、ステップS220において決定した基準時点におけるエンティティの位置に対応する位置に当該エンティティのエンティティ画像が配置されるように、エンティティ画像と空間画像とを合成する。
図17に示すように、合成画像CIaにおいて、第1の基準時点における位置と第2の基準時点における位置との差が閾値以上であった人物HM1のエンティティ画像は、他のエンティティ画像とは異なる色で表示される。合成画像CIaの空間画像SI1のうち、第1の基準時点における出来形と第2の基準時点における出来形との差が閾値以上であった構成要素は他の構成要素とは異なる色で表示される。このように、情報処理装置10は、対象空間SPと各エンティティ(表示対象)との位置関係、およびエンティティ同士の位置関係に加え、エンティティの時間変化、および対象空間SPの局所的な時間変化を直感的に把握し易い合成画像CIaをユーザに提示することができる。
After step S223 and step S224, the information processing apparatus 10 executes the generation of the composite image (S225).
Specifically, the processor 12 synthesizes the entity image generated in step S223 and the spatial image generated in step S224. As an example, the processor 12 synthesizes the entity image and the spatial image so that the entity image of the entity is arranged at a position corresponding to the position of the entity at the reference time determined in step S220 in the spatial image.
As shown in FIG. 17, in the composite image CIa, the entity image of the person HM1 in which the difference between the position at the first reference time and the position at the second reference time is equal to or greater than the threshold value is different from other entity images. Displayed in color. Of the spatial image SI1 of the composite image CIa, the component whose difference between the finished shape at the first reference time and the finished shape at the second reference time is equal to or greater than the threshold value is displayed in a different color from the other components. NS. In this way, the information processing apparatus 10 determines the positional relationship between the target space SP and each entity (display target), the positional relationship between the entities, the time change of the entity, and the local time change of the target space SP. A composite image CIa that is easy to grasp intuitively can be presented to the user.

ステップS225の後に、情報処理装置10は、合成画像の表示(S226)を実行する。
具体的には、プロセッサ12は、ステップS225において生成した合成画像を空間ビューワ領域SVRに配置したユーザインタフェース画面を出力デバイス(ディスプレイ)に表示させる。
After step S225, the information processing apparatus 10 executes the display of the composite image (S226).
Specifically, the processor 12 causes the output device (display) to display the user interface screen in which the composite image generated in step S225 is arranged in the spatial viewer area SVR.

以上説明したように、情報処理装置10は、第1のエンティティ情報と第2のエンティティ情報との差に応じてエンティティ画像の表示形態を決定する。これにより、エンティティの時間変化を直感的に把握し易い合成画像CIaをユーザに提示することができる。
また、情報処理装置10は、第1の基準時点における要素指標と第2の時点における要素指標との差に応じて、空間画像のうち対象空間SPの3次元モデルの構成要素に対応する部分の表示形態を決定する。これにより、対象空間SPの局所的な時間変化を直感的に把握し易い合成画像CIaをユーザに提示することができる。
As described above, the information processing apparatus 10 determines the display form of the entity image according to the difference between the first entity information and the second entity information. As a result, it is possible to present the user with a composite image CIa that makes it easy to intuitively grasp the time change of the entity.
Further, the information processing apparatus 10 is a portion of the spatial image corresponding to a component of the three-dimensional model of the target space SP according to the difference between the element index at the first reference time point and the element index at the second time point. Determine the display form. As a result, it is possible to present to the user a composite image CIa that makes it easy to intuitively grasp the local time change of the target space SP.

(6)その他の変形例
その他の変形例について説明する。図18は、その他の変形例のユーザインタフェース画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。図19は、その他の変形例のユーザインタフェース画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。
(6) Other Modification Examples Other modification examples will be described. FIG. 18 is a diagram showing an example of a composite image displayed in the spatial viewer area among the user interface screens of other modified examples. FIG. 19 is a diagram showing an example of a composite image displayed in the spatial viewer area among the user interface screens of other modified examples.

記憶装置11は、ネットワークNWを介して、情報処理装置10と接続されてもよい。 The storage device 11 may be connected to the information processing device 10 via the network NW.

情報処理装置10の機能は、複数の装置(例えば、クライアント装置、およびサーバ装置)によって分担することもできる。 The functions of the information processing device 10 can also be shared by a plurality of devices (for example, a client device and a server device).

基準時点に関連付けられるデータとは、基準時点と同一時刻に関連付けられるデータのみならず、基準時点よりも過去のうち最も近い時刻に関連付けられるデータを含み得る。 The data associated with the reference time may include not only the data associated with the same time as the reference time but also the data associated with the closest time in the past than the reference time.

ユーザは、任意の時点に基準時点を指定する操作(例えば、タイムラインビューワ領域TVRに対する操作)を行うことができる。情報処理装置10は、図10の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図10の表示処理を再実行する。情報処理装置10は、図15の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図15の表示処理を再実行する。これにより、合成画像を含むユーザインタフェース画面を更新できる。
一例として、プロセッサ12は、ユーザが基準時点を選択する操作に応答して、基準時点に関連付けられるエンティティを再度特定する(ステップS121,ステップS221)ことで、表示対象となるエンティティの更新を実現する。プロセッサ12は、エンティティの更新に応答して、エンティティ画像を再度生成する(ステップS123,ステップS223)ことで、エンティティ画像の更新を実現する。プロセッサ12は、エンティティ画像の更新に応答して、合成画像を再度生成する(ステップS225,S226)ことにより、合成画像を更新する。
The user can perform an operation of designating a reference time point at an arbitrary time point (for example, an operation on the timeline viewer area TVR). The information processing apparatus 10 re-executes the display process of FIG. 10 when the reference time is changed by the user's operation during or after the execution of the display process of FIG. The information processing apparatus 10 re-executes the display process of FIG. 15 when the reference time is changed by the user's operation during or after the execution of the display process of FIG. As a result, the user interface screen including the composite image can be updated.
As an example, the processor 12 realizes the update of the entity to be displayed by reidentifying the entity associated with the reference time point in response to the operation of selecting the reference time point (step S121, step S221). .. The processor 12 realizes the update of the entity image by generating the entity image again in response to the update of the entity (step S123, step S223). The processor 12 updates the composite image by regenerating the composite image in response to the update of the entity image (steps S225 and S226).

ユーザは、任意の時点に表示対象を指定する操作(例えば、パラメータビューワ領域PVRに対する操作)を行うことができる。情報処理装置10は、図10の表示処理の実行中、または実行後に、ユーザの操作によって表示対象が変更された場合には、図10の表示処理のうち少なくともステップS122〜ステップS123、およびステップS125〜ステップS126を再実行する。情報処理装置10は、図15の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図15の表示処理のうち少なくともステップS222〜ステップS223、およびステップS225〜S226を再実行する。これにより、合成画像を含むユーザインタフェース画面を更新できる。 The user can perform an operation of designating a display target at an arbitrary time point (for example, an operation on the parameter viewer area PVR). When the display target is changed by the user's operation during or after the execution of the display process of FIG. 10, the information processing apparatus 10 has at least steps S122 to S123 and step S125 of the display process of FIG. ~ Step S126 is re-executed. When the reference time is changed by the user's operation during or after the execution of the display process of FIG. 15, the information processing apparatus 10 has at least steps S222 to S223 and step S225 of the display process of FIG. ~ S226 is re-executed. As a result, the user interface screen including the composite image can be updated.

ユーザは、任意の時点に視点を指定する操作(例えば、空間ビューワ領域SVRに対する操作)を行うことができる。情報処理装置10は、図10の表示処理の実行中、または実行後に、ユーザの操作によって視点が変更された場合には、図10の表示処理のうち少なくともステップS124〜ステップS126を再実行する。情報処理装置10は、図15の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図15の表示処理のうち少なくともステップS224〜S226を再実行する。これにより、合成画像を含むユーザインタフェース画面を更新できる。 The user can perform an operation of designating a viewpoint at an arbitrary time point (for example, an operation on the spatial viewer area SVR). When the viewpoint is changed by the user's operation during or after the execution of the display process of FIG. 10, the information processing apparatus 10 re-executes at least steps S124 to S126 of the display process of FIG. When the reference time is changed by the user's operation during or after the execution of the display process of FIG. 15, the information processing apparatus 10 re-executes at least steps S224 to S226 of the display process of FIG. As a result, the user interface screen including the composite image can be updated.

図10および図15によれば、情報処理装置10は、エンティティ画像の生成(S123,S223)の後に空間画像の生成(S124,S224)を行う。しかしながら、情報処理装置10は、エンティティ画像の生成(S123,S223)と並行して空間画像の生成(S124,S224)を行ってもよいし、エンティティ画像の生成(S123,S223)よりも前に空間画像の生成(S124,S224)を行ってもよい。 According to FIGS. 10 and 15, the information processing apparatus 10 generates a spatial image (S124, S224) after generating an entity image (S123, S223). However, the information processing apparatus 10 may generate the spatial image (S124, S224) in parallel with the generation of the entity image (S123, S223), or before the generation of the entity image (S123, S223). Spatial image generation (S124, S224) may be performed.

実施形態において、モデルファイルが時刻に関連付けられていると説明した。しかしながら、モデルファイルは時刻に関連付けられていなくてもよい。すなわち、情報処理装置10は、基準時点に関わらず、同一のモデルファイルを参照して空間画像を生成してもよい。 In the embodiment, it has been described that the model file is associated with the time. However, the model file does not have to be associated with the time. That is, the information processing apparatus 10 may generate a spatial image by referring to the same model file regardless of the reference time point.

変形例では第1の基準時点および第2の基準時点を決定する例を示した。
情報処理装置10は、エンティティが第1の基準時点および第2の基準時点の両方に関連付けられている場合と、当該エンティティが第1の基準時点および第2の基準時点の一方のみに関連付けられている場合とで、当該エンティティのエンティティ画像の表示形態を異ならせてもよい。
情報処理装置10は、モデルファイルが第1の基準時点および第2の基準時点の両方に関連付けられている場合と、当該モデルファイルが第1の基準時点および第2の基準時点の一方のみに関連付けられている場合とで、当該モデルファイルの空間画像の表示形態を異ならせてもよい。
一例として、図18に示すように、情報処理装置10は、合成画像CIbを生成してもよい。合成画像CIbにおいて、物体OB2は、第1の基準時点に関連付けられているが、第2の基準時点に関連付けられていないので、物体OB2のエンティティ画像は、物体OB1のエンティティ画像とは異なる色で表示される。合成画像CIbにおいて、空間画像SI2に対応するモデルファイルは、第2の基準時点に関連付けられているが第1の基準時点に関連付けられていないので、空間画像SI2は空間画像SI1とは異なる色で表示される。このように、情報処理装置10は、エンティティおよび対象空間SPの時間変化を直感的に把握し易い合成画像CIcをユーザに提示することができる。
In the modified example, an example of determining the first reference time point and the second reference time point is shown.
In the information processing apparatus 10, the entity is associated with both the first reference time point and the second reference time point, and the entity is associated with only one of the first reference time point and the second reference point point time. The display form of the entity image of the entity may be different depending on the case.
The information processing apparatus 10 associates the model file with both the first reference time point and the second reference time point, and the model file with only one of the first reference time point and the second reference time point. The display form of the spatial image of the model file may be different depending on the case where the model file is displayed.
As an example, as shown in FIG. 18, the information processing apparatus 10 may generate a composite image CIb. In the composite image CIb, the object OB2 is associated with the first reference time point, but not with the second reference time point, so that the entity image of the object OB2 has a different color from the entity image of the object OB1. Is displayed. In the composite image CIb, the model file corresponding to the spatial image SI2 is associated with the second reference time point but not with the first reference time point, so that the spatial image SI2 has a different color from the spatial image SI1. Is displayed. In this way, the information processing device 10 can present to the user a composite image CIc that makes it easy to intuitively grasp the time changes of the entity and the target space SP.

変形例では、第1の基準時点および第2の基準時点を決定する例を示した。第1の基準時点と第2の基準時点との間に1以上の中間点(時刻)が存在する場合に、情報処理装置10は、各中間点におけるエンティティ情報を参照して、エンティティ画像を生成してもよい。
一例として、図19に示すように、情報処理装置10は、合成画像CIcを生成してもよい。合成画像CIcにおいて、人物HM1のエンティティ画像は、第1の基準時点から第2の基準時点までの軌跡(すなわち、第1の基準時点、1以上の中間点の各々、および第2の基準時点における人物HM1の位置を時系列順に結んだ折れ線)を表す画像aが付加されている。このように、情報処理装置10は、エンティティの時間変化の詳細を直感的に把握し易い合成画像CIcをユーザに提示することができる。
In the modified example, an example of determining the first reference time point and the second reference time point is shown. When there is one or more intermediate points (time) between the first reference time point and the second reference time point, the information processing apparatus 10 refers to the entity information at each intermediate point and generates an entity image. You may.
As an example, as shown in FIG. 19, the information processing apparatus 10 may generate a composite image CIc. In the composite image CIc, the entity image of the person HM1 is a locus from the first reference time point to the second reference time point (that is, at each of the first reference time point, one or more intermediate points, and at the second reference time point. An image a (a polygonal line connecting the positions of the person HM1 in chronological order) is added. In this way, the information processing device 10 can present the user with a composite image CIc that makes it easy to intuitively grasp the details of the time change of the entity.

変形例において、第1基準時点および第2基準時点を説明した。第1基準時点は、第2基準時点よりも過去であってもよいし、第2基準時点よりも未来であってもよい。 In the modified example, the first reference time point and the second reference time point have been described. The first reference time may be past the second reference time, or may be in the future than the second reference time.

実施形態において、プロセッサ12は、モデルファイルを参照して空間画像を生成すると説明した。しかしながら、プロセッサ12は、モデルファイルの代わりにセンシングデータ(例えば点群データ)を参照して空間画像を生成してもよいし、モデルファイルに加えてセンシングデータを参照して空間画像を生成してもよい。
具体的には、プロセッサ12は、点群データに基づいて計算された対象空間SPの3次元モデルの構成要素毎の出来形を参照して、空間画像を生成してもよい。一例として、プロセッサ12は、構成要素のうち出来形が閾値以上である構成要素を選別して描画することにより、基準時点における施工の進捗を把握し易い空間画像を生成してもよい。
In the embodiment, the processor 12 has been described as referring to a model file to generate a spatial image. However, the processor 12 may generate a spatial image by referring to sensing data (for example, point cloud data) instead of the model file, or may generate a spatial image by referring to the sensing data in addition to the model file. May be good.
Specifically, the processor 12 may generate a spatial image by referring to the finished form of each component of the three-dimensional model of the target space SP calculated based on the point cloud data. As an example, the processor 12 may generate a spatial image in which it is easy to grasp the progress of construction at a reference time point by selecting and drawing a component whose finished shape is equal to or larger than a threshold value among the components.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.

(7)付記
実施形態で説明した事項を、以下に付記する。
(7) Addendum The matters described in the embodiment are added below.

(付記1)
少なくとも1つの基準時点に対象空間(SP)に配置されていたセンサ(30)、および当該基準時点における当該センサの検出対象のうち少なくとも1つである基準時点に関連付けられるエンティティを特定する手段(S121,S221)と、
エンティティに対応するエンティティ画像を生成する手段(S123,S223)と、
対象空間に対応する空間画像を生成する手段(S124,S224)と、
空間画像において、エンティティ画像が基準時点における当該エンティティの位置に対応する位置に配置されるように、エンティティ画像と空間画像とを合成することで、合成画像を生成する手段(S125,S225)と
を具備する、情報処理装置(10)。
(Appendix 1)
A means for identifying a sensor (30) arranged in the target space (SP) at at least one reference time point, and an entity associated with a reference time point that is at least one of the detection targets of the sensor at the reference time point (S121). , S221) and
Means (S123, S223) for generating an entity image corresponding to an entity, and
Means (S124, S224) for generating a spatial image corresponding to the target space, and
In the spatial image, the means (S125, S225) for generating the composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at the position corresponding to the position of the entity at the reference time. An information processing device (10) provided.

(付記1)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 1), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.

(付記2)
合成画像を表示する手段(S126,S226)をさらに備える、
付記1に記載の情報処理装置。
(Appendix 2)
A means for displaying a composite image (S126, S226) is further provided.
The information processing device according to Appendix 1.

(付記2)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像をユーザに提示することができる。 According to (Appendix 2), it is possible to present to the user a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.

(付記3)
表示する手段は、エンティティに関するエンティティ情報を表示する、付記2に記載の情報処理装置。
(Appendix 3)
The means for displaying is the information processing device according to Appendix 2, which displays entity information about an entity.

(付記3)によれば、さらに、エンティティ情報をユーザに提示できる。 According to (Appendix 3), the entity information can be further presented to the user.

(付記4)
エンティティ情報は、センサの種別、センサのセンシングデータの種別、およびセンシングデータの内容の少なくとも1つを含む、付記3に記載の情報処理装置。
(Appendix 4)
The information processing apparatus according to Appendix 3, wherein the entity information includes at least one of a sensor type, a sensor sensing data type, and a sensing data content.

(付記4)によれば、さらに、センサの種別、センサのセンシングデータの種別、およびセンシングデータの内容の少なくとも1つをユーザに提示できる。 According to (Appendix 4), at least one of the type of sensor, the type of sensor sensing data, and the content of the sensing data can be further presented to the user.

(付記5)
エンティティ情報は、検出対象の識別情報、属性、および状態の少なくとも1つを表示する、付記3または付記4のいずれかに記載の情報処理装置。
(Appendix 5)
The information processing device according to any one of Appendix 3 or Appendix 4, wherein the entity information displays at least one of the identification information, the attribute, and the state to be detected.

(付記5)によれば、さらに、検出対象の識別情報、属性、および状態の少なくとも1つをユーザに提示できる。 According to (Appendix 5), at least one of the identification information, the attribute, and the state of the detection target can be further presented to the user.

(付記6)
空間画像を生成する手段は、対象空間の3次元モデル情報を参照して、空間画像を生成する、
付記1乃至付記5のいずれかに記載の情報処理装置。
(Appendix 6)
The means for generating the spatial image refers to the three-dimensional model information of the target space to generate the spatial image.
The information processing device according to any one of Supplementary Note 1 to Supplementary Note 5.

(付記6)によれば、対象空間の3次元モデル情報に応じた空間画像を含む合成画像を生成することができる。 According to (Appendix 6), it is possible to generate a composite image including a spatial image corresponding to the three-dimensional model information of the target space.

(付記7)
対象空間の3次元モデル情報は、時刻に関連付けられており、
空間画像を生成する手段及びエンティティ画像を生成する手段の少なくとも1つは、それぞれ、基準時点に応じた空間画像、及び、基準時点に応じたエンティティ画像の少なくとも1つを生成する、
付記1乃至付記6のいずれかに記載の情報処理装置。
(Appendix 7)
The 3D model information of the target space is associated with the time and
At least one of the means for generating the spatial image and the means for generating the entity image generates at least one of the spatial image according to the reference time point and the entity image according to the reference time point, respectively.
The information processing device according to any one of Supplementary note 1 to Supplementary note 6.

(付記7)によれば、基準時点に応じた空間画像、および基準時点に応じたエンティティ画像の少なくとも1つを含む合成画像を生成することができる。 According to (Appendix 7), it is possible to generate a composite image including at least one of a spatial image corresponding to a reference time point and an entity image corresponding to a reference time point.

(付記8)
空間画像を生成する手段は、センサのセンシング結果を参照して、空間画像を生成する、
付記1乃至付記7のいずれかに記載の情報処理装置。
(Appendix 8)
The means for generating the spatial image refers to the sensing result of the sensor and generates the spatial image.
The information processing device according to any one of Supplementary note 1 to Supplementary note 7.

(付記8)によれば、センサのセンシング結果に応じた空間画像を含む合成画像を生成することができる。 According to (Appendix 8), it is possible to generate a composite image including a spatial image according to the sensing result of the sensor.

(付記9)
センシング結果は、点群データを含み、
空間画像を生成する手段は、点群データに基づいて計算された対象空間の3次元モデルの構成要素毎の出来形を参照して、空間画像を生成する、
付記8に記載の情報処理装置。
(Appendix 9)
Sensing results include point cloud data
The means for generating the spatial image is to generate the spatial image by referring to the finished shape of each component of the three-dimensional model of the target space calculated based on the point cloud data.
The information processing device according to Appendix 8.

(付記9)によれば、出来形に応じた空間画像を含む合成画像を生成することができる。 According to (Appendix 9), it is possible to generate a composite image including a spatial image according to the finished shape.

(付記10)
エンティティは、人物、物体、および生物の少なくとも1つを含む、付記1乃至付記9のいずれかに記載の情報処理装置。
(Appendix 10)
The information processing device according to any one of Supplementary note 1 to Supplementary note 9, wherein the entity includes at least one of a person, an object, and an organism.

(付記10)によれば、対象空間と各エンティティ(人物、物体、および生物の少なくとも1つ)との位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 10), it is possible to generate a composite image that makes it easy to intuitively grasp the positional relationship between the target space and each entity (at least one of a person, an object, and a living thing) and the positional relationship between the entities. can.

(付記11)
各エンティティ画像についての表示対象を指定するユーザ指示を取得する手段(S122,S222)をさらに具備し、
エンティティ画像を生成する手段は、ユーザ指示によって指定された表示対象に対応するエンティティ画像を生成する、
付記1乃至付記10のいずれかに記載の情報処理装置。
(Appendix 11)
A means (S122, S222) for acquiring a user instruction for designating a display target for each entity image is further provided.
The means for generating the entity image is to generate the entity image corresponding to the display target specified by the user instruction.
The information processing device according to any one of Supplementary Note 1 to Supplementary Note 10.

(付記11)によれば、対象空間と各エンティティ(ユーザ指示によって指定された表示対象)との位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 11), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity (display target specified by the user instruction) and the positional relationship between the entities.

(付記12)
エンティティ画像を生成する手段は、第1の基準時点におけるエンティティに関する第1のエンティティ情報と、第1の基準時点とは異なる第2の基準時点におけるエンティティに関する第2のエンティティ情報との間の差を参照して、当該エンティティに対応するエンティティ画像を生成する、
付記1乃至付記11のいずれかに記載の情報処理装置。
(Appendix 12)
The means for generating the entity image is the difference between the first entity information about the entity at the first reference time point and the second entity information about the entity at the second reference time point different from the first reference time point. Refer to and generate the entity image corresponding to the entity.
The information processing device according to any one of Supplementary Note 1 to Supplementary Note 11.

(付記12)によれば、エンティティの時間変化を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 12), it is possible to generate a composite image in which it is easy to intuitively grasp the time change of an entity.

(付記13)
エンティティ画像を生成する手段は、第1の基準時点から第1の基準時点とは異なる第2の基準時点までの間のエンティティの位置の軌跡を参照して、当該エンティティに対応するエンティティ画像を生成する、
付記1乃至付記12のいずれかに記載の情報処理装置。
(Appendix 13)
The means for generating the entity image refers to the locus of the position of the entity from the first reference time point to the second reference time point different from the first reference time point, and generates the entity image corresponding to the entity. do,
The information processing device according to any one of Supplementary note 1 to Supplementary note 12.

(付記13)によれば、エンティティの時間変化の詳細を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 13), it is possible to generate a composite image in which the details of the time change of the entity can be easily grasped intuitively.

(付記14)
空間画像を生成する手段は、対象空間の3次元モデル情報の構成要素に関連付けられる指標の第1の基準時点における第1指標値と、当該指標の第1の基準時点とは異なる第2の基準時点における第2指標値との間の差を参照して、空間画像のうち当該構成要素に対応する部分を生成する、
付記1乃至付記13のいずれかに記載の情報処理装置。
(Appendix 14)
The means for generating the spatial image is a first index value at the first reference time of the index associated with the component of the three-dimensional model information of the target space and a second reference different from the first reference time of the index. With reference to the difference from the second index value at the time point, the part of the spatial image corresponding to the component is generated.
The information processing device according to any one of Supplementary Note 1 to Supplementary Note 13.

(付記14)によれば、対象空間SPの局所的な時間変化を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 14), it is possible to generate a composite image in which it is easy to intuitively grasp the local time change of the target space SP.

(付記15)
指標は、点群データに関する複数の点のうち3次元モデル情報の構成要素に関連付けられる点の数、および3次元モデル情報の構成要素に関連付けられる出来形、の少なくとも1つである、
付記14に記載の情報処理装置。
(Appendix 15)
The index is at least one of the number of points associated with the components of the 3D model information and the finished shape associated with the components of the 3D model information among the plurality of points related to the point cloud data.
The information processing device according to Appendix 14.

(付記15)によれば、対象空間SPの局所的な時間変化を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 15), it is possible to generate a composite image in which it is easy to intuitively grasp the local time change of the target space SP.

(付記16)
エンティティを特定する手段は、ユーザが基準時点を選択する操作に応答して、基準時点に関連付けられるエンティティを更新し、
エンティティ画像を生成する手段は、エンティティの更新に応答して、エンティティ画像を更新し、
合成画像を生成する手段は、エンティティ画像の更新に応答して、合成画像を更新する、
付記1乃至付記15のいずれかに記載の情報処理装置。
(Appendix 16)
The means of identifying an entity is to update the entity associated with the reference point in response to the user selecting a reference point in time.
The means of generating the entity image updates the entity image in response to the entity update,
The means for generating the composite image updates the composite image in response to the update of the entity image.
The information processing device according to any one of Supplementary note 1 to Supplementary note 15.

(付記16)によれば、合成画像を更新することができる。 According to (Appendix 16), the composite image can be updated.

(付記17)
コンピュータ(10)が、
少なくとも1つの基準時点に対象空間(SP)に配置されていたセンサ(30)、および当該基準時点における当該センサの検出対象のうち少なくとも1つである基準時点に関連付けられるエンティティを特定するステップ(S121,S221)と、
エンティティに対応するエンティティ画像を生成するステップ(S123,S223)と、
対象空間に対応する空間画像を生成するステップ(S124,S224)と、
空間画像において、エンティティ画像が基準時点における当該エンティティの位置に対応する位置に配置されるように、エンティティ画像と空間画像とを合成することで、合成画像を生成するステップ(S125,S225)と
を具備する、情報処理方法。
(Appendix 17)
The computer (10)
A step (S121) of identifying a sensor (30) arranged in the target space (SP) at at least one reference time point, and an entity associated with the reference time point which is at least one of the detection targets of the sensor at the reference time point. , S221) and
Steps (S123, S223) to generate an entity image corresponding to an entity, and
Steps (S124, S224) to generate a spatial image corresponding to the target space, and
In the spatial image, the steps (S125, S225) of generating the composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at the position corresponding to the position of the entity at the reference time. Information processing method to be provided.

(付記17)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 17), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.

(付記18)
コンピュータに、付記1〜16の何れかに記載の各手段を実現させるためのプログラム。
(Appendix 18)
A program for realizing each means according to any one of Supplementary note 1 to 16 on a computer.

(付記18)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 18), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.

1 :情報処理システム
10 :情報処理装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :センサ
1: Information processing system 10: Information processing device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 30: Sensor

Claims (18)

少なくとも1つの基準時点に対象空間に配置されていたセンサ、および当該基準時点における当該センサの検出対象のうち少なくとも1つである前記基準時点に関連付けられるエンティティを特定する手段と、
前記エンティティに対応するエンティティ画像を生成する手段と、
前記対象空間に対応する空間画像を生成する手段と、
前記空間画像において、前記エンティティ画像が前記基準時点における当該エンティティの位置に対応する位置に配置されるように、前記エンティティ画像と前記空間画像とを合成することで、合成画像を生成する手段と
を具備する、情報処理装置。
A means for identifying a sensor that was placed in the target space at at least one reference time point, and an entity associated with the reference time point that is at least one of the detection targets of the sensor at the reference time point.
A means for generating an entity image corresponding to the entity,
A means for generating a spatial image corresponding to the target space, and
A means for generating a composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at a position corresponding to the position of the entity at the reference time in the spatial image. An information processing device to be equipped.
前記合成画像を表示する手段をさらに備える、
請求項1に記載の情報処理装置。
Further provided with means for displaying the composite image.
The information processing device according to claim 1.
前記表示する手段は、前記エンティティに関するエンティティ情報を表示する、請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the display means displays entity information relating to the entity. エンティティ情報は、前記センサの種別、前記センサのセンシングデータの種別、および前記センシングデータの内容の少なくとも1つを含む、請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the entity information includes at least one of the sensor type, the sensing data type of the sensor, and the content of the sensing data. エンティティ情報は、前記検出対象の識別情報、属性、および状態の少なくとも1つを表示する、請求項3または請求項4のいずれかに記載の情報処理装置。 The information processing device according to claim 3 or 4, wherein the entity information displays at least one of the identification information, the attribute, and the state of the detection target. 前記空間画像を生成する手段は、前記対象空間の3次元モデル情報を参照して、前記空間画像を生成する、
請求項1乃至請求項5のいずれかに記載の情報処理装置。
The means for generating the spatial image refers to the three-dimensional model information of the target space to generate the spatial image.
The information processing device according to any one of claims 1 to 5.
前記対象空間の3次元モデル情報は、時刻に関連付けられており、
前記空間画像を生成する手段及び前記エンティティ画像を生成する手段の少なくとも1つは、それぞれ、前記基準時点に応じた空間画像、及び、前記基準時点に応じたエンティティ画像の少なくとも1つを生成する、
請求項1乃至請求項6のいずれかに記載の情報処理装置。
The three-dimensional model information of the target space is associated with the time and is associated with the time.
At least one of the means for generating the spatial image and the means for generating the entity image generates at least one of the spatial image according to the reference time point and the entity image according to the reference time point, respectively.
The information processing device according to any one of claims 1 to 6.
前記空間画像を生成する手段は、前記センサのセンシング結果を参照して、前記空間画像を生成する、
請求項1乃至請求項7のいずれかに記載の情報処理装置。
The means for generating the spatial image refers to the sensing result of the sensor and generates the spatial image.
The information processing device according to any one of claims 1 to 7.
前記センシング結果は、点群データを含み、
前記空間画像を生成する手段は、前記点群データに基づいて計算された前記対象空間の3次元モデルの構成要素毎の出来形を参照して、前記空間画像を生成する、
請求項8に記載の情報処理装置。
The sensing result includes point cloud data and includes point cloud data.
The means for generating the spatial image refers to the finished shape of each component of the three-dimensional model of the target space calculated based on the point cloud data, and generates the spatial image.
The information processing device according to claim 8.
前記エンティティは、人物、物体、および生物の少なくとも1つを含む、請求項1乃至請求項9のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 9, wherein the entity includes at least one of a person, an object, and an organism. 各エンティティ画像についての表示対象を指定するユーザ指示を取得する手段をさらに具備し、
前記エンティティ画像を生成する手段は、前記ユーザ指示によって指定された表示対象に対応するエンティティ画像を生成する、
請求項1乃至請求項10のいずれかに記載の情報処理装置。
Further provided with means for obtaining a user instruction to specify a display target for each entity image.
The means for generating the entity image generates an entity image corresponding to the display target specified by the user instruction.
The information processing device according to any one of claims 1 to 10.
前記エンティティ画像を生成する手段は、第1の基準時点における前記エンティティに関する第1のエンティティ情報と、前記第1の基準時点とは異なる第2の基準時点における前記エンティティに関する第2のエンティティ情報との間の差を参照して、当該エンティティに対応するエンティティ画像を生成する、
請求項1乃至請求項11のいずれかに記載の情報処理装置。
The means for generating the entity image is the first entity information about the entity at the first reference time point and the second entity information about the entity at the second reference time point different from the first reference time point. Generate an entity image corresponding to the entity by referring to the difference between them.
The information processing device according to any one of claims 1 to 11.
前記エンティティ画像を生成する手段は、第1の基準時点から前記第1の基準時点とは異なる第2の基準時点までの間の前記エンティティの位置の軌跡を参照して、当該エンティティに対応するエンティティ画像を生成する、
請求項1乃至請求項12のいずれかに記載の情報処理装置。
The means for generating the entity image refers to the locus of the position of the entity from the first reference time point to the second reference time point different from the first reference time point, and refers to the entity corresponding to the entity. Generate an image,
The information processing device according to any one of claims 1 to 12.
前記空間画像を生成する手段は、前記対象空間の3次元モデル情報の構成要素に関連付けられる指標の第1の基準時点における第1指標値と、当該指標の前記第1の基準時点とは異なる第2の基準時点における第2指標値との間の差を参照して、前記空間画像のうち当該構成要素に対応する部分を生成する、
請求項1乃至請求項13のいずれかに記載の情報処理装置。
The means for generating the spatial image is different from the first index value at the first reference time of the index associated with the component of the three-dimensional model information of the target space and the first reference time of the index. With reference to the difference between the second index value and the second index value at the reference time of 2, the portion of the spatial image corresponding to the component is generated.
The information processing device according to any one of claims 1 to 13.
前記指標は、点群データに関する複数の点のうち前記3次元モデル情報の構成要素に関連付けられる点の数、および前記3次元モデル情報の構成要素に関連付けられる出来形、の少なくとも1つである、
請求項14に記載の情報処理装置。
The index is at least one of a plurality of points related to the point cloud data, the number of points associated with the component of the three-dimensional model information, and the finished shape associated with the component of the three-dimensional model information.
The information processing device according to claim 14.
前記エンティティを特定する手段は、ユーザが前記基準時点を選択する操作に応答して、前記基準時点に関連付けられるエンティティを更新し、
前記エンティティ画像を生成する手段は、前記エンティティの更新に応答して、前記エンティティ画像を更新し、
前記合成画像を生成する手段は、前記エンティティ画像の更新に応答して、前記合成画像を更新する、
請求項1乃至請求項15のいずれかに記載の情報処理装置。
The means for identifying the entity updates the entity associated with the reference time point in response to the user selecting the reference time point.
The means for generating the entity image updates the entity image in response to the update of the entity.
The means for generating the composite image updates the composite image in response to the update of the entity image.
The information processing device according to any one of claims 1 to 15.
コンピュータが、
少なくとも1つの基準時点に対象空間に配置されていたセンサ、および当該基準時点における当該センサの検出対象のうち少なくとも1つである前記基準時点に関連付けられるエンティティを特定するステップと、
前記エンティティに対応するエンティティ画像を生成するステップと、
前記対象空間に対応する空間画像を生成するステップと、
前記空間画像において、前記エンティティ画像が前記基準時点における当該エンティティの位置に対応する位置に配置されるように、前記エンティティ画像と前記空間画像とを合成することで、合成画像を生成するステップと
を具備する、情報処理方法。
The computer
A step of identifying a sensor that was placed in the target space at at least one reference time point, and an entity associated with the reference time point that is at least one of the detection targets of the sensor at the reference time point.
Steps to generate an entity image corresponding to the entity,
A step of generating a spatial image corresponding to the target space, and
In the spatial image, a step of generating a composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at a position corresponding to the position of the entity at the reference time point. Information processing method to be provided.
コンピュータに、請求項1〜16の何れかに記載の各手段を実現させるためのプログラム。 A program for causing a computer to realize each of the means according to any one of claims 1 to 16.
JP2020081056A 2020-05-01 2020-05-01 Information processing device, information processing method, and program Pending JP2021176033A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020081056A JP2021176033A (en) 2020-05-01 2020-05-01 Information processing device, information processing method, and program
PCT/JP2021/014853 WO2021220757A1 (en) 2020-05-01 2021-04-08 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020081056A JP2021176033A (en) 2020-05-01 2020-05-01 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021176033A true JP2021176033A (en) 2021-11-04

Family

ID=78300401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081056A Pending JP2021176033A (en) 2020-05-01 2020-05-01 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2021176033A (en)
WO (1) WO2021220757A1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device
JP2013205983A (en) * 2012-03-27 2013-10-07 Sony Corp Information input apparatus, information input method, and computer program
JP2013211739A (en) * 2012-03-30 2013-10-10 Secom Co Ltd Image monitoring device
JP2013214944A (en) * 2012-02-29 2013-10-17 Jvc Kenwood Corp Image processing apparatus, image processing method, and image processing program
JP2014191616A (en) * 2013-03-27 2014-10-06 National Institute Of Advanced Industrial & Technology Method and device for monitoring aged person living alone, and service provision system
JP2015018340A (en) * 2013-07-09 2015-01-29 キヤノン株式会社 Image processing apparatus and image processing method
WO2016162963A1 (en) * 2015-04-08 2016-10-13 株式会社日立製作所 Image search device, system, and method
JP2018013854A (en) * 2016-07-19 2018-01-25 日本電信電話株式会社 Tracking device and tracking method
JP2019062531A (en) * 2017-09-27 2019-04-18 キヤノンマーケティングジャパン株式会社 Image processing system, control method of image processing system, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device
JP2013214944A (en) * 2012-02-29 2013-10-17 Jvc Kenwood Corp Image processing apparatus, image processing method, and image processing program
JP2013205983A (en) * 2012-03-27 2013-10-07 Sony Corp Information input apparatus, information input method, and computer program
JP2013211739A (en) * 2012-03-30 2013-10-10 Secom Co Ltd Image monitoring device
JP2014191616A (en) * 2013-03-27 2014-10-06 National Institute Of Advanced Industrial & Technology Method and device for monitoring aged person living alone, and service provision system
JP2015018340A (en) * 2013-07-09 2015-01-29 キヤノン株式会社 Image processing apparatus and image processing method
WO2016162963A1 (en) * 2015-04-08 2016-10-13 株式会社日立製作所 Image search device, system, and method
JP2018013854A (en) * 2016-07-19 2018-01-25 日本電信電話株式会社 Tracking device and tracking method
JP2019062531A (en) * 2017-09-27 2019-04-18 キヤノンマーケティングジャパン株式会社 Image processing system, control method of image processing system, and program

Also Published As

Publication number Publication date
WO2021220757A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
JP5833772B2 (en) Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata
JP5807686B2 (en) Image processing apparatus, image processing method, and program
CN105637564B (en) Generate the Augmented Reality content of unknown object
JP6684883B2 (en) Method and system for providing camera effects
JP6013583B2 (en) Method for emphasizing effective interface elements
AU2022345532B2 (en) Browser optimized interactive electronic model based determination of attributes of a structure
US20200364897A1 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
EP2733629A1 (en) System for associating tag information with images supporting image feature search
CN110070556A (en) Use the structural modeling of depth transducer
JP2014106681A5 (en)
Ge et al. Integrative simulation environment for conceptual structural analysis
US11562538B2 (en) Method and system for providing a user interface for a 3D environment
JP2020509505A (en) Method, apparatus and computer program for providing augmented reality
WO2021220757A1 (en) Information processing device, information processing method, and program
KR20210044882A (en) Augmented Reality Mapping Systems and Related Methods
KR20190103222A (en) Automated Activity-Time Training Techniques
US20230290072A1 (en) System and method of object detection and interactive 3d models
US9230366B1 (en) Identification of dynamic objects based on depth data
US11782548B1 (en) Speed adapted touch detection
JP7367383B2 (en) Image recognition application construction support system and program
JP2022014002A (en) Information processing device, information processing method, and program
KR20180071492A (en) Realistic contents service system using kinect sensor
KR20230106000A (en) Method and apparatus for providing user-interactive customized interaction for xr real object transformation
CN110192208B (en) Signal fragments sharing physical graphics
JP6839771B2 (en) Video correction method and system by correction pattern analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230925