JP2021176033A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2021176033A JP2021176033A JP2020081056A JP2020081056A JP2021176033A JP 2021176033 A JP2021176033 A JP 2021176033A JP 2020081056 A JP2020081056 A JP 2020081056A JP 2020081056 A JP2020081056 A JP 2020081056A JP 2021176033 A JP2021176033 A JP 2021176033A
- Authority
- JP
- Japan
- Prior art keywords
- entity
- image
- reference time
- information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 113
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 7
- 239000002131 composite material Substances 0.000 claims description 64
- 230000004044 response Effects 0.000 claims description 10
- 238000000034 method Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 17
- 238000010276 construction Methods 0.000 description 15
- 238000009434 installation Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.
例えばプロジェクトの管理者は、作業の進捗管理をする必要がある。 For example, a project manager needs to manage the progress of work.
特許文献1には、工事箇所の位置情報及び工事に関する情報を含む識別コードが表示された表示部材を工事箇所に配置し、携帯端末でこの識別コードを読み取った上で工事箇所を撮影することにより、工事の経過が写った画像を、工事箇所ごと且つ工程順に配列して表示する技術が開示されている。
In
作業は、3次元空間で行われ、且つ、時間に応じて変化する。したがって、進捗管理には、3次元空間において時間を考慮する必要がある。 The work is done in a three-dimensional space and changes with time. Therefore, it is necessary to consider time in the three-dimensional space for progress management.
特許文献1に記載の技術によれば、工事の経過が写った画像を、工事箇所ごと且つ工程順に配列して表示できる。しかしながら、工事の対象は3次元の空間(例えば建物)であるのに対して撮影画像は2次元の情報であるから、管理者が工事の経過が写った画像を眺めただけでは作業の進捗を空間的に把握することは容易でない。また、工事の経過が写った画像は工事箇所ごとに配列されるから、管理者がある時点の複数の工事箇所の作業の進捗の概観を把握することは容易でない。
According to the technique described in
つまり、特許文献1では、3次元空間において時間が考慮されていないので、対象空間の概観を直感的に把握することが難しい。
That is, in
本開示の目的は、対象空間の概観を直感的に把握し易い情報をユーザに提示することである。 An object of the present disclosure is to present to the user information that makes it easy to intuitively grasp the appearance of the target space.
本開示の一態様に係る情報処理装置は、少なくとも1つの基準時点に対象空間に配置されていたセンサ、および当該基準時点における当該センサの検出対象のうち少なくとも1つである基準時点に関連付けられるエンティティを特定する手段と、エンティティに対応するエンティティ画像を生成する手段と、対象空間に対応する空間画像を生成する手段と、空間画像において、エンティティ画像が基準時点における当該エンティティの位置に対応する位置に配置されるように、エンティティ画像と空間画像とを合成することで、合成画像を生成する手段とを備える。 The information processing apparatus according to one aspect of the present disclosure includes a sensor arranged in the target space at at least one reference time point, and an entity associated with a reference time point which is at least one of the detection targets of the sensor at the reference time point. A means for specifying, a means for generating an entity image corresponding to an entity, a means for generating a spatial image corresponding to a target space, and a position in the spatial image in which the entity image corresponds to the position of the entity at a reference time. It is provided with a means for generating a composite image by synthesizing the entity image and the spatial image so as to be arranged.
本開示によれば、対象空間の概観を直感的に把握し易い情報をユーザに提示できる。 According to the present disclosure, it is possible to present to the user information that makes it easy to intuitively grasp the appearance of the target space.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing a configuration of an information processing system of the present embodiment.
図1に示すように、情報処理システム1は、情報処理装置10と、センサ30とを備える。センサ30の台数は任意である。
情報処理装置10及びセンサ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the
The
情報処理装置10は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、またはサーバ(例えば、Webサーバ、アプリケーションサーバ、データベースサーバ、またはそれらの組み合わせ)である。
情報処理装置10は、センサ30から送信されるセンシングデータに基づいて、センシング結果データベースを管理する。
情報処理装置10は、センシング結果データベースを参照して、後述する合成画像を生成し、当該合成画像をユーザに対して提示する。
The
The
The
センサ30は、対象空間に設置される。センサ30は、センシングを行い、センシングデータを情報処理装置10に送信する。センサ30は、任意の種別のセンサ装置である。センサ30は、以下のいずれかであってよい。
・カメラ
・デプスカメラ
・LIDAR
・ToFカメラ
・気圧センサ
・温度センサ
・震度センサ
The
・ Camera ・ Depth camera ・ LIDAR
・ ToF camera ・ Barometric pressure sensor ・ Temperature sensor ・ Seismic intensity sensor
(1−1)情報処理装置の構成
情報処理装置の構成について説明する。図2は、本実施形態の情報の構成例を示すブロック図である。
(1-1) Configuration of Information Processing Device The configuration of the information processing device will be described. FIG. 2 is a block diagram showing a configuration example of information of the present embodiment.
図2に示すように、情報処理装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
As shown in FIG. 2, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、情報処理装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
The
入出力インタフェース13は、情報処理装置10に接続される入力デバイスからユーザの指示を取得し、かつ、情報処理装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、センサ(例えば、カメラ、マイクロホン、加速度センサ)、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ、スピーカ、またはそれらの組み合わせである。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the
The input device is, for example, a keyboard, a pointing device, a touch panel, a sensor (eg, a camera, a microphone, an acceleration sensor), or a combination thereof.
The output device is, for example, a display, a speaker, or a combination thereof.
通信インタフェース14は、情報処理装置10と外部装置(例えばセンサ30)との間の通信を制御するように構成される。
The communication interface 14 is configured to control communication between the
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of the Embodiment The outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the present embodiment.
図3に示すように、ある基準時点において、対象空間SP(例えば、建設済みの建造物、または建設、修繕、もしくは解体作業中の建造物)には、時刻に関連付けられる要素(「エンティティ」という)が存在する。エンティティは、センサSN、及び、当該センサSNの検出対象DT(例えば、人物、物体、及び、生物の少なくとも1つ)を含む。
情報処理装置10は、例えばセンサSNのセンシング結果を参照して、基準時点に関連付けられるエンティティとして、センサSNおよび検出対象DTを特定する。
As shown in FIG. 3, at a certain reference time point, the target space SP (for example, a building that has already been constructed or a building that is under construction, repair, or demolition) has an element associated with time (referred to as “entity”). ) Exists. The entity includes a sensor SN and a DT to be detected by the sensor SN (for example, at least one of a person, an object, and an organism).
The
情報処理装置10は、例えばセンサSNのセンシング結果を参照して、センサSNに対応するエンティティ画像EI1と、検出対象DTに対応するエンティティ画像EI2とを生成する。
情報処理装置10は、例えば対象空間SPの3次元モデル情報MDを参照し、対象空間SPに対応する空間画像SIを生成する。
情報処理装置10は、空間画像SIにおいて、エンティティ画像EI1が基準時点におけるセンサSNに対応する位置に配置され、かつ、エンティティ画像EI2が基準時点における検出対象DTに対応する位置に配置されるように、エンティティ画像EI1と、エンティティ画像EI2と、空間画像SIとを合成することで、合成画像CIを生成する。
The
The
In the spatial image SI, the
合成画像CIによれば、ユーザは、基準時点におけるエンティティ(すなわち、センサSN、および検出対象DT)に対応するエンティティ画像EI1およびEI2について、当該基準時点における各エンティティの対象空間SP内の位置を確認することができる。すなわち、情報処理装置10は、基準時点における対象空間とエンティティの位置関係を直感的に把握し易い合成画像CIをユーザに提示できる。
According to the composite image CI, the user confirms the positions of the entity images EI1 and EI2 corresponding to the entities (that is, the sensor SN and the detection target DT) at the reference time in the target space SP of each entity at the reference time. can do. That is, the
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置11に記憶される。
(3) Database The database of the present embodiment will be described. The following database is stored in the storage device 11.
(3−1)人物データベース
本実施形態の人物データベースについて説明する。図4は、本実施形態の人物データベースのデータ構造を示す図である。
(3-1) Person database The person database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the person database of the present embodiment.
図4に示すように、人物データベースは、「ID」フィールドと、「名称」フィールドと、「人物属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
人物データベースには、人物情報が格納される。人物情報は、人物に関する情報である。
As shown in FIG. 4, the person database includes an "ID" field, a "name" field, and a "person attribute" field. Each field is associated with each other.
Person information is stored in the person database. Person information is information about a person.
「ID」フィールドには、人物識別情報が格納される。人物識別情報は、人物を識別する情報である。 Person identification information is stored in the "ID" field. The person identification information is information for identifying a person.
「名称」フィールドには、人物名称情報が格納される。人物名称情報は、人物の名称に関する情報である。 Person name information is stored in the "name" field. The person name information is information related to the name of the person.
「人物属性」フィールドには、人物属性情報が格納される。人物属性情報は、人物の属性に関する情報である。「人物属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。 Person attribute information is stored in the "person attribute" field. The person attribute information is information about the attribute of the person. The "Personal Attributes" field includes a "Gender" field and an "Age" field.
「性別」フィールドには、性別情報が格納される。性別情報は、人物の性別に関する情報である。 Gender information is stored in the "Gender" field. Gender information is information about the gender of a person.
「年齢」フィールドには、年齢情報が格納される。年齢情報は、人物の年齢、または年齢層に関する情報である。 Age information is stored in the "Age" field. Age information is information about a person's age or age group.
(3−2)物体データベース
本実施形態の物体データベースについて説明する。図5は、本実施形態の物体データベースのデータ構造を示す図である。
(3-2) Object database The object database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the object database of the present embodiment.
図5に示すように、物体データベースは、「ID」フィールドと、「名称」フィールドと、「種別」フィールドとを含む。各フィールドは、互いに関連付けられている。
物体データベースには、物体情報が格納される。物体情報は、物体に関する情報である。
As shown in FIG. 5, the object database includes an "ID" field, a "name" field, and a "type" field. Each field is associated with each other.
Object information is stored in the object database. Object information is information about an object.
「ID」フィールドには、物体識別情報が格納される。物体識別情報は、物体を識別する情報である。 Object identification information is stored in the "ID" field. The object identification information is information for identifying an object.
「名称」フィールドには、物体名称情報が格納される。物体名称情報は、物体の名称に関する情報である。 Object name information is stored in the "Name" field. The object name information is information related to the name of the object.
「種別」フィールドには、物体種別情報が格納される。物体種別情報は、物体の種別に関する情報である。 Object type information is stored in the "Type" field. The object type information is information related to the type of the object.
(3−3)センサデータベース
本実施形態のセンサデータベースについて説明する。図6は、本実施形態のセンサデータベースのデータ構造を示す図である。
(3-3) Sensor database The sensor database of the present embodiment will be described. FIG. 6 is a diagram showing a data structure of the sensor database of the present embodiment.
図6に示すように、センサデータベースは、「ID」フィールドと、「名称」フィールドと、「センサ種別」フィールドと、「出力形式」フィールドと、「設置位置」フィールドと、「設置方向」フィールドと、「固定」フィールドとを含む。各フィールドは、互いに関連付けられている。
センサデータベースには、センサ情報が格納される。センサ情報は、センサ30に関する情報である。
As shown in FIG. 6, the sensor database includes an "ID" field, a "name" field, a "sensor type" field, an "output format" field, an "installation position" field, and an "installation direction" field. , Includes "fixed" fields. Each field is associated with each other.
Sensor information is stored in the sensor database. The sensor information is information about the
「ID」フィールドには、センサ識別情報が格納される。センサ識別情報は、センサ30を識別する情報である。
Sensor identification information is stored in the "ID" field. The sensor identification information is information that identifies the
「名称」フィールドには、センサ名称情報が格納される。センサ名称情報は、センサ30に関する情報である。
Sensor name information is stored in the "Name" field. The sensor name information is information about the
「センサ種別」フィールドには、センサ種別情報が格納される。センサ種別情報は、センサ30の種別に関する情報である。
Sensor type information is stored in the "sensor type" field. The sensor type information is information regarding the type of the
「出力形式」フィールドには、出力形式情報が格納される。出力形式情報は、センサ30の出力形式(例えば、センシングデータの種別)に関する情報である。
Output format information is stored in the Output Format field. The output format information is information regarding the output format (for example, the type of sensing data) of the
「設置位置」フィールドには、設置位置情報が格納される。設置位置情報は、センサ30の設置位置(対象空間SP内の所定の位置を原点とする空間座標系の位置)に関する情報である。 The installation position information is stored in the "installation position" field. The installation position information is information regarding the installation position of the sensor 30 (the position of the spatial coordinate system having a predetermined position in the target space SP as the origin).
「設置方向」フィールドには、設置方向情報が格納される。設置方向情報は、センサ30の設置方向に関する情報である。
Installation direction information is stored in the installation direction field. The installation direction information is information regarding the installation direction of the
「固定」フィールドには、固定情報が格納される。固定情報は、センサ30が固定式であるか否(すなわち移動式)かを示す情報である。固定式のセンサ30は、設置位置に固定された状態でセンシングを行う。移動式のセンサ30は、複数の異なる位置でセンシングを行う。
Fixed information is stored in the "fixed" field. The fixed information is information indicating whether or not the
(3−4)センシング結果データベース
本実施形態のセンシング結果データベースについて説明する。図7は、本実施形態のセンシング結果データベースのデータ構造を示す図である。
(3-4) Sensing result database The sensing result database of the present embodiment will be described. FIG. 7 is a diagram showing a data structure of the sensing result database of the present embodiment.
図7に示すように、センシング結果データベースは、センサ30毎にテーブル(「センサテーブル」)を備える。センサテーブルは、「時刻」フィールドと、「センシング実施位置」フィールドと、「センシング方向」フィールドと、「生データ」フィールドと、「解析結果」フィールドとを含む。各フィールドは、互いに関連付けられている。
センシング結果データベースは、センシングを実行したセンサ30のセンサ識別情報に関連付けられる。
センシング結果データベースには、センシング結果情報が格納される。センシング結果情報は、センサ30のセンシング結果に関する情報である。
As shown in FIG. 7, the sensing result database includes a table (“sensor table”) for each
The sensing result database is associated with the sensor identification information of the
Sensing result information is stored in the sensing result database. The sensing result information is information related to the sensing result of the
「時刻」フィールドには、センシング時刻情報が格納される。センシング時刻情報は、センサ30がセンシングを行った時刻に関する情報である。
Sensing time information is stored in the "Time" field. The sensing time information is information related to the time when the
「センシング実施位置」フィールドには、センシング実施位置情報が格納される。センシング実施位置情報は、センサ30がセンシングを行ったときのセンサ30の位置(以下「センシング実施位置」という)に関する情報である。
例えば、センシング実施位置情報は、以下の少なくとも1つを含む。
・センサ30の設置位置に対するセンシング実施位置の相対位置(例えば、設置位置からセンシング実施位置までの移動量)に関する情報
・空間座標系におけるセンシング実施位置の座標
Sensing execution position information is stored in the "sensing execution position" field. The sensing execution position information is information regarding the position of the sensor 30 (hereinafter referred to as “sensing execution position”) when the
For example, the sensing execution position information includes at least one of the following.
-Information on the relative position of the sensing execution position with respect to the installation position of the sensor 30 (for example, the amount of movement from the installation position to the sensing execution position) -Coordinates of the sensing execution position in the spatial coordinate system
「センシング方向」フィールドには、センシング方向情報が格納される。センシング方向情報は、センサ30がセンシングを行った方向に関する情報である。
Sensing direction information is stored in the "sensing direction" field. The sensing direction information is information regarding the direction in which the
「生データ」フィールドには、生データ情報が格納される。生データ情報は、センサ30によって送信されたセンシングデータ(生データ)に関する情報である。
生データ情報は、位置に関する情報(例えば、被センシング点の位置に関する情報)を含むことがある。生データ情報は、センサ30の位置(センシング実施位置)を原点とするセンサ座標系の位置に関する情報を含んでもよい。センサ座標系の位置は、設置位置情報、およびセンシング実施位置情報の少なくとも1つを参照して、空間座標系の位置に変換できる。
Raw data information is stored in the "raw data" field. The raw data information is information about the sensing data (raw data) transmitted by the
The raw data information may include information about the position (eg, information about the position of the point to be sensed). The raw data information may include information regarding the position of the sensor coordinate system with the position of the sensor 30 (sensing execution position) as the origin. The position of the sensor coordinate system can be converted to the position of the spatial coordinate system by referring to at least one of the installation position information and the sensing execution position information.
「解析結果」フィールドには、解析結果情報が格納される。解析結果情報は、センサ30によって送信されたセンシングデータの解析結果に関する情報である。「解析結果」フィールドは、「解析位置」フィールドと、「エンティティ」フィールドとを含む。
The analysis result information is stored in the "Analysis result" field. The analysis result information is information regarding the analysis result of the sensing data transmitted by the
「解析位置」フィールドには、解析位置情報が格納される。解析位置情報は、解析結果の空間座標系の位置(一例として、画像データから解析された構造物の空間座標系の位置)に関する情報である。 The analysis position information is stored in the "analysis position" field. The analysis position information is information regarding the position of the spatial coordinate system of the analysis result (for example, the position of the spatial coordinate system of the structure analyzed from the image data).
「エンティティ」フィールドには、エンティティ情報が格納される。エンティティ情報は、解析結果に関連付けられるエンティティに関する情報である。一例として、エンティティデータは、人物データベース(図4)に登録される人物識別情報、人物名称情報、もしくは人物属性情報、または物体データベース(図5)に登録される物体識別情報、物体名称情報、もしくは物体種別情報、であってもよい。 Entity information is stored in the "Entity" field. Entity information is information about the entity associated with the analysis result. As an example, the entity data is the person identification information, the person name information, or the person attribute information registered in the person database (FIG. 4), or the object identification information, the object name information, or the object name information registered in the object database (FIG. 5). It may be object type information.
(3−5)3次元モデルデータベース
本実施形態の3次元モデルデータベースについて説明する。図8は、本実施形態の3次元モデルデータベースのデータ構造を示す図である。
(3-5) Three-dimensional model database The three-dimensional model database of the present embodiment will be described. FIG. 8 is a diagram showing a data structure of the three-dimensional model database of the present embodiment.
図8に示すように、3次元モデルデータベースは、「時刻」フィールドと、「モデルファイル」フィールドとを含む。各フィールドは、互いに関連付けられている。
3次元モデルデータベースには、3次元モデル情報が格納される。3次元モデル情報は、対象空間SPの3次元モデルに関する情報である。
As shown in FIG. 8, the 3D model database includes a "time" field and a "model file" field. Each field is associated with each other.
The 3D model database stores 3D model information. The three-dimensional model information is information about the three-dimensional model of the target space SP.
「時刻」フィールドには、モデル時刻情報が格納される。モデル時刻情報は、3次元モデル情報に関する時刻の情報である。 Model time information is stored in the Time field. The model time information is time information related to the three-dimensional model information.
「モデルファイル」フィールドには、モデルファイル情報が格納される。モデルファイル情報は、3次元モデル情報に関するモデルファイルの情報である。モデルファイルは、例えば、BIM(Building Information Modeling)データ、または3次元CAD(Computer-Aided Design)データである。 Model file information is stored in the "Model File" field. The model file information is the information of the model file related to the three-dimensional model information. The model file is, for example, BIM (Building Information Modeling) data or three-dimensional CAD (Computer-Aided Design) data.
(4)情報処理
本実施形態の情報処理について説明する。
(4) Information processing The information processing of the present embodiment will be described.
(4−1)データベース更新処理
本実施形態のデータベース更新処理について説明する。図9は、本実施形態のデータベース更新処理のフローチャートである。
(4-1) Database update process The database update process of this embodiment will be described. FIG. 9 is a flowchart of the database update process of the present embodiment.
図9に示すように、情報処理装置10は、センシングデータの取得(S110)を実行する。
具体的には、プロセッサ12は、センサ30から送信されたセンシングデータを取得する。
センシングデータの第1の例は、固定式のセンサ30から送信される。センシングデータの第1の例は、センサ識別情報と、生データとを含む。
センシングデータの第2の例は、移動式のセンサ30から送信される。センシングデータの第2の例は、センサ識別情報と、生データと、センシング実施位置情報とを含む。
As shown in FIG. 9, the
Specifically, the
The first example of sensing data is transmitted from the fixed
A second example of sensing data is transmitted from the
ステップS110の後に、情報処理装置10は、センシングデータの解析(S111)を実行する。
具体的には、プロセッサ12は、ステップS110において取得したセンシングデータを解析する。一例として、プロセッサ12は、センシングデータの解析により、以下の少なくとも1つを実現する。
・対象空間SPにおけるエンティティの存否の判定
・対象空間SPにおけるエンティティの位置の推定
・対象空間SPにおえるエンティティの状態(例えば、体調、動作状態、部位(例えば、頭部、手、または足)の位置、外見的特徴、またはそれらの組み合わせ)の推定
・対象空間SPにおけるエンティティの属性(例えば、年齢、性別、種別、またはそれらの組み合わせ)の推定
・対象空間SPにおけるエンティティの識別
・対象空間SPの3次元モデルの構成要素の少なくとも1つに関連付けられる出来形の計算(出来形は、例えば3次元モデル情報と点群データとに基づいて計算可能である)
After step S110, the
Specifically, the
-Determining the existence or nonexistence of an entity in the target space SP-Estimating the position of the entity in the target space SP-The state of the entity in the target space SP (for example, physical condition, motion state, part (for example, head, hand, or foot)) Estimating position, appearance characteristics, or a combination thereof) ・ Estimating the attributes of an entity in the target space SP (for example, age, gender, type, or a combination thereof) ・ Identifying an entity in the target space SP ・ Identifying the target space SP Calculation of the finished shape associated with at least one of the components of the 3D model (The finished shape can be calculated based on, for example, 3D model information and point group data).
ステップS111の後に、情報処理装置10は、センシング結果データベースの更新(S112)を実行する。
具体的には、プロセッサ12は、ステップS110において取得したセンシングデータと、ステップS111において得た解析結果とを参照して、センシング結果データベース(図7)を更新する。一例として、プロセッサ12は、ステップS110のセンシングデータの取得時刻を示すデータを「時刻」フィールドに格納してもよいし、当該センシングデータが時刻データを含む場合には当該時刻データを「時刻」フィールドに格納してもよい。プロセッサ12は、ステップS110のセンシングデータがセンシング実施位置情報を含む場合には当該センシング実施位置情報を「センシング実施位置」フィールドに格納する。プロセッサ12は、ステップS110のセンシングデータに含まれる生データを「生データ」フィールドに格納し、ステップS111の解析結果を「解析結果」フィールドに格納する。
After step S111, the
Specifically, the
(4−2)表示処理
本実施形態の表示処理について説明する。図10は、本実施形態の表示処理のフローチャートである。図11は、図10の処理において表示される画面の領域構成を示す図である。図12は、図10の処理において表示される画面のうちタイムラインビューワ領域に表示されるタイムスライダオブジェクトの例を示す図である。図13は、図10の処理において表示される画面のパラメータビューワ領域に表示されるパラメータ画像の例を示す図である。図14は、図10の処理において表示される画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。
(4-2) Display processing The display processing of the present embodiment will be described. FIG. 10 is a flowchart of the display process of the present embodiment. FIG. 11 is a diagram showing an area configuration of a screen displayed in the process of FIG. FIG. 12 is a diagram showing an example of a time slider object displayed in the timeline viewer area among the screens displayed in the process of FIG. FIG. 13 is a diagram showing an example of a parameter image displayed in the parameter viewer area of the screen displayed in the process of FIG. FIG. 14 is a diagram showing an example of a composite image displayed in the spatial viewer area of the screen displayed in the process of FIG.
図10に示すように、情報処理装置10は、基準時点の決定(S120)を実行する。
具体的には、プロセッサ12は、ディスプレイに画面(図11)を表示する。
As shown in FIG. 10, the
Specifically, the
図11の画面は、空間ビューワ領域SVR、タイムラインビューワ領域TVR、およびパラメータビューワ領域PVRを含む。 The screen of FIG. 11 includes a spatial viewer area SVR, a timeline viewer area TVR, and a parameter viewer area PVR.
図12に示すように、タイムラインビューワ領域TVRには、タイムスライダオブジェクトTSが配置される。ユーザは、入力デバイスを操作して、タイムスライダオブジェクトTS上の任意の時刻TP1を選択する。プロセッサ12は、ユーザの選択した時刻TP1を基準時点として決定する。
As shown in FIG. 12, a time slider object TS is arranged in the timeline viewer area TVR. The user operates the input device to select any time TP1 on the time slider object TS. The
プロセッサ12は、入力デバイスの受け付けたユーザの指示に応じて、少なくとも1つの基準時点を決定する。ユーザの指示は、例えば、タップ、クリック、キー入力、音声入力、および、ジェスチャ入力の少なくとも1つである。
The
ステップS120の後に、情報処理装置10は、エンティティの特定(S121)を実行する。
具体的には、プロセッサ12は、ステップS120において決定した基準時点に関連付けられるエンティティを特定する。基準時点に関連付けられるエンティティは、当該基準時点に対象空間SPに配置されていたセンサ、および当該基準時点における当該センサの検出対象の少なくとも1つである。一例として、プロセッサ12は、センシング結果データベース(図7)を参照し、基準時点に関連付けられるセンシング結果に対応するセンサと、当該センシング結果に含まれる解析結果に含まれる検出対象とを特定する。
After step S120, the
Specifically, the
ステップS121の後に、情報処理装置10は、表示対象の特定(S122)を実行する。
具体的には、プロセッサ12は、ステップS121において特定したエンティティの中から表示対象を選択する。
After step S121, the
Specifically, the
ステップS122の第1の例では、プロセッサ12は、ステップS121において特定したエンティティを全て表示対象(以下「基準エンティティ」という)として選択する。
In the first example of step S122, the
ステップS122の第2の例では、プロセッサ12は、ステップS121において特定したエンティティのうちユーザ指示によって指定されたエンティティを表示対象として選択する。一例として、プロセッサ12は、センシング結果データベース(図7)を参照して、ステップS121において特定した基準エンティティに関する情報(以下「基準エンティティ情報」という)を示すパラメータ画像を生成し、且つ、当該パラメータ画像をパラメータビューワ領域PVRに配置したユーザインタフェース画面を出力デバイス(ディスプレイ)に表示させる。
エンティティに関する情報(以下「エンティティ情報」という)は、センサ30の種別、センシングデータの種別、センシングデータの内容(例えば生データ)、検出対象の識別情報(例えば、人物識別情報、物体識別情報)、検出対象の属性、検出対象の状態、またはそれらの組み合わせである。
In the second example of step S122, the
Information about the entity (hereinafter referred to as "entity information") includes the type of
図13に示すように、パラメータ画像PIにおいて、基準エンティティ情報EIは、基準エンティティが属するカテゴリ別に配置される。カテゴリは、「センサ」、「人物」、および「物体」である。
ユーザは、各エンティティ情報EIのチェックボックスオブジェクトECBを選択する操作を行うことで、当該エンティティ情報EIに対応するエンティティを表示対象とするか否かを指定できる。
ユーザは、各カテゴリのチェックボックスオブジェクトCCBを選択する操作を行うことで、当該カテゴリに属する全てのエンティティを表示対象とするか否かを指定できる。
As shown in FIG. 13, in the parameter image PI, the reference entity information EI is arranged according to the category to which the reference entity belongs. The categories are "sensor", "person", and "object".
The user can specify whether or not to display the entity corresponding to the entity information EI by performing the operation of selecting the check box object ECB of each entity information EI.
The user can specify whether or not to display all the entities belonging to the category by performing the operation of selecting the check box object CCB of each category.
ステップS122の後に、情報処理装置10は、エンティティ画像の生成(S123)を実行する。
具体的には、プロセッサ12は、ステップS122において選択した表示対象のエンティティ画像を生成する。
After step S122, the
Specifically, the
ステップS123の第1の例では、プロセッサ12は、センサ30から送信されるセンシングデータに含まれる生データ(例えば画像データ)を参照して、エンティティ画像を生成する。例えば、プロセッサ12は、生データのうち基準時点に関連付けられる生データを選択し、選択した生データを参照して基準時点に応じたエンティティ画像を生成してもよい。
In the first example of step S123, the
ステップS123の第2の例では、プロセッサ12は、エンティティに関連付けられている所定の画像(例えば、アイコン、アバター、または事前に用意された写真)を参照して、エンティティ画像を生成する。
エンティティに関連付けられている所定の画像は、時刻にさらに関連付けられていてもよい。この場合に、プロセッサ12は、所定の画像のうち基準時点に関連付けられる画像を選択し、選択した画像を参照して基準時点に応じたエンティティ画像を生成してもよい。
In the second example of step S123, the
A given image associated with an entity may be further associated with time. In this case, the
ステップS120の後に、情報処理装置10は、空間画像の生成(S124)を実行する。
具体的には、プロセッサ12は、対象空間SPに対応する空間画像を生成する。一例として、プロセッサ12は、3次元モデルデータベース(図8)を参照し、ステップS120において決定した基準時点に関連付けられるモデルファイルを特定する。プロセッサ12は、特定したモデルファイルを参照して、対象空間SPの3次元モデルを所定の視点から見た空間画像(つまり、基準時点に応じた空間画像)を生成する。
After step S120, the
Specifically, the
ステップS123およびステップS124の後に、情報処理装置10は、合成画像の生成(S125)を実行する。
具体的には、プロセッサ12は、ステップS123において生成したエンティティ画像とステップS124において生成した空間画像とを合成する。一例として、プロセッサ12は、空間画像において、ステップS120において決定した基準時点におけるエンティティの位置に対応する位置に当該エンティティのエンティティ画像が配置されるように、エンティティ画像と空間画像とを合成する。
図14に示すように、合成画像CIにおいて、人物HM1のエンティティ画像と、物体OB1のエンティティ画像と、センサSN1のエンティティ画像と、センサSN2のエンティティ画像とが、空間画像SI1中の適切な位置(すなわち、基準時点における各エンティティの位置)に配置されている。
After step S123 and step S124, the
Specifically, the
As shown in FIG. 14, in the composite image CI, the entity image of the person HM1, the entity image of the object OB1, the entity image of the sensor SN1, and the entity image of the sensor SN2 are at appropriate positions in the spatial image SI1. That is, it is arranged at the position of each entity at the reference time point).
ステップS125の後に、情報処理装置10は、合成画像の表示(S126)を実行する。
具体的には、プロセッサ12は、ステップS125において生成した合成画像を空間ビューワ領域SVRに配置したユーザインタフェース画面を出力デバイス(ディスプレイ)に表示させる。
After step S125, the
Specifically, the
以上説明したように、情報処理装置10は、基準時点に関連付けられるエンティティを特定し、エンティティ画像を生成する。情報処理装置10は、空間画像において、基準時点におけるエンティティの位置に対応する位置に当該エンティティのエンティティ画像が配置されるように、エンティティ画像と空間画像とを合成する。従って、情報処理装置10によれば、対象空間SPと各エンティティ(表示対象)との位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像CIをユーザに提示することができる。
As described above, the
(5)変形例
本実施形態の変形例について説明する。変形例は、複数の基準時点を選択可能とする例である。
(5) Modification Example A modification of the present embodiment will be described. The modification is an example in which a plurality of reference time points can be selected.
変形例の表示処理について説明する。図15は、変形例の表示処理のフローチャートである。図16は、図15の処理において表示される画面のうちタイムラインビューワ領域に表示されるタイムスライダオブジェクトの例を示す図である。図17は、図15の処理において表示される画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。 The display processing of the modified example will be described. FIG. 15 is a flowchart of a modification display process. FIG. 16 is a diagram showing an example of a time slider object displayed in the timeline viewer area among the screens displayed in the process of FIG. FIG. 17 is a diagram showing an example of a composite image displayed in the spatial viewer area of the screen displayed in the process of FIG.
図15に示すように、情報処理装置10は、基準時点の決定(S220)を実行する。
具体的には、プロセッサ12は、ディスプレイに画面(図11)を表示する。
図16に示すように、タイムラインビューワ領域TVRには、タイムスライダオブジェクトTSが配置される。ユーザは、入力デバイスを操作して、タイムスライダオブジェクトTS上の任意の2つの時刻TP2a、およびTP2bを選択する。プロセッサ12は、ユーザの選択した時刻TP2aおよびTP2bをそれぞれ第1の基準時点および第2の基準時点として決定する。
入力デバイスの受け付けたユーザの指示に応じて、第1の基準時点、および第2の基準時点を決定する。ユーザの指示は、例えば、タップ、クリック、キー入力、音声入力、ジェスチャ入力、スワイプ、ピンチイン、ピンチアウト、ドラグ、またはそれらの組み合わせである。
As shown in FIG. 15, the
Specifically, the
As shown in FIG. 16, a time slider object TS is arranged in the timeline viewer area TVR. The user operates the input device to select any two time TP2a and TP2b on the time slider object TS. The
The first reference time point and the second reference time point are determined according to the instruction of the user who received the input device. User instructions are, for example, tap, click, keystroke, voice input, gesture input, swipe, pinch-in, pinch-out, drag, or a combination thereof.
ステップS220の後に、情報処理装置10は、エンティティの特定(S221)を実行する。
具体的には、プロセッサ12は、ステップS220において決定した第1の基準時点および第2の基準時点の少なくとも1つに関連付けられるエンティティを特定する。
After step S220, the
Specifically, the
ステップS221の後に、情報処理装置10は、表示対象の特定(S222)を実行する。
具体的には、プロセッサ12は、ステップS221において特定したエンティティの中から表示対象を選択する。
After step S221, the
Specifically, the
ステップS222の後に、情報処理装置10は、エンティティ差の検出(S227)を実行する。
具体的には、プロセッサ12は、ステップS222において選択した表示対象毎に、第1の基準時点における第1の基準エンティティに関する情報(以下「第1の基準エンティティ情報」という)と第2の基準時点における第2の基準エンティティに関する情報(以下「第2の基準エンティティ情報」という)との差(以下「エンティティ差」という)を検出する。例えば、プロセッサ12は、以下の少なくとも1つを検出する。
・第1の基準エンティティの位置と第2の基準エンティティの位置の差
・第1の基準エンティティの状態と第2の基準エンティティの状態の差
After step S222, the
Specifically, the
-Difference between the position of the first reference entity and the position of the second reference entity-Difference between the state of the first reference entity and the state of the second reference entity
ステップS227の後に、情報処理装置10は、エンティティ画像の生成(S223)を実行する。
具体的には、プロセッサ12は、ステップS227において検出したエンティティ差の大きさに応じて、ステップS222において選択した表示対象の表示形態を決定する。表示形態は、色、テクスチャ、サイズ、映像効果、またはそれらの組み合わせである。一例として、プロセッサ12は、エンティティ差が閾値以上である場合にエンティティ画像を第1の色に設定し、エンティティ差が閾値未満である場合にエンティティ画像を第1の色とは異なる第2の色に設定する。
After step S227, the
Specifically, the
プロセッサ12は、決定した表示形態に応じて、エンティティ画像を生成する。
The
例えば、プロセッサ12は、センサ30から送信されるセンシングデータに含まれる生データ(例えば画像データ)と表示形態とを参照して、エンティティ画像を生成する。例えば、プロセッサ12は、生データのうち基準時点に関連付けられる生データを選択し、選択した生データと表示形態とを参照して基準時点に応じたエンティティ画像を生成してもよい。
For example, the
例えば、プロセッサ12は、エンティティに関連付けられている所定の画像(例えば、アイコン、アバター、または事前に用意された写真)と表示形態とを参照して、エンティティ画像を生成する。
エンティティに関連付けられている所定の画像は、時刻にさらに関連付けられていてもよい。この場合に、プロセッサ12は、所定の画像のうち基準時点に関連付けられる画像を選択し、選択した画像と表示形態とを参照して基準時点に応じたエンティティ画像を生成してもよい。
For example, the
A given image associated with an entity may be further associated with time. In this case, the
ステップS220の後に、情報処理装置10は、指標差の検出(S228)を実行する。
具体的には、プロセッサ12は、対象空間SPの3次元モデルの構成要素(例えば、壁、天井、床、柱、階段、またはそれらの組み合わせ)毎に、要素指標の第1の基準時点における値(「第1指標値」)と第2の基準時点における値(「第2指標値」)との差(以下「指標差」という)を検出する。一例として、プロセッサ12は、3次元モデルデータベース(図8)を参照し、ステップS220において決定した第1の基準時点および第2の基準時点の少なくとも1つに関連付けられるモデルファイルを特定する。プロセッサ12は、特定したモデルファイルから3次元モデルの構成要素に関する情報を抽出し、抽出した情報を参照して要素指標を算出する。要素指標は、例えば、構成要素の出来形、点群データに関する複数の点のうち構成要素に関連付けられる点の数、またはそれらの組み合わせである。
After step S220, the
Specifically, the
ステップS228の後に、情報処理装置10は、空間画像の生成(S224)を実行する。
具体的には、プロセッサ12は、ステップS228において検出したモデルの構成要素に関する要素指標の差の大きさに応じて、当該構成要素の表示形態を決定する。表示形態は、色、テクスチャ、サイズ、映像効果、またはそれらの組み合わせである。一例として、プロセッサ12は、差が閾値以上である場合に空間画像のうち対象となる構成要素の部分を第1の色に設定し、差が閾値未満である場合に空間画像のうち対象となる構成要素の部分を第1の色とは異なる第2の色に設定する。
プロセッサ12は、決定した表示形態に応じて、対象空間SPに対応する空間画像を生成する。一例として、プロセッサ12は、3次元モデルデータベース(図8)を参照し、ステップS220において決定した第1の基準時点および第2の基準時点の少なくとも1つに関連付けられるモデルファイルを特定する。プロセッサ12は、特定したモデルファイルから3次元モデルの各構成要素に関する情報を抽出し、抽出した情報と当該構成要素の表示形態とを参照して、対象空間SPの3次元モデルを所定の視点から見た空間画像(つまり、基準時点に応じた空間画像)を生成する。
After step S228, the
Specifically, the
The
ステップS223およびステップS224の後に、情報処理装置10は、合成画像の生成(S225)を実行する。
具体的には、プロセッサ12は、ステップS223において生成したエンティティ画像とステップS224において生成した空間画像とを合成する。一例として、プロセッサ12は、空間画像において、ステップS220において決定した基準時点におけるエンティティの位置に対応する位置に当該エンティティのエンティティ画像が配置されるように、エンティティ画像と空間画像とを合成する。
図17に示すように、合成画像CIaにおいて、第1の基準時点における位置と第2の基準時点における位置との差が閾値以上であった人物HM1のエンティティ画像は、他のエンティティ画像とは異なる色で表示される。合成画像CIaの空間画像SI1のうち、第1の基準時点における出来形と第2の基準時点における出来形との差が閾値以上であった構成要素は他の構成要素とは異なる色で表示される。このように、情報処理装置10は、対象空間SPと各エンティティ(表示対象)との位置関係、およびエンティティ同士の位置関係に加え、エンティティの時間変化、および対象空間SPの局所的な時間変化を直感的に把握し易い合成画像CIaをユーザに提示することができる。
After step S223 and step S224, the
Specifically, the
As shown in FIG. 17, in the composite image CIa, the entity image of the person HM1 in which the difference between the position at the first reference time and the position at the second reference time is equal to or greater than the threshold value is different from other entity images. Displayed in color. Of the spatial image SI1 of the composite image CIa, the component whose difference between the finished shape at the first reference time and the finished shape at the second reference time is equal to or greater than the threshold value is displayed in a different color from the other components. NS. In this way, the
ステップS225の後に、情報処理装置10は、合成画像の表示(S226)を実行する。
具体的には、プロセッサ12は、ステップS225において生成した合成画像を空間ビューワ領域SVRに配置したユーザインタフェース画面を出力デバイス(ディスプレイ)に表示させる。
After step S225, the
Specifically, the
以上説明したように、情報処理装置10は、第1のエンティティ情報と第2のエンティティ情報との差に応じてエンティティ画像の表示形態を決定する。これにより、エンティティの時間変化を直感的に把握し易い合成画像CIaをユーザに提示することができる。
また、情報処理装置10は、第1の基準時点における要素指標と第2の時点における要素指標との差に応じて、空間画像のうち対象空間SPの3次元モデルの構成要素に対応する部分の表示形態を決定する。これにより、対象空間SPの局所的な時間変化を直感的に把握し易い合成画像CIaをユーザに提示することができる。
As described above, the
Further, the
(6)その他の変形例
その他の変形例について説明する。図18は、その他の変形例のユーザインタフェース画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。図19は、その他の変形例のユーザインタフェース画面のうち空間ビューワ領域に表示される合成画像の例を示す図である。
(6) Other Modification Examples Other modification examples will be described. FIG. 18 is a diagram showing an example of a composite image displayed in the spatial viewer area among the user interface screens of other modified examples. FIG. 19 is a diagram showing an example of a composite image displayed in the spatial viewer area among the user interface screens of other modified examples.
記憶装置11は、ネットワークNWを介して、情報処理装置10と接続されてもよい。
The storage device 11 may be connected to the
情報処理装置10の機能は、複数の装置(例えば、クライアント装置、およびサーバ装置)によって分担することもできる。
The functions of the
基準時点に関連付けられるデータとは、基準時点と同一時刻に関連付けられるデータのみならず、基準時点よりも過去のうち最も近い時刻に関連付けられるデータを含み得る。 The data associated with the reference time may include not only the data associated with the same time as the reference time but also the data associated with the closest time in the past than the reference time.
ユーザは、任意の時点に基準時点を指定する操作(例えば、タイムラインビューワ領域TVRに対する操作)を行うことができる。情報処理装置10は、図10の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図10の表示処理を再実行する。情報処理装置10は、図15の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図15の表示処理を再実行する。これにより、合成画像を含むユーザインタフェース画面を更新できる。
一例として、プロセッサ12は、ユーザが基準時点を選択する操作に応答して、基準時点に関連付けられるエンティティを再度特定する(ステップS121,ステップS221)ことで、表示対象となるエンティティの更新を実現する。プロセッサ12は、エンティティの更新に応答して、エンティティ画像を再度生成する(ステップS123,ステップS223)ことで、エンティティ画像の更新を実現する。プロセッサ12は、エンティティ画像の更新に応答して、合成画像を再度生成する(ステップS225,S226)ことにより、合成画像を更新する。
The user can perform an operation of designating a reference time point at an arbitrary time point (for example, an operation on the timeline viewer area TVR). The
As an example, the
ユーザは、任意の時点に表示対象を指定する操作(例えば、パラメータビューワ領域PVRに対する操作)を行うことができる。情報処理装置10は、図10の表示処理の実行中、または実行後に、ユーザの操作によって表示対象が変更された場合には、図10の表示処理のうち少なくともステップS122〜ステップS123、およびステップS125〜ステップS126を再実行する。情報処理装置10は、図15の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図15の表示処理のうち少なくともステップS222〜ステップS223、およびステップS225〜S226を再実行する。これにより、合成画像を含むユーザインタフェース画面を更新できる。
The user can perform an operation of designating a display target at an arbitrary time point (for example, an operation on the parameter viewer area PVR). When the display target is changed by the user's operation during or after the execution of the display process of FIG. 10, the
ユーザは、任意の時点に視点を指定する操作(例えば、空間ビューワ領域SVRに対する操作)を行うことができる。情報処理装置10は、図10の表示処理の実行中、または実行後に、ユーザの操作によって視点が変更された場合には、図10の表示処理のうち少なくともステップS124〜ステップS126を再実行する。情報処理装置10は、図15の表示処理の実行中、または実行後に、ユーザの操作によって基準時点が変更された場合には、図15の表示処理のうち少なくともステップS224〜S226を再実行する。これにより、合成画像を含むユーザインタフェース画面を更新できる。
The user can perform an operation of designating a viewpoint at an arbitrary time point (for example, an operation on the spatial viewer area SVR). When the viewpoint is changed by the user's operation during or after the execution of the display process of FIG. 10, the
図10および図15によれば、情報処理装置10は、エンティティ画像の生成(S123,S223)の後に空間画像の生成(S124,S224)を行う。しかしながら、情報処理装置10は、エンティティ画像の生成(S123,S223)と並行して空間画像の生成(S124,S224)を行ってもよいし、エンティティ画像の生成(S123,S223)よりも前に空間画像の生成(S124,S224)を行ってもよい。
According to FIGS. 10 and 15, the
実施形態において、モデルファイルが時刻に関連付けられていると説明した。しかしながら、モデルファイルは時刻に関連付けられていなくてもよい。すなわち、情報処理装置10は、基準時点に関わらず、同一のモデルファイルを参照して空間画像を生成してもよい。
In the embodiment, it has been described that the model file is associated with the time. However, the model file does not have to be associated with the time. That is, the
変形例では第1の基準時点および第2の基準時点を決定する例を示した。
情報処理装置10は、エンティティが第1の基準時点および第2の基準時点の両方に関連付けられている場合と、当該エンティティが第1の基準時点および第2の基準時点の一方のみに関連付けられている場合とで、当該エンティティのエンティティ画像の表示形態を異ならせてもよい。
情報処理装置10は、モデルファイルが第1の基準時点および第2の基準時点の両方に関連付けられている場合と、当該モデルファイルが第1の基準時点および第2の基準時点の一方のみに関連付けられている場合とで、当該モデルファイルの空間画像の表示形態を異ならせてもよい。
一例として、図18に示すように、情報処理装置10は、合成画像CIbを生成してもよい。合成画像CIbにおいて、物体OB2は、第1の基準時点に関連付けられているが、第2の基準時点に関連付けられていないので、物体OB2のエンティティ画像は、物体OB1のエンティティ画像とは異なる色で表示される。合成画像CIbにおいて、空間画像SI2に対応するモデルファイルは、第2の基準時点に関連付けられているが第1の基準時点に関連付けられていないので、空間画像SI2は空間画像SI1とは異なる色で表示される。このように、情報処理装置10は、エンティティおよび対象空間SPの時間変化を直感的に把握し易い合成画像CIcをユーザに提示することができる。
In the modified example, an example of determining the first reference time point and the second reference time point is shown.
In the
The
As an example, as shown in FIG. 18, the
変形例では、第1の基準時点および第2の基準時点を決定する例を示した。第1の基準時点と第2の基準時点との間に1以上の中間点(時刻)が存在する場合に、情報処理装置10は、各中間点におけるエンティティ情報を参照して、エンティティ画像を生成してもよい。
一例として、図19に示すように、情報処理装置10は、合成画像CIcを生成してもよい。合成画像CIcにおいて、人物HM1のエンティティ画像は、第1の基準時点から第2の基準時点までの軌跡(すなわち、第1の基準時点、1以上の中間点の各々、および第2の基準時点における人物HM1の位置を時系列順に結んだ折れ線)を表す画像aが付加されている。このように、情報処理装置10は、エンティティの時間変化の詳細を直感的に把握し易い合成画像CIcをユーザに提示することができる。
In the modified example, an example of determining the first reference time point and the second reference time point is shown. When there is one or more intermediate points (time) between the first reference time point and the second reference time point, the
As an example, as shown in FIG. 19, the
変形例において、第1基準時点および第2基準時点を説明した。第1基準時点は、第2基準時点よりも過去であってもよいし、第2基準時点よりも未来であってもよい。 In the modified example, the first reference time point and the second reference time point have been described. The first reference time may be past the second reference time, or may be in the future than the second reference time.
実施形態において、プロセッサ12は、モデルファイルを参照して空間画像を生成すると説明した。しかしながら、プロセッサ12は、モデルファイルの代わりにセンシングデータ(例えば点群データ)を参照して空間画像を生成してもよいし、モデルファイルに加えてセンシングデータを参照して空間画像を生成してもよい。
具体的には、プロセッサ12は、点群データに基づいて計算された対象空間SPの3次元モデルの構成要素毎の出来形を参照して、空間画像を生成してもよい。一例として、プロセッサ12は、構成要素のうち出来形が閾値以上である構成要素を選別して描画することにより、基準時点における施工の進捗を把握し易い空間画像を生成してもよい。
In the embodiment, the
Specifically, the
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.
(7)付記
実施形態で説明した事項を、以下に付記する。
(7) Addendum The matters described in the embodiment are added below.
(付記1)
少なくとも1つの基準時点に対象空間(SP)に配置されていたセンサ(30)、および当該基準時点における当該センサの検出対象のうち少なくとも1つである基準時点に関連付けられるエンティティを特定する手段(S121,S221)と、
エンティティに対応するエンティティ画像を生成する手段(S123,S223)と、
対象空間に対応する空間画像を生成する手段(S124,S224)と、
空間画像において、エンティティ画像が基準時点における当該エンティティの位置に対応する位置に配置されるように、エンティティ画像と空間画像とを合成することで、合成画像を生成する手段(S125,S225)と
を具備する、情報処理装置(10)。
(Appendix 1)
A means for identifying a sensor (30) arranged in the target space (SP) at at least one reference time point, and an entity associated with a reference time point that is at least one of the detection targets of the sensor at the reference time point (S121). , S221) and
Means (S123, S223) for generating an entity image corresponding to an entity, and
Means (S124, S224) for generating a spatial image corresponding to the target space, and
In the spatial image, the means (S125, S225) for generating the composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at the position corresponding to the position of the entity at the reference time. An information processing device (10) provided.
(付記1)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 1), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.
(付記2)
合成画像を表示する手段(S126,S226)をさらに備える、
付記1に記載の情報処理装置。
(Appendix 2)
A means for displaying a composite image (S126, S226) is further provided.
The information processing device according to
(付記2)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像をユーザに提示することができる。 According to (Appendix 2), it is possible to present to the user a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.
(付記3)
表示する手段は、エンティティに関するエンティティ情報を表示する、付記2に記載の情報処理装置。
(Appendix 3)
The means for displaying is the information processing device according to Appendix 2, which displays entity information about an entity.
(付記3)によれば、さらに、エンティティ情報をユーザに提示できる。 According to (Appendix 3), the entity information can be further presented to the user.
(付記4)
エンティティ情報は、センサの種別、センサのセンシングデータの種別、およびセンシングデータの内容の少なくとも1つを含む、付記3に記載の情報処理装置。
(Appendix 4)
The information processing apparatus according to Appendix 3, wherein the entity information includes at least one of a sensor type, a sensor sensing data type, and a sensing data content.
(付記4)によれば、さらに、センサの種別、センサのセンシングデータの種別、およびセンシングデータの内容の少なくとも1つをユーザに提示できる。 According to (Appendix 4), at least one of the type of sensor, the type of sensor sensing data, and the content of the sensing data can be further presented to the user.
(付記5)
エンティティ情報は、検出対象の識別情報、属性、および状態の少なくとも1つを表示する、付記3または付記4のいずれかに記載の情報処理装置。
(Appendix 5)
The information processing device according to any one of Appendix 3 or Appendix 4, wherein the entity information displays at least one of the identification information, the attribute, and the state to be detected.
(付記5)によれば、さらに、検出対象の識別情報、属性、および状態の少なくとも1つをユーザに提示できる。 According to (Appendix 5), at least one of the identification information, the attribute, and the state of the detection target can be further presented to the user.
(付記6)
空間画像を生成する手段は、対象空間の3次元モデル情報を参照して、空間画像を生成する、
付記1乃至付記5のいずれかに記載の情報処理装置。
(Appendix 6)
The means for generating the spatial image refers to the three-dimensional model information of the target space to generate the spatial image.
The information processing device according to any one of
(付記6)によれば、対象空間の3次元モデル情報に応じた空間画像を含む合成画像を生成することができる。 According to (Appendix 6), it is possible to generate a composite image including a spatial image corresponding to the three-dimensional model information of the target space.
(付記7)
対象空間の3次元モデル情報は、時刻に関連付けられており、
空間画像を生成する手段及びエンティティ画像を生成する手段の少なくとも1つは、それぞれ、基準時点に応じた空間画像、及び、基準時点に応じたエンティティ画像の少なくとも1つを生成する、
付記1乃至付記6のいずれかに記載の情報処理装置。
(Appendix 7)
The 3D model information of the target space is associated with the time and
At least one of the means for generating the spatial image and the means for generating the entity image generates at least one of the spatial image according to the reference time point and the entity image according to the reference time point, respectively.
The information processing device according to any one of
(付記7)によれば、基準時点に応じた空間画像、および基準時点に応じたエンティティ画像の少なくとも1つを含む合成画像を生成することができる。 According to (Appendix 7), it is possible to generate a composite image including at least one of a spatial image corresponding to a reference time point and an entity image corresponding to a reference time point.
(付記8)
空間画像を生成する手段は、センサのセンシング結果を参照して、空間画像を生成する、
付記1乃至付記7のいずれかに記載の情報処理装置。
(Appendix 8)
The means for generating the spatial image refers to the sensing result of the sensor and generates the spatial image.
The information processing device according to any one of
(付記8)によれば、センサのセンシング結果に応じた空間画像を含む合成画像を生成することができる。 According to (Appendix 8), it is possible to generate a composite image including a spatial image according to the sensing result of the sensor.
(付記9)
センシング結果は、点群データを含み、
空間画像を生成する手段は、点群データに基づいて計算された対象空間の3次元モデルの構成要素毎の出来形を参照して、空間画像を生成する、
付記8に記載の情報処理装置。
(Appendix 9)
Sensing results include point cloud data
The means for generating the spatial image is to generate the spatial image by referring to the finished shape of each component of the three-dimensional model of the target space calculated based on the point cloud data.
The information processing device according to Appendix 8.
(付記9)によれば、出来形に応じた空間画像を含む合成画像を生成することができる。 According to (Appendix 9), it is possible to generate a composite image including a spatial image according to the finished shape.
(付記10)
エンティティは、人物、物体、および生物の少なくとも1つを含む、付記1乃至付記9のいずれかに記載の情報処理装置。
(Appendix 10)
The information processing device according to any one of
(付記10)によれば、対象空間と各エンティティ(人物、物体、および生物の少なくとも1つ)との位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 10), it is possible to generate a composite image that makes it easy to intuitively grasp the positional relationship between the target space and each entity (at least one of a person, an object, and a living thing) and the positional relationship between the entities. can.
(付記11)
各エンティティ画像についての表示対象を指定するユーザ指示を取得する手段(S122,S222)をさらに具備し、
エンティティ画像を生成する手段は、ユーザ指示によって指定された表示対象に対応するエンティティ画像を生成する、
付記1乃至付記10のいずれかに記載の情報処理装置。
(Appendix 11)
A means (S122, S222) for acquiring a user instruction for designating a display target for each entity image is further provided.
The means for generating the entity image is to generate the entity image corresponding to the display target specified by the user instruction.
The information processing device according to any one of
(付記11)によれば、対象空間と各エンティティ(ユーザ指示によって指定された表示対象)との位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 11), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity (display target specified by the user instruction) and the positional relationship between the entities.
(付記12)
エンティティ画像を生成する手段は、第1の基準時点におけるエンティティに関する第1のエンティティ情報と、第1の基準時点とは異なる第2の基準時点におけるエンティティに関する第2のエンティティ情報との間の差を参照して、当該エンティティに対応するエンティティ画像を生成する、
付記1乃至付記11のいずれかに記載の情報処理装置。
(Appendix 12)
The means for generating the entity image is the difference between the first entity information about the entity at the first reference time point and the second entity information about the entity at the second reference time point different from the first reference time point. Refer to and generate the entity image corresponding to the entity.
The information processing device according to any one of
(付記12)によれば、エンティティの時間変化を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 12), it is possible to generate a composite image in which it is easy to intuitively grasp the time change of an entity.
(付記13)
エンティティ画像を生成する手段は、第1の基準時点から第1の基準時点とは異なる第2の基準時点までの間のエンティティの位置の軌跡を参照して、当該エンティティに対応するエンティティ画像を生成する、
付記1乃至付記12のいずれかに記載の情報処理装置。
(Appendix 13)
The means for generating the entity image refers to the locus of the position of the entity from the first reference time point to the second reference time point different from the first reference time point, and generates the entity image corresponding to the entity. do,
The information processing device according to any one of
(付記13)によれば、エンティティの時間変化の詳細を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 13), it is possible to generate a composite image in which the details of the time change of the entity can be easily grasped intuitively.
(付記14)
空間画像を生成する手段は、対象空間の3次元モデル情報の構成要素に関連付けられる指標の第1の基準時点における第1指標値と、当該指標の第1の基準時点とは異なる第2の基準時点における第2指標値との間の差を参照して、空間画像のうち当該構成要素に対応する部分を生成する、
付記1乃至付記13のいずれかに記載の情報処理装置。
(Appendix 14)
The means for generating the spatial image is a first index value at the first reference time of the index associated with the component of the three-dimensional model information of the target space and a second reference different from the first reference time of the index. With reference to the difference from the second index value at the time point, the part of the spatial image corresponding to the component is generated.
The information processing device according to any one of
(付記14)によれば、対象空間SPの局所的な時間変化を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 14), it is possible to generate a composite image in which it is easy to intuitively grasp the local time change of the target space SP.
(付記15)
指標は、点群データに関する複数の点のうち3次元モデル情報の構成要素に関連付けられる点の数、および3次元モデル情報の構成要素に関連付けられる出来形、の少なくとも1つである、
付記14に記載の情報処理装置。
(Appendix 15)
The index is at least one of the number of points associated with the components of the 3D model information and the finished shape associated with the components of the 3D model information among the plurality of points related to the point cloud data.
The information processing device according to Appendix 14.
(付記15)によれば、対象空間SPの局所的な時間変化を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 15), it is possible to generate a composite image in which it is easy to intuitively grasp the local time change of the target space SP.
(付記16)
エンティティを特定する手段は、ユーザが基準時点を選択する操作に応答して、基準時点に関連付けられるエンティティを更新し、
エンティティ画像を生成する手段は、エンティティの更新に応答して、エンティティ画像を更新し、
合成画像を生成する手段は、エンティティ画像の更新に応答して、合成画像を更新する、
付記1乃至付記15のいずれかに記載の情報処理装置。
(Appendix 16)
The means of identifying an entity is to update the entity associated with the reference point in response to the user selecting a reference point in time.
The means of generating the entity image updates the entity image in response to the entity update,
The means for generating the composite image updates the composite image in response to the update of the entity image.
The information processing device according to any one of
(付記16)によれば、合成画像を更新することができる。 According to (Appendix 16), the composite image can be updated.
(付記17)
コンピュータ(10)が、
少なくとも1つの基準時点に対象空間(SP)に配置されていたセンサ(30)、および当該基準時点における当該センサの検出対象のうち少なくとも1つである基準時点に関連付けられるエンティティを特定するステップ(S121,S221)と、
エンティティに対応するエンティティ画像を生成するステップ(S123,S223)と、
対象空間に対応する空間画像を生成するステップ(S124,S224)と、
空間画像において、エンティティ画像が基準時点における当該エンティティの位置に対応する位置に配置されるように、エンティティ画像と空間画像とを合成することで、合成画像を生成するステップ(S125,S225)と
を具備する、情報処理方法。
(Appendix 17)
The computer (10)
A step (S121) of identifying a sensor (30) arranged in the target space (SP) at at least one reference time point, and an entity associated with the reference time point which is at least one of the detection targets of the sensor at the reference time point. , S221) and
Steps (S123, S223) to generate an entity image corresponding to an entity, and
Steps (S124, S224) to generate a spatial image corresponding to the target space, and
In the spatial image, the steps (S125, S225) of generating the composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at the position corresponding to the position of the entity at the reference time. Information processing method to be provided.
(付記17)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 17), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.
(付記18)
コンピュータに、付記1〜16の何れかに記載の各手段を実現させるためのプログラム。
(Appendix 18)
A program for realizing each means according to any one of
(付記18)によれば、対象空間と各エンティティとの位置関係、およびエンティティ同士の位置関係を直感的に把握し易い合成画像を生成することができる。 According to (Appendix 18), it is possible to generate a composite image in which it is easy to intuitively grasp the positional relationship between the target space and each entity and the positional relationship between the entities.
1 :情報処理システム
10 :情報処理装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :センサ
1: Information processing system 10: Information processing device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 30: Sensor
Claims (18)
前記エンティティに対応するエンティティ画像を生成する手段と、
前記対象空間に対応する空間画像を生成する手段と、
前記空間画像において、前記エンティティ画像が前記基準時点における当該エンティティの位置に対応する位置に配置されるように、前記エンティティ画像と前記空間画像とを合成することで、合成画像を生成する手段と
を具備する、情報処理装置。 A means for identifying a sensor that was placed in the target space at at least one reference time point, and an entity associated with the reference time point that is at least one of the detection targets of the sensor at the reference time point.
A means for generating an entity image corresponding to the entity,
A means for generating a spatial image corresponding to the target space, and
A means for generating a composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at a position corresponding to the position of the entity at the reference time in the spatial image. An information processing device to be equipped.
請求項1に記載の情報処理装置。 Further provided with means for displaying the composite image.
The information processing device according to claim 1.
請求項1乃至請求項5のいずれかに記載の情報処理装置。 The means for generating the spatial image refers to the three-dimensional model information of the target space to generate the spatial image.
The information processing device according to any one of claims 1 to 5.
前記空間画像を生成する手段及び前記エンティティ画像を生成する手段の少なくとも1つは、それぞれ、前記基準時点に応じた空間画像、及び、前記基準時点に応じたエンティティ画像の少なくとも1つを生成する、
請求項1乃至請求項6のいずれかに記載の情報処理装置。 The three-dimensional model information of the target space is associated with the time and is associated with the time.
At least one of the means for generating the spatial image and the means for generating the entity image generates at least one of the spatial image according to the reference time point and the entity image according to the reference time point, respectively.
The information processing device according to any one of claims 1 to 6.
請求項1乃至請求項7のいずれかに記載の情報処理装置。 The means for generating the spatial image refers to the sensing result of the sensor and generates the spatial image.
The information processing device according to any one of claims 1 to 7.
前記空間画像を生成する手段は、前記点群データに基づいて計算された前記対象空間の3次元モデルの構成要素毎の出来形を参照して、前記空間画像を生成する、
請求項8に記載の情報処理装置。 The sensing result includes point cloud data and includes point cloud data.
The means for generating the spatial image refers to the finished shape of each component of the three-dimensional model of the target space calculated based on the point cloud data, and generates the spatial image.
The information processing device according to claim 8.
前記エンティティ画像を生成する手段は、前記ユーザ指示によって指定された表示対象に対応するエンティティ画像を生成する、
請求項1乃至請求項10のいずれかに記載の情報処理装置。 Further provided with means for obtaining a user instruction to specify a display target for each entity image.
The means for generating the entity image generates an entity image corresponding to the display target specified by the user instruction.
The information processing device according to any one of claims 1 to 10.
請求項1乃至請求項11のいずれかに記載の情報処理装置。 The means for generating the entity image is the first entity information about the entity at the first reference time point and the second entity information about the entity at the second reference time point different from the first reference time point. Generate an entity image corresponding to the entity by referring to the difference between them.
The information processing device according to any one of claims 1 to 11.
請求項1乃至請求項12のいずれかに記載の情報処理装置。 The means for generating the entity image refers to the locus of the position of the entity from the first reference time point to the second reference time point different from the first reference time point, and refers to the entity corresponding to the entity. Generate an image,
The information processing device according to any one of claims 1 to 12.
請求項1乃至請求項13のいずれかに記載の情報処理装置。 The means for generating the spatial image is different from the first index value at the first reference time of the index associated with the component of the three-dimensional model information of the target space and the first reference time of the index. With reference to the difference between the second index value and the second index value at the reference time of 2, the portion of the spatial image corresponding to the component is generated.
The information processing device according to any one of claims 1 to 13.
請求項14に記載の情報処理装置。 The index is at least one of a plurality of points related to the point cloud data, the number of points associated with the component of the three-dimensional model information, and the finished shape associated with the component of the three-dimensional model information.
The information processing device according to claim 14.
前記エンティティ画像を生成する手段は、前記エンティティの更新に応答して、前記エンティティ画像を更新し、
前記合成画像を生成する手段は、前記エンティティ画像の更新に応答して、前記合成画像を更新する、
請求項1乃至請求項15のいずれかに記載の情報処理装置。 The means for identifying the entity updates the entity associated with the reference time point in response to the user selecting the reference time point.
The means for generating the entity image updates the entity image in response to the update of the entity.
The means for generating the composite image updates the composite image in response to the update of the entity image.
The information processing device according to any one of claims 1 to 15.
少なくとも1つの基準時点に対象空間に配置されていたセンサ、および当該基準時点における当該センサの検出対象のうち少なくとも1つである前記基準時点に関連付けられるエンティティを特定するステップと、
前記エンティティに対応するエンティティ画像を生成するステップと、
前記対象空間に対応する空間画像を生成するステップと、
前記空間画像において、前記エンティティ画像が前記基準時点における当該エンティティの位置に対応する位置に配置されるように、前記エンティティ画像と前記空間画像とを合成することで、合成画像を生成するステップと
を具備する、情報処理方法。 The computer
A step of identifying a sensor that was placed in the target space at at least one reference time point, and an entity associated with the reference time point that is at least one of the detection targets of the sensor at the reference time point.
Steps to generate an entity image corresponding to the entity,
A step of generating a spatial image corresponding to the target space, and
In the spatial image, a step of generating a composite image by synthesizing the entity image and the spatial image so that the entity image is arranged at a position corresponding to the position of the entity at the reference time point. Information processing method to be provided.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081056A JP2021176033A (en) | 2020-05-01 | 2020-05-01 | Information processing device, information processing method, and program |
PCT/JP2021/014853 WO2021220757A1 (en) | 2020-05-01 | 2021-04-08 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081056A JP2021176033A (en) | 2020-05-01 | 2020-05-01 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021176033A true JP2021176033A (en) | 2021-11-04 |
Family
ID=78300401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020081056A Pending JP2021176033A (en) | 2020-05-01 | 2020-05-01 | Information processing device, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021176033A (en) |
WO (1) | WO2021220757A1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010044186A1 (en) * | 2008-10-17 | 2010-04-22 | パナソニック株式会社 | Flow line production system, flow line production device, and three-dimensional flow line display device |
JP2013205983A (en) * | 2012-03-27 | 2013-10-07 | Sony Corp | Information input apparatus, information input method, and computer program |
JP2013211739A (en) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | Image monitoring device |
JP2013214944A (en) * | 2012-02-29 | 2013-10-17 | Jvc Kenwood Corp | Image processing apparatus, image processing method, and image processing program |
JP2014191616A (en) * | 2013-03-27 | 2014-10-06 | National Institute Of Advanced Industrial & Technology | Method and device for monitoring aged person living alone, and service provision system |
JP2015018340A (en) * | 2013-07-09 | 2015-01-29 | キヤノン株式会社 | Image processing apparatus and image processing method |
WO2016162963A1 (en) * | 2015-04-08 | 2016-10-13 | 株式会社日立製作所 | Image search device, system, and method |
JP2018013854A (en) * | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | Tracking device and tracking method |
JP2019062531A (en) * | 2017-09-27 | 2019-04-18 | キヤノンマーケティングジャパン株式会社 | Image processing system, control method of image processing system, and program |
-
2020
- 2020-05-01 JP JP2020081056A patent/JP2021176033A/en active Pending
-
2021
- 2021-04-08 WO PCT/JP2021/014853 patent/WO2021220757A1/en active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010044186A1 (en) * | 2008-10-17 | 2010-04-22 | パナソニック株式会社 | Flow line production system, flow line production device, and three-dimensional flow line display device |
JP2013214944A (en) * | 2012-02-29 | 2013-10-17 | Jvc Kenwood Corp | Image processing apparatus, image processing method, and image processing program |
JP2013205983A (en) * | 2012-03-27 | 2013-10-07 | Sony Corp | Information input apparatus, information input method, and computer program |
JP2013211739A (en) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | Image monitoring device |
JP2014191616A (en) * | 2013-03-27 | 2014-10-06 | National Institute Of Advanced Industrial & Technology | Method and device for monitoring aged person living alone, and service provision system |
JP2015018340A (en) * | 2013-07-09 | 2015-01-29 | キヤノン株式会社 | Image processing apparatus and image processing method |
WO2016162963A1 (en) * | 2015-04-08 | 2016-10-13 | 株式会社日立製作所 | Image search device, system, and method |
JP2018013854A (en) * | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | Tracking device and tracking method |
JP2019062531A (en) * | 2017-09-27 | 2019-04-18 | キヤノンマーケティングジャパン株式会社 | Image processing system, control method of image processing system, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2021220757A1 (en) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5833772B2 (en) | Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata | |
JP5807686B2 (en) | Image processing apparatus, image processing method, and program | |
CN105637564B (en) | Generate the Augmented Reality content of unknown object | |
JP6684883B2 (en) | Method and system for providing camera effects | |
JP6013583B2 (en) | Method for emphasizing effective interface elements | |
AU2022345532B2 (en) | Browser optimized interactive electronic model based determination of attributes of a structure | |
US20200364897A1 (en) | Method and device for detecting planes and/or quadtrees for use as a virtual substrate | |
EP2733629A1 (en) | System for associating tag information with images supporting image feature search | |
CN110070556A (en) | Use the structural modeling of depth transducer | |
JP2014106681A5 (en) | ||
Ge et al. | Integrative simulation environment for conceptual structural analysis | |
US11562538B2 (en) | Method and system for providing a user interface for a 3D environment | |
JP2020509505A (en) | Method, apparatus and computer program for providing augmented reality | |
WO2021220757A1 (en) | Information processing device, information processing method, and program | |
KR20210044882A (en) | Augmented Reality Mapping Systems and Related Methods | |
KR20190103222A (en) | Automated Activity-Time Training Techniques | |
US20230290072A1 (en) | System and method of object detection and interactive 3d models | |
US9230366B1 (en) | Identification of dynamic objects based on depth data | |
US11782548B1 (en) | Speed adapted touch detection | |
JP7367383B2 (en) | Image recognition application construction support system and program | |
JP2022014002A (en) | Information processing device, information processing method, and program | |
KR20180071492A (en) | Realistic contents service system using kinect sensor | |
KR20230106000A (en) | Method and apparatus for providing user-interactive customized interaction for xr real object transformation | |
CN110192208B (en) | Signal fragments sharing physical graphics | |
JP6839771B2 (en) | Video correction method and system by correction pattern analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230214 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230705 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230925 |