JP7571960B1 - PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND LEARNING MODEL - Google Patents
PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND LEARNING MODEL Download PDFInfo
- Publication number
- JP7571960B1 JP7571960B1 JP2023190312A JP2023190312A JP7571960B1 JP 7571960 B1 JP7571960 B1 JP 7571960B1 JP 2023190312 A JP2023190312 A JP 2023190312A JP 2023190312 A JP2023190312 A JP 2023190312A JP 7571960 B1 JP7571960 B1 JP 7571960B1
- Authority
- JP
- Japan
- Prior art keywords
- observation
- data
- timing
- observation data
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 18
- 238000003672 processing method Methods 0.000 title claims description 4
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000000034 method Methods 0.000 claims description 164
- 238000006243 chemical reaction Methods 0.000 claims description 44
- 230000007613 environmental effect Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 description 51
- 238000012545 processing Methods 0.000 description 45
- 230000003287 optical effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 230000004044 response Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
【課題】複数の飛翔体を用いて観測領域を観測して得られるデータを高頻度に生成すること。【解決手段】コンピュータに、第1タイミングにおける観測領域の情報であり、第1観測手段によって観測される第1観測データと、第1タイミングとは異なる第2タイミングにおける観測領域の情報であり、第1観測手段とは異なる第2観測手段によって観測される第2観測データとに基づいて、第1観測データに基づく第1情報と第2観測データに基づく第2情報とを含む統合データを生成すること、を実行させる、プログラム。【選択図】図2[Problem] To generate data obtained by observing an observation area using multiple flying objects at a high frequency. [Solution] A program that causes a computer to execute the following: based on first observation data, which is information on the observation area at a first timing and observed by a first observation means, and second observation data, which is information on the observation area at a second timing different from the first timing and observed by a second observation means different from the first observation means, generate integrated data including first information based on the first observation data and second information based on the second observation data. [Selected Figure] Figure 2
Description
本発明は、プログラム、情報処理装置、情報処理方法、及び学習モデルに関する。 The present invention relates to a program, an information processing device, an information processing method, and a learning model.
人工衛星、航空機あるいはドローン装置などの飛翔体を使用した地上及び海上を含む地球表面の状態の観測が広く行われている。飛翔体による観測方式には、光学画像を取得して行われる観測方式、合成開口レーダ(SAR:Synthetic Aperture Radar)技術を使用して得られるレーダ画像いわゆるSAR画像を取得して行われる観測方式などがある。 Observations of the Earth's surface, including land and sea, are widely carried out using flying objects such as artificial satellites, aircraft, and drones. Observation methods using flying objects include those that acquire optical images, and those that acquire radar images obtained using synthetic aperture radar (SAR) technology, known as SAR images.
特許文献1には、地球表面の状況を把握する頻度を向上させるために、第1の軌道上を飛翔する第1の飛翔体による地球表面上の所定の観測地点を撮影して得られた新規画像と第1の軌道とは異なる第2の軌道上を飛翔する第2の飛翔体による所定の観測地点と同じ地点を撮影して得られた1つの直近の過去画像とを位置合わせし、比較することで、変化領域を検出する地球表面状況把握方法が記載されている。
特許文献1に記載の方法では、第1の軌道から観測された新規画像は、第2の軌道から観測された過去画像とは別の画像として取り扱われる。特許文献1では、新規画像は、第1の軌道から第1の飛翔体によって観測された新規の画像であり、第2の飛翔体による観測地点の観測も考慮されたデータではない。したがって、特許文献1では、観測地点のデータ自体は高頻度に生成されておらず、変化検出の頻度が向上したにすぎない。飛翔体を用いた観測を行う場合、観測される領域の状態をより詳細に把握するために、観測データの生成が高頻度に行われることが好ましい。
In the method described in
そこで、本発明は、複数の飛翔体を用いて観測領域を観測して得られるデータを高頻度に生成することを目的とする。 The present invention aims to generate data obtained by observing an observation area using multiple flying objects at a high frequency.
本発明の一態様に係るプログラムは、コンピュータに、第1タイミングにおける観測領域の情報であり、第1観測手段によって観測される第1観測データと、第1タイミングとは異なる第2タイミングにおける観測領域の情報であり、第1観測手段とは異なる第2観測手段によって観測される第2観測データとに基づいて、第1観測データに基づく第1情報と第2観測データに基づく第2情報とを含む統合データを生成すること、を実行させる。 A program according to one aspect of the present invention causes a computer to execute the following: based on first observation data, which is information on an observation area at a first timing and observed by a first observation means, and second observation data, which is information on an observation area at a second timing different from the first timing and observed by a second observation means different from the first observation means, generate integrated data including first information based on the first observation data and second information based on the second observation data.
この態様によれば、統合データは、第1観測データに基づく第1情報と第2観測データに基づく第2情報とを含んでいるので、第1観測データ又は第2観測データの少なくとも一方が更新あるいは取得された場合、統合データも更新されることとなる。よって、コンピュータは、第1タイミング又は第2タイミングのいずれかのタイミングにおける観測領域の情報に基づく統合データを生成することで、統合データを高頻度に生成することが可能となる。 According to this aspect, the integrated data includes first information based on the first observation data and second information based on the second observation data, so that when at least one of the first observation data or the second observation data is updated or acquired, the integrated data is also updated. Thus, the computer can generate integrated data frequently by generating integrated data based on information of the observation area at either the first timing or the second timing.
上記態様において、第1観測データは、第1観測条件の下で観測されたデータであり、コンピュータに、第1タイミングとは異なる第3タイミングにおける観測領域の情報であり、第1観測手段とは異なる第3観測手段によって第3観測条件の下で観測されたデータであり、第1観測データと共通の観測方式に基づいて観測された第3観測データを取得することと、学習観測領域の情報である学習観測データと学習観測データに対応する学習観測条件と学習観測データが観測された学習観測タイミングとが入力され、学習観測データが変換された変換観測データであって、学習観測タイミングにおいて学習観測領域が第1観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、第3観測データと第3観測条件と第3タイミングとを入力し、第3観測データが変換された変換観測データを取得することと、をさらに実行させ、統合データを生成することは、第1情報を、変換観測データに基づいて更新して、統合データを生成する、ことを含んでもよい。 In the above aspect, the first observation data is data observed under the first observation conditions, and the computer acquires third observation data, which is information on the observation area at a third timing different from the first timing, which is data observed under the third observation conditions by a third observation means different from the first observation means, and which is observed based on a common observation method with the first observation data; and inputs the third observation data, the third observation conditions, and the third timing into a conversion model that receives input of the learning observation data, which is information on the learning observation area, the learning observation conditions corresponding to the learning observation data, and the learning observation timing at which the learning observation data was observed, and outputs converted observation data in which the learning observation data is converted, and which indicates data observed in the learning observation area under the first observation conditions at the learning observation timing, and further executes the above steps, and generating the integrated data may include updating the first information based on the converted observation data to generate the integrated data.
この態様によれば、第1観測データと共通の観測方式にある第3観測データがある場合に、第3観測データを第1観測条件の下で観測されたデータに変換することができる。よって、例えば、統合データを用いた解析を行う場合に、異なる観測条件の下で観測されたデータを第1観測条件の下で観測されたデータとして第1情報として取り扱うことが可能となり、統合データのうち第1情報が高頻度に更新され、結果として統合データも高頻度に生成することが可能となる。 According to this aspect, when there is third observation data that has a common observation method with the first observation data, the third observation data can be converted into data observed under the first observation conditions. Therefore, for example, when performing an analysis using the integrated data, it becomes possible to treat data observed under different observation conditions as data observed under the first observation conditions, that is, as the first information, and the first information in the integrated data is updated frequently, and as a result, the integrated data can also be generated frequently.
上記態様において、第1観測条件は、第1観測手段である第1飛翔体の第1機体情報と、第1飛翔体による観測環境を示す第1環境情報とを含み、第3観測条件は、第3観測手段である第3飛翔体の第3機体情報と、第3飛翔体による観測環境を示す第3環境情報とを含んでもよい。 In the above aspect, the first observation condition may include first aircraft information of a first flying object, which is the first observation means, and first environmental information indicating the observation environment by the first flying object, and the third observation condition may include third aircraft information of a third flying object, which is the third observation means, and third environmental information indicating the observation environment by the third flying object.
この態様によれば、機体の情報及び観測環境を考慮してデータの変換が可能になる。よって、第3観測データを第1観測条件の下での観測データに精度よく変換することが可能となる。 According to this aspect, data conversion is possible taking into account the aircraft information and the observation environment. Therefore, it is possible to convert the third observation data into observation data under the first observation conditions with high accuracy.
上記態様において、前記第1観測データは、第1観測条件の下で観測されたデータであり、コンピュータに、第1観測データと第1観測条件とを取得することと、第1タイミングとは異なる第3タイミングにおける観測領域の情報であり、第1観測手段とは異なる第3観測手段によって第3観測条件の下で観測されたデータであり、第1観測データと共通の観測方式に基づいて観測された第3観測データを取得することと、学習観測領域の情報である学習観測データと、学習観測データに対応する学習観測条件と、学習観測データが観測された学習観測タイミングと、が入力され、学習観測データが変換された変換観測データであって、学習観測タイミングにおいて観測領域が基準観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、第1観測データと第1観測条件と第1タイミングとを入力し、第1観測データが変換された変換観測データとして第1変換観測データを取得することと、変換モデルに、第3観測データと第3観測条件と第3タイミングとを入力し、第3タイミングにおける第3観測データが変換された変換観測データとして、第2変換観測データを取得することと、をさらに実行させ、統合データを生成することは、第1変換観測データに基づく第1情報を、第2変換観測データに基づく第1情報によって更新して、統合データを生成する、ことを含んでもよい。 In the above aspect, the first observation data is data observed under first observation conditions, and the first observation data and the first observation conditions are acquired by a computer, and third observation data is information on the observation domain at a third timing different from the first timing, and is data observed under third observation conditions by a third observation means different from the first observation means, and is observed based on a common observation method with the first observation data. The learning observation data, which is information on the learning observation domain, the learning observation conditions corresponding to the learning observation data, and the learning observation timing at which the learning observation data was observed are input, and converted observation data is obtained by converting the learning observation data, and the learning observation timing is acquired. The method further includes inputting the first observation data, the first observation condition, and the first timing into a conversion model that outputs converted observation data indicating data observed in an observation region under a reference observation condition, and acquiring the first converted observation data as the converted observation data into which the first observation data is converted; inputting the third observation data, the third observation condition, and the third timing into the conversion model, and acquiring the second converted observation data as the converted observation data into which the third observation data at the third timing is converted; and generating the integrated data may include updating the first information based on the first converted observation data with the first information based on the second converted observation data to generate the integrated data.
この態様によれば、共通の観測方式の下で観測される第1観測データ及び第3観測データのそれぞれを、共通の観測条件となる基準観測条件の下で観測された変換観測データに変換することができる。統合データを変換観測データに基づいて生成することで、統合データにおける各データの差異を小さくすることができ、統合データの解析の際の情報処理の負担が軽減される。また、統合データのうち第1情報が高頻度に更新され、結果として統合データも高頻度に生成することが可能となる。 According to this aspect, each of the first observation data and the third observation data observed under a common observation method can be converted into converted observation data observed under reference observation conditions that are common observation conditions. By generating integrated data based on the converted observation data, the differences between the data in the integrated data can be reduced, and the burden of information processing when analyzing the integrated data can be reduced. In addition, the first information in the integrated data is updated frequently, and as a result, the integrated data can also be generated frequently.
上記態様において、第1観測条件は、第1観測手段である第1飛翔体の第1機体情報と、第1飛翔体による観測環境を示す第1環境情報とを含み、第3観測条件は、第3観測手段である第3飛翔体の第2機体情報と、第3飛翔体による観測環境を示す第2環境情報とを含んでもよい。 In the above aspect, the first observation condition may include first aircraft information of the first flying object, which is the first observation means, and first environmental information indicating the observation environment by the first flying object, and the third observation condition may include second aircraft information of the third flying object, which is the third observation means, and second environmental information indicating the observation environment by the third flying object.
この態様によれば、機体の情報及び観測環境を考慮してデータの変換が可能になる。よって、第2観測データを第1観測条件の下での観測データに精度よく変換することが可能となる。 According to this aspect, data conversion is possible taking into account the aircraft information and the observation environment. Therefore, it is possible to convert the second observation data into observation data under the first observation conditions with high accuracy.
上記態様において、第1観測データは、第1観測方式に基づいて観測されたデータであり、第2観測データは、第1観測方式とは異なる第2観測方式に基づいて観測されたデータであってもよい。 In the above aspect, the first observation data may be data observed based on a first observation method, and the second observation data may be data observed based on a second observation method that is different from the first observation method.
この態様によれば、異なる観測方式に基づいて観測されたデータが統合データとして生成される。例えば、第1観測方式はSARによる観測方式であり、第2観測方式を光学画像による観測方式とすることができる。これにより、複数の観測方式によって観測されたデータを1つのデータに統合することができ、解析によるより多くの情報の取得又は高精度の解析が可能となる。 According to this aspect, data observed based on different observation methods are generated as integrated data. For example, the first observation method can be an observation method using SAR, and the second observation method can be an observation method using optical images. This makes it possible to integrate data observed using multiple observation methods into one piece of data, enabling the acquisition of more information through analysis or high-precision analysis.
上記態様において、コンピュータに、第1タイミングとは異なる第3タイミングにおける観測領域の情報であり、第1観測手段とは異なる第3観測手段によって第3観測条件の下で観測されたデータであり、第1観測方式とは異なる観測方式に基づいて観測された第3観測データを取得することと、学習観測データと、学習観測データが観測された学習観測タイミングとが入力され、学習観測タイミングにおいて第1観測方式に基づいて観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、第3観測データと、第3タイミングとを入力し、第3タイミングにおける推測観測データを取得することと、をさらに実行させ、統合データを生成することは、第1情報を、推測観測データに基づいて更新して、統合データを生成する、ことを含んでもよい。 In the above aspect, the computer may further execute the steps of acquiring third observation data, which is information on the observation area at a third timing different from the first timing, which is data observed under third observation conditions by a third observation means different from the first observation means, and which is observed based on an observation method different from the first observation method, and inputting the third observation data and the third timing into an inference model that receives the learning observation data and the learning observation timing at which the learning observation data was observed, and outputs inferred observation data indicating data in which the observation area was observed based on the first observation method at the learning observation timing, and acquiring inferred observation data at the third timing, and generating the integrated data may include updating the first information based on the inferred observation data to generate the integrated data.
この態様によれば、第1観測方式に基づく第3タイミングにおける観測データを、第2観測方式に基づく第3タイミングにおける第3観測データから推測することができる。これにより、例えば、天候不順等の要因によって第1観測データが得られない場合であっても、第3観測データによりデータを補完して、第1観測方式に基づいて観測されたデータを含む統合データを高頻度に生成することができる。 According to this aspect, the observation data at the third timing based on the first observation method can be inferred from the third observation data at the third timing based on the second observation method. As a result, even if the first observation data cannot be obtained due to factors such as bad weather, the data can be supplemented with the third observation data, and integrated data including data observed based on the first observation method can be generated frequently.
上記態様において、コンピュータに、第1観測データを取得することと、学習観測データと、学習観測データが観測された学習観測タイミングと、学習観測タイミングとは異なるタイミングとが入力され、異なるタイミングにおいて第2観測方式に基づいて観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、第1観測データと、第1タイミングと、第2タイミングとを入力し、第2タイミングにおける推測観測データを取得することと、をさらに実行させ、統合データを生成することは、第2タイミングにおける推測観測データに基づく第2情報を含む統合データを生成する、ことを含んでもよい。 In the above aspect, the computer may further execute the steps of acquiring first observation data, inputting the first observation data, the first timing, and the second timing to an inference model that receives input of the learning observation data, a learning observation timing at which the learning observation data was observed, and a timing different from the learning observation timing, and outputs inferred observation data indicating data at which the observation area was observed based on a second observation method at the different timing, and acquiring inferred observation data at the second timing, and generating integrated data may include generating integrated data including second information based on the inferred observation data at the second timing.
この態様によれば、第2観測方式に基づく第2タイミングにおける観測データを、第1観測方式に基づく第1タイミングにおける第1観測データから推測することができる。これにより、例えば、天候不順等の要因によって第2観測データが得られない場合であっても、第1観測データによりデータを補完して統合データを生成することができる。 According to this aspect, the observation data at the second timing based on the second observation method can be inferred from the first observation data at the first timing based on the first observation method. As a result, even if the second observation data cannot be obtained due to factors such as bad weather, for example, it is possible to supplement the data with the first observation data to generate integrated data.
上記態様において、コンピュータに、第1タイミングより前の第3タイミングで観測領域が観測された場合の第3観測データを取得することと、学習観測データと学習観測データが観測された学習観測タイミングと、学習観測タイミングより後の予測タイミングとが入力され、予測タイミングにおいて第1観測方式に基づいて観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、第3観測データと第3タイミングと第1タイミングとを入力し、第1タイミングにおける推測観測データを取得することと、をさらに実行させ、統合データを生成することは、第1タイミングにおける推測観測データに基づく第1情報を含む統合データを生成する、ことを含んでもよい。 In the above aspect, the computer may further execute the steps of acquiring third observation data when the observation area is observed at a third timing prior to the first timing, inputting the learning observation data, the learning observation timing at which the learning observation data was observed, and a prediction timing after the learning observation timing into an estimation model that receives inputs of the third observation data, the third timing, and the first timing and acquiring inferred observation data at the first timing, and generating integrated data may include generating integrated data including the first information based on the inferred observation data at the first timing.
この態様によれば、第1観測方式に基づく第1タイミングにおける観測データを、第1観測方式に基づく第3タイミングにおける第3観測データから推測することができる。これにより、例えば、天候不順等の要因によって第1観測データが得られない場合であっても、第1タイミングより前の第3タイミングで観測された第3観測データによりデータを補完して統合データを生成することができる。 According to this aspect, the observation data at the first timing based on the first observation method can be inferred from the third observation data at the third timing based on the first observation method. As a result, even if the first observation data cannot be obtained due to factors such as bad weather, for example, the data can be supplemented with the third observation data observed at the third timing prior to the first timing to generate integrated data.
上記態様において、コンピュータに、学習観測領域の情報である学習観測データに基づく学習統合データが入力され、学習観測領域のメタ情報を出力するメタ情報出力モデルに、統合データを入力し、観測領域のメタ情報を取得すること、をさらに実行させてもよい。 In the above aspect, the computer may further be caused to receive learning integrated data based on learning observation data, which is information on the learning observation domain, and input the integrated data to a meta-information output model that outputs meta-information on the learning observation domain to obtain meta-information on the observation domain.
この態様によれば、観測領域の観測に基づいて高頻度に生成された統合データを用いて、観測領域のメタ情報を取得することができる。これにより、観測領域のメタ情報の精度を高くすることができる。 According to this aspect, meta-information of the observed area can be obtained using integrated data generated at a high frequency based on observations of the observed area. This makes it possible to improve the accuracy of the meta-information of the observed area.
本発明の他の一態様に係る情報処理装置は、第1タイミングにおける観測領域の情報であり、第1観測手段によって観測される第1観測データと、第1タイミングとは異なる第2タイミングにおける観測領域の情報であり、第1観測手段とは異なる第2観測手段によって観測される第2観測データとに基づいて、第1観測データに基づく第1情報と第2観測データに基づく第2情報とを含む統合データを生成する統合データ生成部、を備える。 An information processing device according to another aspect of the present invention includes an integrated data generation unit that generates integrated data including first information based on the first observation data and second information based on the second observation data, based on first observation data, which is information of an observation area at a first timing and observed by a first observation means, and second observation data, which is information of an observation area at a second timing different from the first timing and observed by a second observation means different from the first observation means.
本発明の他の一態様に係る情報処理方法は、コンピュータが、第1タイミングにおける観測領域の情報であり、第1観測手段によって観測される第1観測データと、第1タイミングとは異なる第2タイミングにおける観測領域の情報であり、第1観測手段とは異なる第2観測手段によって観測される第2観測データとに基づいて、第1観測データに基づく第1情報と第2観測データに基づく第2情報とを含む統合データを生成すること、を含む。 An information processing method according to another aspect of the present invention includes a computer generating integrated data including first information based on the first observation data and second information based on the second observation data, based on first observation data, which is information of an observation area at a first timing and observed by a first observation means, and second observation data, which is information of an observation area at a second timing different from the first timing and observed by a second observation means different from the first observation means.
本発明の他の一態様に係る学習モデルは、学習観測領域の情報である学習観測データと学習観測データに対応する学習観測条件とを入力とし、学習観測データが取得されたタイミングにおいて学習観測領域が基準観測条件に応じて観測されたデータとして学習観測データが変換された第1変換観測データを出力とする教師データを用いて学習され、対象観測領域の情報である観測データと、観測データに対応する観測条件との入力に対し、観測データが取得されたタイミングにおいて対象観測領域が基準観測条件の下で観測されたデータを示し、観測データが変換された第2変換観測データを出力するようコンピュータを機能させる。 A learning model according to another aspect of the present invention is trained using teacher data that receives as input learning observation data, which is information about a learning observation area, and learning observation conditions corresponding to the learning observation data, and outputs first converted observation data in which the learning observation data is converted as data observed in the learning observation area according to standard observation conditions at the time when the learning observation data is acquired, and causes a computer to function in response to input of observation data, which is information about a target observation area, and observation conditions corresponding to the observation data, outputting second converted observation data in which the observation data is converted, indicating data observed in the target observation area under standard observation conditions at the time when the observation data is acquired.
本発明の他の一態様に係る学習モデルは、第1観測方式に基づいて学習観測領域が観測された場合の学習観測データと、学習観測データが観測された観測タイミングと、観測タイミングとは異なる予測タイミングとを入力とし、予測タイミングにおいて学習観測領域が第1観測方式とは異なる第2観測方式に基づいて観測されたデータを示す第1推測観測データを出力とする教師データを用いて学習され、対象観測領域の情報である観測データと、観測データに対応する観測条件との入力に対し、観測データが取得されたタイミングにおいて対象観測領域が第2観測方式に基づいて観測されたデータを示す第2推測観測データを出力するようコンピュータを機能させる。 A learning model according to another aspect of the present invention is trained using teacher data that receives as input learning observation data when a learning observation area is observed based on a first observation method, an observation timing at which the learning observation data was observed, and a predicted timing different from the observation timing, and outputs first estimated observation data that indicates data observed when the learning observation area is observed based on a second observation method different from the first observation method at the predicted timing, and causes a computer to function in response to input of observation data that is information about the target observation area and observation conditions corresponding to the observation data, outputting second estimated observation data that indicates data observed when the target observation area is observed based on the second observation method at the timing when the observation data was acquired.
本発明によれば、複数の飛翔体を用いて観測領域を観測して得られるデータを高頻度に生成することが可能となる。 The present invention makes it possible to generate data obtained by observing an observation area using multiple flying objects at a high frequency.
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 A preferred embodiment of the present invention will be described with reference to the attached drawings. In each drawing, the same reference numerals are used to denote the same or similar configurations.
(第1実施形態)
図1には、第1実施形態に係る観測システム10が示される。観測システム10は第2実施形態及び第3実施形態においても同様である。
First Embodiment
1 shows an
観測システム10は、観測データ処理装置101及び人工衛星201,202,203、及び観測データ受信装置Rを有する。
The
観測システム10では、人工衛星201,202,203を含む複数の衛星によって地球表面Oを観測した観測データが観測データ受信装置Rに送信される。このとき、観測データの観測の際の環境を示す観測条件が、観測データに関連付けられる又は観測データに含まれるようにして観測データ受信装置Rに送信されてもよい。観測データ処理装置101は、観測データ受信装置Rから観測データを取得し、観測データに対する情報処理を行う。なお、観測システム10における観測データを観測する装置は、人工衛星201,202,203に例示されるように、観測データの取得が可能な人工衛星として宇宙空間に配置されて地球の周囲を周回する飛翔体である。観測データを観測する飛翔体は静止衛星であってもよい。また、飛翔体は、航空機、ヘリコプターもしくはドローン装置などの、地球上空に位置することが可能な装置であればよい。
In the
観測システム10では、人工衛星201,202,203が観測する観測データは互いに相違する観測方式に基づいて観測されたデータであってもよく、共通の観測方式に基づいて観測されたデータであってもよい。
In the
観測方式は、例えば、SAR信号を用いる方式(SAR方式)であり、観測データは、レーダ装置を搭載した人工衛星から観測対象物に照射されたマイクロ波(電磁波)が、観測対象物において反射された電磁波に応じた信号である。SAR方式に基づく観測データ(SARデータ)は、例えば、観測データ処理装置101によって、SAR画像となるような可視化処理がされる。他のSARデータとして、観測されたSARデータに対して、レンジ圧縮及びマルチルックアジマス圧縮が行われた第2レベルのSARデータもある。第2レベルのSARデータによって、SAR画像による可視化が幾何学的に補正された状態で可能となる。他のSARデータとして、観測されたSARデータに対して、レンジ圧縮、シングルルックアジマス圧縮及びオルソ補正を行った第3レベルのSARデータもある。オルソ補正を加えることによって、後述の光学画像と重ねることが可能なSAR画像を得ることができる。
The observation method is, for example, a method using SAR signals (SAR method), and the observation data is a signal corresponding to the electromagnetic waves (electromagnetic waves) irradiated to the observation target from an artificial satellite equipped with a radar device and reflected by the observation target. The observation data based on the SAR method (SAR data) is, for example, visualized by the observation
他の観測方式には、光学センサを用いて得られる光学データを用いる方式(光学方式)がある。光学データは、例えば可視光域や近赤外域の波長を有する光を観測するセンサによって得られる情報である。光学データは、太陽光が地表面で反射されて生じる光に基づくデータである。 Another observation method is the optical method, which uses optical data obtained using optical sensors. Optical data is information obtained by sensors that observe light with wavelengths in the visible light range or near-infrared range, for example. Optical data is data based on light generated when sunlight is reflected by the earth's surface.
また、他の観測方式として、赤外センサを用いて得られる気象データを用いる方式もある。気象データは、雲、地表、及び大気から放射される赤外線を観測して得られる信号であり、赤外画像や水蒸気画像の生成に用いられる。第1実施形態及び以降の実施形態では、光学データと気象データとを、それぞれの使用波長域の相違に応じて区別して説明している。 Another observation method is to use meteorological data obtained using an infrared sensor. Meteorological data is a signal obtained by observing infrared radiation emitted from clouds, the earth's surface, and the atmosphere, and is used to generate infrared images and water vapor images. In the first and subsequent embodiments, optical data and meteorological data are described separately based on the differences in the wavelength ranges used.
図2を参照して、観測データ処理装置101による統合データの生成について説明する。図2では、人工衛星201,202,203のそれぞれは、互いに異なる観測方式である方式1、方式2、又は方式3に基づいて観測を行う場合を例に説明する。ここで、各方式は、例えば、方式1がSARデータを用いる方式であり、方式2は光学データを用いる方式であり、方式3は気象データを用いる方式である。
The generation of integrated data by the observation
人工衛星201は、時間軸T上のある時刻T1において、観測領域を観測し、観測データD11を取得する。観測データD11は、観測データ処理装置101に送信され、観測データ処理装置101は観測データD11に基づく統合データID1を生成する。
At a certain time T1 on the time axis T, the
その後、人工衛星202は、時間軸T上のある時刻T2において観測データD22を観測する。観測データD22は、観測データ処理装置101に送信され、観測データ処理装置101は、先に観測された観測データD11及び観測データD22に基づく統合データID2を生成する。
Then, the
統合データID2は、時刻T1における方式1に基づく観測データと時刻T2における方式2に基づく観測データとに基づくデータであり、時刻T2における観測領域の最も新しい情報を含むデータである。
Integrated data ID2 is data based on observation data based on
人工衛星203は、時間軸T上のある時刻T3において観測データD33を観測する。観測データD33は、観測データ処理装置101に送信され、観測データ処理装置101は、先に観測された観測データD11,D22、及び観測データD33に基づく統合データID3を生成する。統合データID3は、時刻T1における方式1に基づく観測データ、時刻T2における方式2に基づく観測データ、及び時刻T3における方式3に基づく観測データに基づくデータであり、時刻T3における観測領域の最も新しい情報を含むデータである。
The
その後、人工衛星201が時刻T4において、時刻T1で観測した領域と同じ観測領域を観測し、観測データD14を取得する。ここで、人工衛星201による観測領域の観測から次の観測までの時間は、例えば人工衛星201の周回軌道に応じて定まる間隔である。観測データD14は、観測データ処理装置101に送信され、観測データ処理装置101は観測データD14に基づく統合データID4を生成する。観測データ処理装置101は、時刻T1における人工衛星201による観測で得られた観測データD11を、新たに得られた観測データD14に置き換えて統合データID14を生成する。統合データID4は、時刻T4における観測領域の最も新しい情報を含むデータである。
Then, at time T4, the
同様に、人工衛星202が時刻T5において、時刻T2で観測した領域と同じ観測領域を観測し、観測データD25を取得する。観測データD25は、観測データ処理装置101に送信され、観測データ処理装置101は観測データD25に基づく統合データID5を生成する。観測データ処理装置101は、時刻T2における人工衛星202による観測で得られた観測データD22を、新たに得られた観測データD25に置き換えて統合データID5を生成する。統合データID5は、時刻T5における観測領域の最も新しい情報を含むデータである。各時刻におけるデータを統合することで、観測データ処理装置101は、複数の飛翔体を用いて観測領域を観測して得られるデータを、単一の飛翔体による観測よりも高頻度に生成することができる。
Similarly, at time T5, the
統合データに含まれる情報は、それぞれの情報の基となる観測データが観測された時刻の情報が関連付けられており、統合データ内の情報は時刻に基づいて並べ替えることが可能である。例えば、統合データID5においては、時刻順に、時刻T3に観測された観測データD33、時刻T4に観測された観測データD14、及び時刻T5に観測された観測データD25を順序付けることが可能である。なお、観測データは、時刻の情報を含まず、取得順に並べ替え可能であってもよい。つまり、統合データは時系列に沿った並び替えが可能な状態で生成される。観測データを時系列に沿って並び替えることを可能にして生成された統合データを用いることで、観測領域の変化検知をより精度よく行うことが可能となる。なお、統合データは、必ずしも観測データを時系列に沿って並び替えることが可能な態様で生成されなくともよい。統合データの形式は、統合データの用途に応じて適宜設定可能である。 The information included in the integrated data is associated with information on the time when the observation data on which each piece of information is based was observed, and the information in the integrated data can be rearranged based on time. For example, in integrated data ID5, it is possible to order the observation data D33 observed at time T3, the observation data D14 observed at time T4, and the observation data D25 observed at time T5 in chronological order. Note that the observation data may not include time information and may be rearranged in the order of acquisition. In other words, the integrated data is generated in a state in which it is possible to rearrange the data in chronological order. By using the integrated data generated in such a way that it is possible to rearrange the observation data in chronological order, it is possible to more accurately detect changes in the observation area. Note that the integrated data does not necessarily have to be generated in a manner in which it is possible to rearrange the observation data in chronological order. The format of the integrated data can be set appropriately depending on the use of the integrated data.
ここで、統合されるデータは、各衛星からの信号そのものであってもよく、各信号に基づいて生成された画像データであってもよい。画像データに基づいて統合データを生成する場合、各画像データは後述のメタ情報出力モデルに入力されるそれぞれのチャネルとして統合される。また、統合されるデータは、各衛星からの信号又は画像データから得られたメタ情報であってもよい。また、各衛星からの信号、画像データ、又はメタ情報は、例えば、観測データに基づいて情報処理装置によって行われるシミュレーション処理によって生成された情報であってもよい。つまり、統合データに含まれるデータは、観測データに基づく情報であればよい。 Here, the data to be integrated may be the signals themselves from each satellite, or image data generated based on each signal. When integrated data is generated based on image data, each image data is integrated as a respective channel input to a meta-information output model described below. The data to be integrated may also be meta-information obtained from the signals or image data from each satellite. The signals, image data, or meta-information from each satellite may also be information generated by, for example, a simulation process performed by an information processing device based on observation data. In other words, the data included in the integrated data may be information based on observation data.
観測データ処理装置101は、各衛星から観測データを取得する度に統合データを生成する。これにより、統合データは観測領域の最新の観測結果を含むように更新される。例えば、時刻T2から時刻T5の間に観測領域に変化が生じるなどした場合、人工衛星202のみを用いていると、時刻T5までその変化は観測データに現れない。しかし、時刻T3における人工衛星203からの観測データD33及び時刻T4における人工衛星201からの観測データD14によって、統合データは統合データID3,ID4のように生成される。統合データID3,ID4には時刻T2から時刻T5の間に観測領域にて生じた変化が含まれるので、統合データID3,ID4にも、観測領域にて生じた変化が反映される。複数の衛星が観測する観測データに基づく統合データを解析することによって、単一の衛星の観測間隔の期間内に生じた変化等を適時に把握することが可能となる。また、人工衛星202が時刻T5において観測領域の観測ができない事象、例えば、天候不順等の事象が発生した場合についても、天候に左右されないSAR方式によるデータを含んで生成された統合データを解析することによる観測領域の変化の把握が可能となる。
The observation
観測データ処理装置101によって、観測領域に関するデータをより短い時間間隔で更新することが可能となり、解析によりリアルタイム性が要求されるようなタスクへの適用が可能となる。タスクの一例としては、衛星等を用いた、植生指数の1つであるNDVI(Normalized Difference Vegetation Index)の測定がある。光学衛星を用いた方がNDVIの測定は正確に行うことができる一方、光学データは日中の観測に限られ、さらに雲等によって観測ができない等、時刻や天候の制約がある。そこで、SAR衛星によるSARデータを含めた統合データによってNDVIを測定することで、計測回数を増加させ、リアルタイム性を高めることができる。
The observation
また、統合データは各衛星からの情報を統合したデータであるため、例えば、学習モデルを用いてメタ情報を取得して観測領域の解析を行う場合、各衛星からの情報を個別に学習モデルに入力する場合よりも、高頻度かつ多角的な解析が可能となる。 In addition, because the integrated data is data that combines information from each satellite, for example, when using a learning model to obtain meta-information and analyze an observation area, more frequent and multifaceted analysis is possible than when inputting information from each satellite into the learning model individually.
また、単一の衛星データを用いて運用されている観測システムを、他の衛星データを用いて統合データを生成し、解析を可能とするようなシステムとして活用することも可能となる。 In addition, it will be possible to use an observation system that currently uses data from a single satellite as a system that can generate integrated data using data from other satellites and enable analysis.
観測データ処理装置101の各部について説明する。図3には第1実施形態に係る観測データ処理装置101のブロック図が示される。観測データ処理装置101は、通信部1011、記憶部1012、観測データ取得部1013、統合データ生成部1014、及びメタ情報取得部1015を有する。観測データ処理装置101の各部は、観測データ処理装置101の各部はパーソナルコンピュータ等の情報処理装置において、記憶装置に記憶されたプログラムがプロセッサにより実行されることで実現することができる。
The components of the observation
通信部1011は、観測データ処理装置101と、観測データ受信装置Rを含む外部の情報処理装置との間の通信を制御する。また、観測データ処理装置101は、観測データを記録するサーバ等の情報処理装置から観測データを取得してもよく、通信部1011は、他の情報処理端末との通信を制御する。
The
記憶部1012は、観測データ処理装置101での処理に用いられる各種の情報を記憶する。記憶部1012には、メタ情報出力モデル10121が記憶されている。
The
図4を参照してメタ情報出力モデル10121について説明する。メタ情報出力モデル10121は、観測領域の観測から得られた統合データの入力に対し、観測領域のメタ情報を出力する学習モデルである。
The meta-
メタ情報出力モデル10121は学習用データLD1を教師データとして学習される。学習用データLD1には、観測領域の観測により得られる複数の学習用観測データに基づく学習用統合データと、学習用統合データに対応するメタ情報MD0の組が含まれる。学習モデル10212は、学習用統合データを入力、メタ情報MD0を出力として学習される。
The meta-
メタ情報MD0は、観測対象に応じて様々な項目を有する。自動車や動物など、陸上の移動体に対するメタ情報には、移動体の移動軌跡の情報が含まれる。当該情報は、移動体によって生じる反射電磁波の干渉の変化によるSARデータの変化や光学画像における移動体の位置の変化から取得される。 The meta information MD0 has various items depending on the observation target. Meta information for land-based moving objects such as automobiles and animals includes information on the moving object's movement trajectory. This information is obtained from changes in SAR data due to changes in the interference of reflected electromagnetic waves caused by the moving object, and changes in the moving object's position in optical images.
災害時の浸水域が観測対象である場合、メタ情報は浸水域の範囲の情報であってもよい。また、農作物の管理に用いるメタ情報として、作物の成長度合いを示すNDVI等をメタ情報としてもよい。作物の成長度合いは、SARデータの後方散乱係数及び実際に観測された作物の成長度合いに基づいて算出された相関関係や光学データにおける色の変化や分光反射特性に基づいて推定される。この場合、メタ情報には、実際に測定された作物の背丈の情報が含まれてもよい。 When flooded areas during a disaster are the subject of observation, the meta-information may be information on the extent of the flooded areas. In addition, as meta-information used for managing agricultural crops, NDVI or the like, which indicates the degree of crop growth, may be used. The degree of crop growth is estimated based on a correlation calculated based on the backscattering coefficient of the SAR data and the actually observed degree of crop growth, or on color changes and spectral reflectance characteristics in the optical data. In this case, the meta-information may include information on the actual measured height of the crop.
建築物に関する検出においては、新規の建築物に関する情報をメタ情報としてもよい。新規の建築物に関する情報は、SARデータの後方散乱係数及び実際に観測された新規の建築物に関する情報に基づいて算出された相関関係や光学データにおける色の変化に基づいて推定される。また、建物の種類に関する情報が地図等に基づいて取得されて、メタ情報とされてもよい。 In detecting buildings, information about new buildings may be used as meta information. Information about new buildings is estimated based on correlations calculated based on the backscattering coefficient of SAR data and information about new buildings that have actually been observed, or color changes in optical data. Information about the type of building may also be obtained based on a map or the like and used as meta information.
観測データ処理装置101が生成した統合データが、学習済みのメタ情報出力モデル10121に対して入力されると、メタ情報出力モデル10121は、統合データに対応したメタ情報MD1を出力する。なお、メタ情報出力モデル10121は、観測データ処理装置101に記憶されている必要はなく、他の情報処理装置に記憶されていてもよい。
When the integrated data generated by the observation
図2に戻り、観測データ取得部1013は、人工衛星201が観測した観測データ(第1観測データ)と、人工衛星201の観測における観測条件(第1観測条件)とを取得する。観測データ取得部1013は、例えば、観測データ受信装置Rから観測データ及び観測条件を取得してもよく、実際の観測データやシミュレーションによって生成された観測データが記録されたサーバから観測データ及び観測条件を取得してもよい。なお、統合データの生成に際して、観測データ処理装置101は観測条件を取得せずに、観測データに基づいて統合データを生成してもよい。人工衛星202からの観測データ(第2観測データ)と、人工衛星202の観測における観測条件(第2観測条件)、及び人工衛星203からの観測データと観測条件についても同様である。
Returning to FIG. 2, the observation
観測条件は、飛翔体の特性に基づく情報である機体情報と、飛翔体による観測環境示す環境情報とを含む情報である。機体情報には、飛翔体が観測に用いる光の周波数、光の偏波、パルス情報、及びビームパターンが含まれる。また、飛翔体が例えば、コンステレーションを形成している場合、コンステレーションの識別子、及び各飛翔体のコンステレーション内の号機番号又は識別子が機体情報に含まれてもよい。 The observation conditions include aircraft information, which is information based on the characteristics of the flying object, and environmental information that indicates the observation environment by the flying object. The aircraft information includes the frequency of light used by the flying object for observation, the polarization of light, pulse information, and the beam pattern. In addition, if the flying object forms, for example, a constellation, the constellation identifier and the unit number or identifier of each flying object within the constellation may be included in the aircraft information.
環境情報には、観測時の軌道方向(北行軌道ascending又は南行軌道descending)、軌道角度、観測時の観測方向(左又は右)、機体速度、機体の姿勢情報、及び受信系のパラメータが含まれる。環境情報には、観測データが画像データである場合、画像の解像度の情報を含まれてもよい。観測データがSAR画像データである場合、環境情報には、画像のピクセルごとに照射信号の入射角の情報が含まれてもよい。観測データに対してノイズ除去を行う場合、環境情報には、ノイズの情報、ノイズフィルタの種類、ノイズ除去のためのパラメータが含まれてもよい。 The environmental information includes the orbit direction at the time of observation (northbound orbit ascending or southbound orbit descending), orbit angle, observation direction at the time of observation (left or right), aircraft speed, aircraft attitude information, and parameters of the receiving system. If the observation data is image data, the environmental information may also include information on the resolution of the image. If the observation data is SAR image data, the environmental information may also include information on the angle of incidence of the irradiation signal for each pixel of the image. If noise removal is performed on the observation data, the environmental information may also include noise information, the type of noise filter, and parameters for noise removal.
統合データ生成部1014は、統合データを生成する処理を行う。統合データ生成部1014は、例えば、時刻T1における観測領域の情報であり人工衛星201によって観測される観測データD11と、時刻T2における観測領域の情報であり、人工衛星202によって観測される観測データD22とに基づいて、観測データD11に基づく第1情報と観測データD22に基づく第2情報とに基づく統合データID1を生成する。
The integrated
メタ情報取得部1015は、メタ情報出力モデル10121に、統合データを入力し、観測領域のメタ情報を取得する。取得されたメタ情報は、観測データ処理装置101が有する表示部によって観測データ処理装置101のユーザに提示されてもよく、観測データ処理装置101から他の情報処理装置に送信され、ユーザに提示されてもよい。
The meta
図5を参照して、統合データ生成処理について説明する。ステップS501において、観測データ取得部1013は、第1タイミングにおける第1観測データを取得する。例えば、観測データ取得部1013は、時刻T1における観測データD11を取得する。
The integrated data generation process will be described with reference to FIG. 5. In step S501, the observation
ステップS502において、観測データ取得部1013は、第2タイミングにおける第2観測データを取得する。例えば、観測データ取得部1013は、時刻T2における観測データD22を取得する。
In step S502, the observation
ステップS503において、統合データ生成部1014は、第1観測データに基づく第1情報を取得する。ここで、第1情報とは、例えば、第1観測データに基づいて生成された画像データや、人工衛星201からの信号又は画像データから得られたメタ情報である。つまり、統合データに含まれるデータは、観測データに基づく情報であればよい。また、第1情報とは、例えば、人工衛星201からの観測データそのものであってもよい。
In step S503, the integrated
ステップS504において、統合データ生成部1014は、第2観測データに基づく第2情報を取得する。第2情報は第1情報と同様の情報である。
In step S504, the integrated
ステップS505において、統合データ生成部1014は第1情報と第2情報とを含む統合データを生成する。このとき、統合データ生成部1014は生成された統合データを記憶部1012に記憶してもよい。また、統合データ生成部1014は生成された統合データを外部の情報処理装置に送信してもよい。
In step S505, the integrated
統合データ生成部1014は統合データの生成を観測データの取得の度に行ってもよい。例えば、統合データ生成部1014は、人工衛星201が時刻T4において観測領域を観測して得られた観測データD14が、時刻T4より前の時刻T1において得られた観測データD11に置き換わるように統合データを生成してもよい。
The integrated
図6を参照して、統合データに基づくメタ情報取得処理について説明する。ステップS601において、メタ情報取得部1015は、統合データ生成部1014が生成した統合データを取得する。メタ情報取得部1015は、例えば、記憶部1012に記憶された統合データを参照して、統合データを取得する。ステップS602において、メタ情報取得部1015は、統合データをメタ情報出力モデル10121に入力する。ステップS603において、メタ情報取得部1015はメタ情報出力モデル10121から観測領域のメタ情報を取得する。
The meta-information acquisition process based on the integrated data will be described with reference to FIG. 6. In step S601, the meta-
ここまでの処理により、観測データ処理装置101では複数の飛翔体を用いて観測領域を観測して得られるデータを高頻度に生成し、観測領域のメタ情報を取得することができる。
By carrying out the above processing, the observation
(第2実施形態)
第2実施形態について説明する。第2実施形態以降の実施形態では第1実施形態と共通の事柄についての記述を省略し、異なる点についてのみ説明する。第2実施形態は、変換モデルを使用した、観測データの変換が行われ、変換後のデータに基づいて統合データが生成される点で第1実施形態と異なる。
Second Embodiment
A second embodiment will be described. In the second and subsequent embodiments, a description of matters common to the first embodiment will be omitted, and only the differences will be described. The second embodiment differs from the first embodiment in that observed data is converted using a conversion model, and integrated data is generated based on the converted data.
図7には、第2実施形態に係る観測データ処理装置101Aのブロック図が示される。観測データ処理装置101Aは、観測データ処理装置101の各部に加えて、第1変換モデル10122、第2変換モデル10123を有する記憶部1012A及び変換観測データ取得部1016を有する。
Figure 7 shows a block diagram of an observation
図8を参照して第1変換モデル10122について説明する。第1変換モデル10122は、観測領域を観測して得られる第3観測データ、第3観測条件、及び第3観測タイミングの入力に対し、変換観測データを出力する学習モデルである。
The
第1変換モデル10122は学習用データLD2を教師データとして学習される。学習用データLD2には、学習用観測領域を観測して得られる学習用観測データ、学習用観測条件、及び学習用観測タイミングと、これらに対応する変換観測データとの組が含まれる。変換観測データは、第1観測条件の下で観測されたデータであり、その観測タイミングは学習用観測タイミングである。第1変換モデル10122は、学習用観測データ、学習用観測条件、及び学習用観測タイミングを入力、変換観測データを出力として学習される。
The
第1変換モデル10122は、あるタイミングにおける観測データを、その観測条件を変更して得られる観測データを生成するモデルである。第1変換モデル10122により、観測条件が異なる観測データは、ある観測条件(例えば、第1観測条件)による観測データに変換され、統合データが生成される。
The
変換観測データ取得部1016は、後述の第1変換モデル10122,第2変換モデル10123を用いて、観測データが変換された変換観測データを取得する。
The converted observation
図9及び図10を参照して、観測データ処理装置101Aにおける、第1変換モデル10122を用いた統合データの生成処理について説明する。ここでは、人工衛星201,202,203は共通の観測方式(例えば、SAR方式)に基づいて観測データを取得するものとする。また、観測システム10は、人工衛星201,202,203とは異なる観測方式(例えば、光学方式)に基づいて観測データを取得する人工衛星204をさらに含む。
The process of generating integrated data using the
ステップS901において、観測データ取得部1013は、第1タイミングにおける第1観測データを取得する。例えば、観測データ取得部1013は、時刻T1における観測データD11を取得する。
In step S901, the observation
ステップS902において、観測データ取得部1013は、第2タイミングにおける第2観測データを取得する。例えば、観測データ取得部1013は、時刻T2における観測データD42を取得する。
In step S902, the observation
ステップS903において、観測データ取得部1013は、第3タイミングにおける第3観測データを取得する。例えば、観測データ取得部1013は、時刻T3における観測データD23を取得する。
In step S903, the observation
ステップS904において、変換観測データ取得部1016は、第3観測データに対する第3観測条件を取得する。例えば、変換観測データ取得部1016は、観測データD23に対する観測条件を取得する。より具体的には、人工衛星202の機体情報及び観測データD23の観測環境の環境情報を観測条件として取得する。
In step S904, the converted observation
ステップS905において、変換観測データ取得部1016は、第1変換モデル10122に、第3観測データと第3観測条件と第3タイミングとを入力する。例えば、変換観測データ取得部1016は、第1変換モデル10122に観測データD23と観測データD23に対する観測条件と、時刻T3とを入力する。
In step S905, the converted observation
ステップS906において、変換観測データ取得部1016は、第3観測データが変換された変換観測データを取得する。例えば、変換観測データ取得部1016は、観測データD23が変換された変換観測データD13を第1変換モデル10122から取得する。
In step S906, the converted observation
ステップS907において、統合データ生成部1014は、第1情報を変換観測データに基づく第1情報によって更新して、第1情報と第2情報とを含む統合データを生成する。例えば、統合データ生成部1014は、観測データD11と観測データD42とが統合された統合データID2を生成する。次に、統合データ生成部1014は、観測データD11が変換観測データD13によって更新された統合データID3を生成する。
In step S907, the integrated
同様に、統合データ生成部1014は、観測データD34が変換された変換観測データD14に基づく統合データID4を生成する。また、統合データ生成部1014は、統合データにおいて、変換観測データD14が、観測データD15によって更新された統合データID5を生成する。
Similarly, the integrated
これにより、例えば、人工衛星201と、人工衛星202及び人工衛星203との間に機体特性の差異や観測環境の差異がある場合であっても、統合データの生成に用いられる観測データを、人工衛星201の観測条件の下で観測されたデータとして揃えることが可能となる。これにより、観測手段間の差異が抑えられた統合データが生成される。また、人工衛星201の観測条件の下で観測されたデータを高頻度に生成することが可能となり、結果として統合データを高頻度に更新することが可能となる。このような統合データを用いることで観測領域のメタ情報がより精度よく取得可能となる。
As a result, even if there are differences in aircraft characteristics or observation environments between
図11を参照して、第2変換モデル10123について説明する。第2変換モデル10123は、観測領域を観測して得られる第1観測データ、第1観測条件、及び第1観測タイミングの入力に対し、変換観測データを出力する学習モデルである。
The
第2変換モデル10123は学習用データLD3を教師データとして学習される。学習用データLD3には、学習用観測領域を観測して得られる学習用観測データ、学習用観測条件、及び学習用観測タイミングと、これらに対応する変換観測データとの組が含まれる。変換観測データは、基準観測条件の下で観測されたデータであり、その観測タイミングは学習用観測タイミングである。学習モデル10212は、学習用観測データ、学習用観測条件、及び学習用観測タイミングを入力、変換観測データを出力として学習される。ここで、基準観測条件とは、人工衛星201,202,203のそれぞれの観測条件とは異なる所定の観測条件である。基準観測条件はユーザにより予め定められた条件である。
The
第2変換モデル10123は、あるタイミングにおける観測データを、その観測条件を変更して得られる観測データを生成するモデルである。第2変換モデル10123により、観測条件が異なる観測データは、基準観測条件による観測データに変換され、統合データが生成される。
The
図12及び図13を参照して、観測データ処理装置101Aにおける、第2変換モデル10123を用いた統合データの生成処理について説明する。ここでは、人工衛星201,202,203は共通の観測方式(例えば、SAR方式)に基づいて観測データを取得するものとする。また、観測システム10は、人工衛星201,202,203とは異なる観測方式(例えば、光学方式)に基づいて観測データを取得する人工衛星204をさらに含む。
The process of generating integrated data using the
ステップS1201において、観測データ取得部1013は、第1タイミングにおける第1観測データを取得する。例えば、観測データ取得部1013は、時刻T1における観測データD11を取得する。
In step S1201, the observation
ステップS1202において、変換観測データ取得部1016は、第1観測データに対する第1観測条件を取得する。例えば、変換観測データ取得部1016は、観測データD11に対する観測条件を取得する。より具体的には、人工衛星201の機体情報及び観測環境の環境情報を観測条件として取得する。
In step S1202, the converted observation
ステップS1203において、変換観測データ取得部1016は、第2変換モデル10123に、第1観測データと第1観測条件と第1タイミングとを入力する。例えば、変換観測データ取得部1016は、第2変換モデル10123に観測データD11と観測データD11に対する観測条件と、時刻T1とを入力する。
In step S1203, the converted observation
ステップS1204において、変換観測データ取得部1016は、第1観測データが変換された第1変換観測データを取得する。例えば、変換観測データ取得部1016は、観測データD11が変換された変換観測データD51を第1変換モデル10122から取得する。
In step S1204, the converted observation
ステップS1205において、観測データ取得部1013は、第2タイミングにおける第2観測データを取得する。例えば、観測データ取得部1013は、時刻T2における観測データD42を取得する。
In step S1205, the observation
ステップS1206において、統合データ生成部1014は、第1変換観測データに基づく第1情報と第2観測データに基づく第2情報とに基づく統合データを生成する。例えば、統合データ生成部1014は、変換観測データD51と観測データD42に基づく統合データID2を生成する。
In step S1206, the integrated
ステップS1207において、観測データ取得部1013は、第3タイミングにおける第3観測データを取得する。例えば、観測データ取得部1013は、時刻T3における観測データD23を取得する。
In step S1207, the observation
ステップS1208において、変換観測データ取得部1016は、第3観測データに対する第3観測条件を取得する。例えば、変換観測データ取得部1016は、観測データD23に対する観測条件を取得する。より具体的には、人工衛星201の機体情報及び観測環境の環境情報を観測条件として取得する。
In step S1208, the converted observation
ステップS1209において、変換観測データ取得部1016は、第2変換モデル10123に、第3観測データと第3観測条件と第3タイミングとを入力する。例えば、変換観測データ取得部1016は、第2変換モデル10123に観測データD23と観測データD23に対する観測条件と、時刻T3とを入力する。
In step S1209, the converted observation
ステップS1210において、変換観測データ取得部1016は、第3観測データが変換された第3変換観測データを取得する。例えば、変換観測データ取得部1016は、観測データD23が変換された変換観測データD53を第1変換モデル10122から取得する。
In step S1210, the converted observation
ステップS1211において、統合データ生成部1014は、第1変換観測データに基づく第1情報を第2変換観測データに基づく第1情報によって更新して、第1情報と第2情報とを含む統合データを生成する。例えば、統合データ生成部1014は、観測データD51が変換観測データD53によって更新された統合データID3を生成する。
In step S1211, the integrated
同様に、統合データ生成部1014は、観測データD34が変換された変換観測データD54に基づく統合データID4を生成する。また、統合データ生成部1014は、観測データD15が変換された変換観測データD55に基づく統合データID5を生成する。
Similarly, the integrated
これにより、例えば、人工衛星201と、人工衛星202及び人工衛星203との間に機体特性の差異や観測環境の差異がある場合であっても、統合データの生成に用いられる観測データを、所定の観測条件の下で観測されたデータとして揃えることが可能となる。これにより、観測手段間の差異が抑えられた統合データが生成される。このような統合データを用いることで観測領域のメタ情報がより精度よく取得可能となる。
As a result, even if there are differences in aircraft characteristics or observation environments between
(第3実施形態)
第3実施形態について説明する。第3実施形態は、推測モデルを使用した観測データの推測が行われ、推測されたデータに基づいて統合データが生成される点で第1実施形態及び第2実施形態と異なる。ここで、観測データの推測とは、あるタイミングで観測される観測データを他の観測データから推測することを意味する。
Third Embodiment
A third embodiment will be described. The third embodiment differs from the first and second embodiments in that observation data is predicted using a prediction model, and integrated data is generated based on the predicted data. Here, prediction of observation data means prediction of observation data observed at a certain timing from other observation data.
図14には、第3実施形態に係る観測データ処理装置101Bのブロック図が示される。観測データ処理装置101Bは、観測データ処理装置101の各部に加えて、第1推測モデル10124、第2推測モデル10125、及び第3推測モデル10126を有する記憶部1012B及び推測観測データ取得部1017を有する。推測観測データ取得部1017は、後述の第1推測モデル10124、第2推測モデル10125、又は第3推測モデル10126を用いて、観測データが推測された推測観測データを取得する。
Figure 14 shows a block diagram of an observation
図15を参照して第1推測モデル10124について説明する。第1推測モデル10124は、観測領域を観測して得られる第1観測データ及び第2観測タイミングの入力に対し、推測観測データを出力する学習モデルである。入力される第1観測データは、第1観測方式(例えば、SAR方式)に基づいて観測されたデータであり、出力される推測観測データは、第1観測方式とは異なる第2観測方式(例えば、光学方式)に基づいて観測されたデータである。
The
第1推測モデル10124は学習用データLD4を教師データとして学習される。学習用データLD4には、学習用観測領域を観測して得られる学習用観測データ及び学習用観測タイミングAとこれらに対応する推測観測データとの組が含まれる。推測観測データは、第1観測方式に基づいて観測されたデータであり、その観測タイミングはタイミングAである。第1推測モデル10124は、学習用観測データ及び学習用観測タイミングを入力、推測観測データを出力として学習される。
The
第1推測モデル10124は、あるタイミングにおける観測データを、その観測方式を他の観測方式に変更して得られる観測データを生成するモデルである。第1推測モデル10124により、観測方式が異なる観測データが、ある観測データに基づいて推測され、統合データが生成される。
The
図16及び図17を参照して、観測データ処理装置101Bにおける、第1推測モデル10124を用いた統合データの生成処理について説明する。ここでは、人工衛星201は第1観測方式(例えば、SAR方式)に基づいて観測データを取得し、人工衛星202,204は第2観測方式(例えば、光学方式)に基づいて観測データを取得し、人工衛星203は第3観測方式(例えば、気象データを用いる観測方式)に基づいて観測データを取得し、するものとする。
The process of generating integrated data using the
ステップS1601において、観測データ取得部1013は、第1タイミングにおける第1観測データを取得する。例えば、観測データ取得部1013は、時刻T1における観測データD11を取得する。
In step S1601, the observation
ステップS1602において、観測データ取得部1013は、第2タイミングにおける第2観測データを取得する。例えば、観測データ取得部1013は、時刻T2における観測データD42を取得する。
In step S1602, the observation
ステップS1603において、観測データ取得部1013は、第3タイミングにおける第3観測データを取得する。例えば、観測データ取得部1013は、時刻T3における観測データD23を取得する。
In step S1603, the observation
ステップS1604において、変換観測データ取得部1016は、第3観測データに対する第3観測条件を取得する。例えば、変換観測データ取得部1016は、観測データD23に対する観測条件を取得する。より具体的には、人工衛星202の機体情報及び観測データD23の観測環境の環境情報を観測条件として取得する。
In step S1604, the converted observation
ステップS1605において、変換観測データ取得部1016は、第1推測モデル10124に、第3観測データと第3観測条件と第3タイミングとを入力する。例えば、変換観測データ取得部1016は、第1変換モデル10122に観測データD23と観測データD23に対する観測条件と、時刻T3とを入力する。
In step S1605, the converted observation
ステップS1606において、変換観測データ取得部1016は、第3観測データが変換された変換観測データを取得する。例えば、変換観測データ取得部1016は、観測データD23が変換された推測観測データD13を第1推測モデル10124から取得する。
In step S1606, the converted observation
ステップS1607において、統合データ生成部1014は、第1情報を推測観測データに基づいて更新して、第1情報と第2情報とを含む統合データを生成する。例えば、統合データ生成部1014は、観測データD11と観測データD42とが統合された統合データID2を生成する。次に、統合データ生成部1014は、観測データD11が推測観測データD13によって更新された統合データID3を生成する。
In step S1607, the integrated
同様に、統合データ生成部1014は、観測データD34が変換された変換観測データD14に基づく統合データID4を生成する。また、統合データ生成部1014は、統合データにおいて、変換観測データD14が、観測データD15によって更新された統合データID5を生成する。
Similarly, the integrated
これにより、例えば、人工衛星201、人工衛星202、及び人工衛星203の間に観測方式の差異がある場合であっても、統合データの生成に用いられる観測データを、ある観測方式、例えば、人工衛星201の観測方式の下で観測されたデータとして揃えることが可能となる。また、人工衛星201の観測方式の下で観測されたデータを高頻度に生成することが可能となる。これにより、観測方式間の差異が揃えられ、高頻度に統合データが生成される。このような統合データを用いることで観測領域のメタ情報がより精度よく取得可能となる。
As a result, even if there are differences in the observation methods between
図18を参照して第2推測モデル10125について説明する。第2推測モデル10125は、観測領域を観測して得られる第1観測データ、第1観測タイミング、及び第2観測タイミングの入力に対し、推測観測データを出力する学習モデルである。入力される第1観測データは、第1観測方式(例えば、SAR方式)に基づいて観測されたデータであり、出力される推測観測データは、第1観測方式とは異なる第2観測方式(例えば、光学方式)に基づいて観測されたデータである。
The
第2推測モデル10125は学習用データLD5を教師データとして学習される。学習用データLD5には、学習用観測領域を観測して得られる学習用観測データ、学習用観測タイミングA、及び学習用観測タイミングAとは異なるタイミングBとこれらに対応する推測観測データとの組が含まれる。推測観測データは、第1観測方式に基づいて観測されたデータであり、その観測タイミングはタイミングBである。第2推測モデル10125は、学習用観測データ、学習用観測タイミング、及びタイミングBを入力、推測観測データを出力として学習される。
The
第2推測モデル10125は、あるタイミングにおける観測データを、その観測方式を他の観測方式に変更し、他のタイミングにおいて得られる観測データを生成するモデルである。第2推測モデル10125により、観測方式及び観測タイミングが異なる観測データが、ある観測データに基づいて推測され、統合データが生成される。
The
図19及び図22を参照して、観測データ処理装置101Bにおける、第2推測モデル10125を用いた統合データの生成処理について説明する。ここでは、人工衛星201,203は第1観測方式(例えば、SAR方式)に基づいて観測データを取得し、人工衛星202は第2観測方式(例えば、光学方式)に基づいて観測データを取得するものとする。
The process of generating integrated data using the
ステップS1901において、観測データ取得部1013は、第1タイミングにおける第1観測データを取得する。例えば、観測データ取得部1013は、時刻T2における観測データD22を取得する。
In step S1901, the observation
ステップS1902において、推測観測データ取得部1017は、第1推測モデルに第1観測データと、第1タイミングと、第2タイミングとを入力する。例えば、図22に示されるように、推測観測データ取得部1017は、観測データD22と、時刻T2と、時刻T3とを第2推測モデル10125に入力する。
In step S1902, the inferred observation
ステップS1903において、推測観測データ取得部1017は、第2推測モデル10125から、第2タイミングにおける推測観測データを取得する。例えば、図22に示されるように、推測観測データ取得部1017は、時刻T3における推測観測データD63を第2推測モデル10125から取得する。
In step S1903, the inferred observation
ステップS1904において、統合データ生成部1014は、第1観測データに基づく第1情報と推測観測データに基づく第2情報とに基づく統合データを生成する。例えば、図22に示されるように、統合データ生成部1014は、観測データD11と推測観測データD63に基づく統合データID3を生成する。
In step S1904, the integrated
これにより、例えば、人工衛星202と、人工衛星201及び人工衛星203との間に観測方式の差異がある場合であっても、統合データの生成に用いられる観測データを、人工衛星201及び人工衛星203の観測方式の下で観測されたデータとして揃えることが可能となる。これにより、観測手段間の差異が抑えられた統合データが生成される。このような統合データを用いることで観測領域のメタ情報がより精度よく取得可能となる。
As a result, even if there is a difference in the observation method between
図20を参照して第3推測モデル10126について説明する。第3推測モデル10126は、観測領域を観測して得られる第1観測データ、第1観測タイミングより前の第3観測タイミング、及び第1観測タイミングの入力に対し、推測観測データを出力する学習モデルである。入力される第1観測データと出力される推測観測データとは、共通の観測方式(例えば、SAR方式)に基づいて観測されたデータである。第3推測モデル10126は、時系列回帰予測を行い、推測観測データを生成するモデルである。
The
第3推測モデル10126は学習用データLD6を教師データとして学習される。学習用データLD6には、学習用観測領域を観測して得られる学習用観測データ、学習用観測タイミングA、及び学習用観測タイミングAより前のタイミングCとこれらに対応する推測観測データとの組が含まれる。学習用観測データ及び推測観測データは、第1観測方式に基づいて観測されたデータであり、その観測タイミングはタイミングCである。第3推測モデル10126は、学習用観測データ、学習用観測タイミング、及びタイミングCを入力、推測観測データを出力として学習される。
The
第3推測モデル10126は、あるタイミングにおける観測データに基づいて、観測方式を変更することなく、当該タイミング以降のタイミングにおいて得られる観測データを生成するモデルである。第3推測モデル10126により、観測タイミングが異なる観測データが、ある観測データに基づいて推測され、統合データが生成される。
The
図20及び図21を参照して、観測データ処理装置101Bにおける、第3推測モデル10126を用いた統合データの生成処理について説明する。ここでは、人工衛星201,203は第1観測方式(例えば、SAR方式)に基づいて観測データを取得し、人工衛星202は第2観測方式(例えば、光学方式)に基づいて観測データを取得するものとする。
The process of generating integrated data using the
ステップS2101において、観測データ取得部1013は、第1タイミングより前の第3タイミングで観測領域が観測された場合の第3観測データを取得する。例えば、観測データ取得部1013は、時刻T5より前の時刻T2で観測領域が観測された場合の観測データD22を取得する。
In step S2101, the observation
ステップS2102において、推測観測データ取得部1017は、推測モデルに第3観測データと第3タイミングと第1タイミングとを入力する。例えば、図22に示されるように、推測観測データ取得部1017は、観測データD22と、時刻T2と、時刻T5とを第3推測モデル10126に入力する。
In step S2102, the inferred observation
ステップS2103において、推測観測データ取得部1017は、第3推測モデル10126から、第1タイミングにおける推測観測データを取得する。例えば、図22に示されるように、推測観測データ取得部1017は、時刻T5における推測観測データD75を第3推測モデル10126から取得する。
In step S2103, the inferred observation
ステップS2104において、統合データ生成部1014は、第1タイミングにおける推測観測データに基づく第1情報と第2観測データに基づく第2情報とに基づく統合データを生成する。例えば、図22に示されるように、統合データ生成部1014は、推測観測データD53と、観測データD14とに基づく統合データID5を生成する。
In step S2104, the integrated
これにより、例えば、人工衛星202がある時点で観測を行うことができなかった場合であっても、統合データの生成に用いられる観測データを推測して統合データとすることが可能となる。これにより、観測データの一部が得られない場合であっても、時間間隔が短い統合データを生成することができる。このような統合データを用いることで観測領域のメタ情報がより精度よく取得可能となる。
As a result, even if, for example, the
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The elements of the embodiments, as well as their arrangement, conditions, shape, size, etc., are not limited to those exemplified, and may be modified as appropriate. In addition, configurations shown in different embodiments may be partially substituted or combined.
10…観測システム、101,101A,101B…観測データ処理装置、201,202,203…人工衛星、1013…観測データ取得部、1014…統合データ生成部、1015…メタ情報取得部、1016…変換観測データ取得部、1017…推測観測データ取得部 10...observation system, 101, 101A, 101B...observation data processing device, 201, 202, 203...artificial satellite, 1013...observation data acquisition unit, 1014...integrated data generation unit, 1015...meta information acquisition unit, 1016...converted observation data acquisition unit, 1017...estimated observation data acquisition unit
Claims (16)
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測条件の下で観測された第1観測データと前記第1観測条件とを取得することと、
前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって第2観測条件の下で観測されたデータであり、前記第1観測データと共通の観測方式に基づいて観測された第2観測データを取得することと、
学習観測領域の情報である学習観測データと前記学習観測データに対応する学習観測条件と前記学習観測データが観測された学習観測タイミングとが入力され、前記学習観測データが変換された変換観測データであって、前記学習観測タイミングにおいて前記学習観測領域が前記第1観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、前記第2観測データと前記第2観測条件と前記第2タイミングとを入力し、前記第2観測データが変換された変換観測データを取得することと、
前記第1観測データに基づく第1情報と前記変換観測データに基づく第2情報とを含む統合データを生成することと、を実行させる、プログラム。 On the computer,
acquiring first observation data, which is information on an observation area at a first timing and is observed under first observation conditions by a first flying object, and the first observation conditions;
acquiring second observation data, which is information on the observation area at a second timing different from the first timing, observed under second observation conditions by a second flying object different from the first flying object, and observed based on an observation method common to the first observation data;
inputting the second observation data, the second observation conditions, and the second timing into a conversion model which receives learning observation data, which is information about a learning observation area, learning observation conditions corresponding to the learning observation data, and a learning observation timing at which the learning observation data was observed, and outputs converted observation data into which the learning observation data is converted, the converted observation data indicating data observed in the learning observation area under the first observation conditions at the learning observation timing, and acquiring the converted observation data into which the second observation data is converted;
generating integrated data including first information based on the first observation data and second information based on the converted observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測条件の下で観測された第1観測データと前記第1観測条件とを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed under first observation conditions by a first flying object, and the first observation conditions;
前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって第2観測条件の下で観測されたデータであり、前記第1観測データと共通の観測方式に基づいて観測された第2観測データを取得することと、acquiring second observation data, which is information on the observation area at a second timing different from the first timing, observed under second observation conditions by a second flying object different from the first flying object, and observed based on an observation method common to the first observation data;
学習観測領域の情報である学習観測データと、前記学習観測データに対応する学習観測条件と、前記学習観測データが観測された学習観測タイミングと、が入力され、前記学習観測データが変換された変換観測データであって、前記学習観測タイミングにおいて前記観測領域が基準観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、前記第1観測データと前記第1観測条件と前記第1タイミングとを入力し、前記第1観測データが変換された前記変換観測データとして第1変換観測データを取得することと、a conversion model that receives input of learning observation data, which is information on a learning observation area, learning observation conditions corresponding to the learning observation data, and a learning observation timing at which the learning observation data was observed, and outputs converted observation data obtained by converting the learning observation data, the converted observation data indicating data observed in the observation area under reference observation conditions at the learning observation timing, inputting the first observation data, the first observation conditions, and the first timing, and acquiring first converted observation data as the converted observation data obtained by converting the first observation data;
前記変換モデルに、前記第2観測データと前記第2観測条件と前記第2タイミングとを入力し、前記第2タイミングにおける前記第2観測データが変換された前記変換観測データとして第2変換観測データを取得することと、inputting the second observation data, the second observation condition, and the second timing into the conversion model, and acquiring second converted observation data as the converted observation data obtained by converting the second observation data at the second timing;
前記第1変換観測データに基づく第1情報と前記第2変換観測データに基づく第2情報とを含む統合データを生成することと、を実行させる、プログラム。generating integrated data including first information based on the first converted observation data and second information based on the second converted observation data.
前記第1観測条件は、前記第1飛翔体の第1機体情報と、前記第1飛翔体による観測環境を示す第1環境情報とを含み、
前記第2観測条件は、前記第2飛翔体の第2機体情報と、前記第2飛翔体による観測環境を示す第2環境情報とを含む、プログラム。 3. The program according to claim 1 or 2 ,
the first observation condition includes first aircraft information of the first flying object and first environmental information indicating an observation environment by the first flying object;
The second observation condition includes second aircraft information of the second flying object and second environmental information indicating an observation environment by the second flying object .
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測方式に基づいて観測された第1観測データを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed by a first flying object based on a first observation method;
前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって前記第1観測方式とは異なる第2観測方式に基づいて観測された第2観測データを取得することと、acquiring second observation data, which is information on the observation area at a second timing different from the first timing, observed by a second flying object different from the first flying object based on a second observation method different from the first observation method;
学習観測データと、前記学習観測データが観測された学習観測タイミングとが入力され、前記学習観測タイミングにおいて前記第1観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第2観測データと、前記第2タイミングとを入力し、前記第2タイミングにおける前記推測観測データを取得することと、inputting the second observation data and the second timing into an estimation model which receives learning observation data and a learning observation timing at which the learning observation data was observed, and outputs estimated observation data indicating data at which the observation domain was observed based on the first observation method at the learning observation timing, and acquiring the estimated observation data at the second timing;
前記第1観測データに基づく第1情報と前記推測観測データに基づく第2情報とを含む統合データを生成することと、を実行させる、プログラム。generating integrated data including first information based on the first observation data and second information based on the estimated observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測方式に基づいて観測された第1観測データを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed by a first flying object based on a first observation method;
学習観測データと、前記学習観測データが観測された学習観測タイミングと、前記学習観測タイミングとは異なるタイミングとが入力され、前記異なるタイミングにおいて前記第1観測方式とは異なる第2観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第1観測データと、前記第1タイミングと、前記第1タイミングとは異なる第2タイミングとを入力し、前記第2タイミングにおける前記推測観測データを取得することと、inputting the first observation data, the first timing, and a second timing different from the first timing into an estimation model which receives as input learning observation data, a learning observation timing at which the learning observation data was observed, and a timing different from the learning observation timing, and outputs estimated observation data indicating data obtained by observing the observation area based on a second observation method different from the first observation method at the different timing, the first observation data, the first timing, and a second timing different from the first timing, and acquiring the estimated observation data at the second timing;
前記第1観測データに基づく第1情報と前記推測観測データに基づく第2情報とを含む統合データを生成することと、を実行させる、プログラム。generating integrated data including first information based on the first observation data and second information based on the estimated observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測方式に基づいて観測される第1観測データと、前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって前記第1観測方式とは異なる第2観測方式に基づいて観測される第2観測データとに基づいて、前記第1観測データに基づく第1情報と前記第2観測データに基づく第2情報とを含む統合データを生成することと、generating integrated data including first information based on the first observation data and second information based on the second observation data, the first information being information on an observation area at a first timing, the first observation data being observed by a first flying object based on a first observation method, and second observation data being information on the observation area at a second timing different from the first timing, the second observation data being observed by a second flying object different from the first flying object based on a second observation method different from the first observation method;
前記第1タイミングより前の第3タイミングで前記観測領域が観測された場合の第3観測データを取得することと、acquiring third observation data when the observation area is observed at a third timing that is earlier than the first timing;
学習観測データと前記学習観測データが観測された学習観測タイミングと、前記学習観測タイミングより後の予測タイミングとが入力され、前記予測タイミングにおいて前記第1観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第3観測データと前記第3タイミングと前記第1タイミングとを入力し、前記第1タイミングにおける前記推測観測データを取得することと、を実行させ、inputting the third observation data, the third timing, and the first timing into an estimation model which receives learning observation data, a learning observation timing at which the learning observation data was observed, and a prediction timing after the learning observation timing, and outputs estimated observation data indicating data at which the observation region was observed based on the first observation method at the prediction timing, and acquiring the estimated observation data at the first timing;
前記統合データを生成することは、generating the integrated data,
前記第1タイミングにおける前記推測観測データに基づく前記第1情報を含む前記統合データを生成することを含む、プログラム。generating the integrated data including the first information based on the estimated observation data at the first timing.
学習観測領域の情報である学習観測データと前記学習観測データに対応する学習観測条件と前記学習観測データが観測された学習観測タイミングとが入力され、前記学習観測データが変換された変換観測データであって、前記学習観測タイミングにおいて前記学習観測領域が前記第1観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、前記第2観測データと前記第2観測条件と前記第2タイミングとを入力し、前記第2観測データが変換された変換観測データを取得する変換観測データ取得部と、
前記第1観測データに基づく第1情報と前記変換観測データに基づく第2情報とを含む統合データを生成する統合データ生成部と、を備える、情報処理装置。 an observation data acquisition unit that acquires first observation data, which is information about an observation area at a first timing, observed by a first flying object under first observation conditions, and the first observation conditions, and acquires second observation data, which is information about the observation area at a second timing different from the first timing, observed by a second flying object different from the first flying object under second observation conditions, and observed based on an observation method common to the first observation data;
a converted observation data acquisition unit which inputs the second observation data, the second observation conditions and the second timing into a conversion model which receives input of learning observation data, which is information about a learning observation area, learning observation conditions corresponding to the learning observation data, and a learning observation timing at which the learning observation data was observed, and outputs converted observation data obtained by converting the learning observation data, the converted observation data indicating data observed in the learning observation area under the first observation conditions at the learning observation timing, and acquires the converted observation data obtained by converting the second observation data;
an integrated data generation unit that generates integrated data including first information based on the first observation data and second information based on the converted observation data.
学習観測領域の情報である学習観測データと、前記学習観測データに対応する学習観測条件と、前記学習観測データが観測された学習観測タイミングと、が入力され、前記学習観測データが変換された変換観測データであって、前記学習観測タイミングにおいて前記観測領域が基準観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、前記第1観測データと前記第1観測条件と前記第1タイミングとを入力し、前記第1観測データが変換された前記変換観測データとして第1変換観測データを取得し、前記変換モデルに、前記第2観測データと前記第2観測条件と前記第2タイミングとを入力し、前記第2タイミングにおける前記第2観測データが変換された前記変換観測データとして第2変換観測データを取得する変換観測データ取得部と、a converted observation data acquisition unit that inputs the first observation data, the first observation condition, and the first timing into a conversion model that receives input of learning observation data, which is information about a learning observation area, learning observation conditions corresponding to the learning observation data, and a learning observation timing at which the learning observation data was observed, and outputs converted observation data obtained by converting the learning observation data, the converted observation data indicating data observed in the observation area under reference observation conditions at the learning observation timing, and acquires first converted observation data as the converted observation data obtained by converting the first observation data, and inputs the second observation data, the second observation condition, and the second timing into the conversion model, and acquires second converted observation data as the converted observation data obtained by converting the second observation data at the second timing;
前記第1変換観測データに基づく第1情報と前記第2変換観測データに基づく第2情報とを含む統合データを生成する統合データ生成部と、を備える、情報処理装置。an integrated data generation unit that generates integrated data including first information based on the first converted observation data and second information based on the second converted observation data.
学習観測データと、前記学習観測データが観測された学習観測タイミングとが入力され、前記学習観測タイミングにおいて前記第1観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第2観測データと、前記第2タイミングとを入力し、前記第2タイミングにおける前記推測観測データを取得する推測観測データ取得部と、an inferred observation data acquisition unit that inputs the second observation data and the second timing to an inference model that receives learning observation data and a learning observation timing at which the learning observation data was observed, and outputs inferred observation data indicating data at which the observation domain was observed based on the first observation method at the learning observation timing, and acquires the inferred observation data at the second timing;
前記第1観測データに基づく第1情報と前記推測観測データに基づく第2情報とを含む統合データを生成する統合データ生成部と、を備える、情報処理装置。an integrated data generation unit that generates integrated data including first information based on the first observation data and second information based on the estimated observation data.
学習観測データと、前記学習観測データが観測された学習観測タイミングと、前記学習観測タイミングとは異なるタイミングとが入力され、前記異なるタイミングにおいて前記第1観測方式とは異なる第2観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第1観測データと、前記第1タイミングと、前記第1タイミングとは異なる第2タイミングとを入力し、前記第2タイミングにおける前記推測観測データを取得する推測観測データ取得部と、an inferred observation data acquisition unit that inputs learning observation data, a learning observation timing at which the learning observation data was observed, and a timing different from the learning observation timing, and outputs inferred observation data indicating data observed in the observation area based on a second observation method different from the first observation method at the different timing, and inputs the first observation data, the first timing, and a second timing different from the first timing to an inferred observation data acquisition unit that acquires the inferred observation data at the second timing;
前記第1観測データに基づく第1情報と前記推測観測データに基づく第2情報とを含む統合データを生成する統合データ生成部と、を備える、情報処理装置。an integrated data generation unit that generates integrated data including first information based on the first observation data and second information based on the estimated observation data.
前記第1タイミングより前の第3タイミングで前記観測領域が観測された場合の第3観測データを取得する観測データ取得部と、an observation data acquisition unit that acquires third observation data when the observation area is observed at a third timing that is earlier than the first timing;
学習観測データと前記学習観測データが観測された学習観測タイミングと、前記学習観測タイミングより後の予測タイミングとが入力され、前記予測タイミングにおいて前記第1観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第3観測データと前記第3タイミングと前記第1タイミングとを入力し、前記第1タイミングにおける前記推測観測データを取得する推測観測データ取得部と、を備え、an estimated observation data acquisition unit that inputs the third observation data, the third timing, and the first timing to an estimation model that receives learning observation data, a learning observation timing at which the learning observation data was observed, and a prediction timing after the learning observation timing, and outputs estimated observation data indicating data at which the observation area was observed based on the first observation method at the prediction timing, and acquires the estimated observation data at the first timing;
前記統合データ生成部は、The integrated data generation unit
前記第1タイミングにおける前記推測観測データに基づく前記第1情報を含む前記統合データを生成する、情報処理装置。An information processing device that generates the integrated data including the first information based on the estimated observation data at the first timing.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測条件の下で観測された第1観測データと前記第1観測条件とを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed under first observation conditions by a first flying object, and the first observation conditions;
前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって第2観測条件の下で観測されたデータであり、前記第1観測データと共通の観測方式に基づいて観測された第2観測データを取得することと、acquiring second observation data, which is information on the observation area at a second timing different from the first timing, observed under second observation conditions by a second flying object different from the first flying object, and observed based on an observation method common to the first observation data;
学習観測領域の情報である学習観測データと前記学習観測データに対応する学習観測条件と前記学習観測データが観測された学習観測タイミングとが入力され、前記学習観測データが変換された変換観測データであって、前記学習観測タイミングにおいて前記学習観測領域が前記第1観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、前記第2観測データと前記第2観測条件と前記第2タイミングとを入力し、前記第2観測データが変換された変換観測データを取得することと、inputting the second observation data, the second observation conditions, and the second timing into a conversion model which receives learning observation data, which is information about a learning observation area, learning observation conditions corresponding to the learning observation data, and a learning observation timing at which the learning observation data was observed, and outputs converted observation data into which the learning observation data is converted, the converted observation data indicating data observed in the learning observation area under the first observation conditions at the learning observation timing, and acquiring the converted observation data into which the second observation data is converted;
前記第1観測データに基づく第1情報と前記変換観測データに基づく第2情報とを含む統合データを生成することと、を含む、情報処理方法。generating integrated data including first information based on the first observation data and second information based on the converted observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測条件の下で観測された第1観測データと前記第1観測条件とを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed under first observation conditions by a first flying object, and the first observation conditions;
前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって第2観測条件の下で観測されたデータであり、前記第1観測データと共通の観測方式に基づいて観測された第2観測データを取得することと、acquiring second observation data, which is information on the observation area at a second timing different from the first timing, observed under second observation conditions by a second flying object different from the first flying object, and observed based on an observation method common to the first observation data;
学習観測領域の情報である学習観測データと、前記学習観測データに対応する学習観測条件と、前記学習観測データが観測された学習観測タイミングと、が入力され、前記学習観測データが変換された変換観測データであって、前記学習観測タイミングにおいて前記観測領域が基準観測条件の下で観測されたデータを示す変換観測データを出力する変換モデルに、前記第1観測データと前記第1観測条件と前記第1タイミングとを入力し、前記第1観測データが変換された前記変換観測データとして第1変換観測データを取得することと、a conversion model that receives input of learning observation data, which is information on a learning observation area, learning observation conditions corresponding to the learning observation data, and a learning observation timing at which the learning observation data was observed, and outputs converted observation data obtained by converting the learning observation data, the converted observation data indicating data observed in the observation area under reference observation conditions at the learning observation timing, inputting the first observation data, the first observation conditions, and the first timing, and acquiring first converted observation data as the converted observation data obtained by converting the first observation data;
前記変換モデルに、前記第2観測データと前記第2観測条件と前記第2タイミングとを入力し、前記第2タイミングにおける前記第2観測データが変換された前記変換観測データとして第2変換観測データを取得することと、inputting the second observation data, the second observation condition, and the second timing into the conversion model, and acquiring second converted observation data as the converted observation data obtained by converting the second observation data at the second timing;
前記第1変換観測データに基づく第1情報と前記第2変換観測データに基づく第2情報とを含む統合データを生成することと、を含む、情報処理方法。generating integrated data including first information based on the first converted observation data and second information based on the second converted observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測方式に基づいて観測された第1観測データを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed by a first flying object based on a first observation method;
前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって前記第1観測方式とは異なる第2観測方式に基づいて観測された第2観測データを取得することと、acquiring second observation data, which is information on the observation area at a second timing different from the first timing, observed by a second flying object different from the first flying object based on a second observation method different from the first observation method;
学習観測データと、前記学習観測データが観測された学習観測タイミングとが入力され、前記学習観測タイミングにおいて前記第1観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第2観測データと、前記第2タイミングとを入力し、前記第2タイミングにおける前記推測観測データを取得することと、inputting the second observation data and the second timing into an estimation model which receives learning observation data and a learning observation timing at which the learning observation data was observed, and outputs estimated observation data indicating data at which the observation domain was observed based on the first observation method at the learning observation timing, and acquiring the estimated observation data at the second timing;
前記第1観測データに基づく第1情報と前記推測観測データに基づく第2情報とを含む統合データを生成することと、を含む、情報処理方法。generating integrated data including first information based on the first observation data and second information based on the inferred observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測方式に基づいて観測された第1観測データを取得することと、acquiring first observation data, which is information on an observation area at a first timing and is observed by a first flying object based on a first observation method;
学習観測データと、前記学習観測データが観測された学習観測タイミングと、前記学習観測タイミングとは異なるタイミングとが入力され、前記異なるタイミングにおいて前記第1観測方式とは異なる第2観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第1観測データと、前記第1タイミングと、前記第1タイミングとは異なる第2タイミングとを入力し、前記第2タイミングにおける前記推測観測データを取得することと、inputting the first observation data, the first timing, and a second timing different from the first timing into an estimation model which receives as input learning observation data, a learning observation timing at which the learning observation data was observed, and a timing different from the learning observation timing, and outputs estimated observation data indicating data obtained by observing the observation area based on a second observation method different from the first observation method at the different timing, the first observation data, the first timing, and a second timing different from the first timing, and acquiring the estimated observation data at the second timing;
前記第1観測データに基づく第1情報と前記推測観測データに基づく第2情報とを含む統合データを生成することと、を含む、情報処理方法。generating integrated data including first information based on the first observation data and second information based on the inferred observation data.
第1タイミングにおける観測領域の情報であり、第1飛翔体によって第1観測方式に基づいて観測される第1観測データと、前記第1タイミングとは異なる第2タイミングにおける前記観測領域の情報であり、前記第1飛翔体とは異なる第2飛翔体によって前記第1観測方式とは異なる第2観測方式に基づいて観測される第2観測データとに基づいて、前記第1観測データに基づく第1情報と前記第2観測データに基づく第2情報とを含む統合データを生成することと、generating integrated data including first information based on the first observation data and second information based on the second observation data, the first information being information on an observation area at a first timing, the first observation data being observed by a first flying object based on a first observation method, and second observation data being information on the observation area at a second timing different from the first timing, the second observation data being observed by a second flying object different from the first flying object based on a second observation method different from the first observation method;
前記第1タイミングより前の第3タイミングで前記観測領域が観測された場合の第3観測データを取得することと、acquiring third observation data when the observation area is observed at a third timing that is earlier than the first timing;
学習観測データと前記学習観測データが観測された学習観測タイミングと、前記学習観測タイミングより後の予測タイミングとが入力され、前記予測タイミングにおいて前記第1観測方式に基づいて前記観測領域が観測されたデータを示す推測観測データを出力する推測モデルに、前記第3観測データと前記第3タイミングと前記第1タイミングとを入力し、前記第1タイミングにおける前記推測観測データを取得することと、を含み、inputting the third observation data, the third timing, and the first timing into an estimation model which receives learning observation data, a learning observation timing at which the learning observation data was observed, and a prediction timing after the learning observation timing, and outputs estimated observation data indicating data at which the observation domain was observed based on the first observation method at the prediction timing, and acquiring the estimated observation data at the first timing;
前記統合データを生成することは、generating the integrated data,
前記第1タイミングにおける前記推測観測データに基づく前記第1情報を含む前記統合データを生成することを含む、情報処理方法。An information processing method comprising: generating the integrated data including the first information based on the estimated observation data at the first timing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023190312A JP7571960B1 (en) | 2023-11-07 | 2023-11-07 | PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND LEARNING MODEL |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023190312A JP7571960B1 (en) | 2023-11-07 | 2023-11-07 | PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND LEARNING MODEL |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7571960B1 true JP7571960B1 (en) | 2024-10-23 |
Family
ID=93150865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023190312A Active JP7571960B1 (en) | 2023-11-07 | 2023-11-07 | PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND LEARNING MODEL |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7571960B1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018048898A (en) | 2016-09-21 | 2018-03-29 | 日本電気株式会社 | Image processing device, image processing method, and program |
JP2020154467A (en) | 2019-03-18 | 2020-09-24 | デンカ株式会社 | Concrete structure management device, information processing system, concrete structure management method, and program |
JP2021114275A (en) | 2020-01-17 | 2021-08-05 | 清水建設株式会社 | Reference point forming device, satellite image processing device, and satellite image processing method |
CN113484857A (en) | 2021-06-29 | 2021-10-08 | 北京理工大学 | Tracking method, device, equipment and storage medium for multi-source heterogeneous point-trace fusion |
JP7006875B1 (en) | 2021-06-18 | 2022-01-24 | 株式会社スペースシフト | Learning models, signal processor, projectiles, and programs |
WO2022034666A1 (en) | 2020-08-13 | 2022-02-17 | 三菱電機株式会社 | Learning device, image processing device, and alignment system |
WO2022107620A1 (en) | 2020-11-19 | 2022-05-27 | ソニーグループ株式会社 | Data analysis device and method, and program |
US20220214424A1 (en) | 2019-09-25 | 2022-07-07 | Huawei Technologies Co., Ltd. | Sensor Calibration Method and Apparatus |
JP2022167343A (en) | 2021-04-23 | 2022-11-04 | 日本電気株式会社 | Earth surface condition grasping method, earth surface condition grasping device, and earth surface condition grasping program |
-
2023
- 2023-11-07 JP JP2023190312A patent/JP7571960B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018048898A (en) | 2016-09-21 | 2018-03-29 | 日本電気株式会社 | Image processing device, image processing method, and program |
JP2020154467A (en) | 2019-03-18 | 2020-09-24 | デンカ株式会社 | Concrete structure management device, information processing system, concrete structure management method, and program |
US20220214424A1 (en) | 2019-09-25 | 2022-07-07 | Huawei Technologies Co., Ltd. | Sensor Calibration Method and Apparatus |
JP2021114275A (en) | 2020-01-17 | 2021-08-05 | 清水建設株式会社 | Reference point forming device, satellite image processing device, and satellite image processing method |
WO2022034666A1 (en) | 2020-08-13 | 2022-02-17 | 三菱電機株式会社 | Learning device, image processing device, and alignment system |
WO2022107620A1 (en) | 2020-11-19 | 2022-05-27 | ソニーグループ株式会社 | Data analysis device and method, and program |
JP2022167343A (en) | 2021-04-23 | 2022-11-04 | 日本電気株式会社 | Earth surface condition grasping method, earth surface condition grasping device, and earth surface condition grasping program |
JP7006875B1 (en) | 2021-06-18 | 2022-01-24 | 株式会社スペースシフト | Learning models, signal processor, projectiles, and programs |
CN113484857A (en) | 2021-06-29 | 2021-10-08 | 北京理工大学 | Tracking method, device, equipment and storage medium for multi-source heterogeneous point-trace fusion |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7642953B2 (en) | Method and apparatus for three dimensional tomographic image reconstruction of objects | |
EP2233947B1 (en) | Increasing measurement rate in time of flight measurement apparatuses | |
CN108427438A (en) | Flight environment of vehicle detection method, device, electronic equipment and storage medium | |
CN107015225B (en) | A kind of SAR platform elemental height error estimation based on self-focusing | |
EP3794376B1 (en) | Apparatus and method to classify full waveform data from retro-flected signals | |
Dash et al. | Remote sensing for precision forestry | |
Görgens et al. | Stand volume models based on stable metrics as from multiple ALS acquisitions in Eucalyptus plantations | |
Carcereri et al. | A deep learning framework for the estimation of forest height from bistatic TanDEM-X data | |
Gawehn et al. | A self-adaptive method for mapping coastal bathymetry on-the-fly from wave field video | |
Felt et al. | Fast ocean front detection using deep learning edge detection models | |
Lei et al. | Detection of forest disturbance with spaceborne repeat-pass SAR interferometry | |
JP7571960B1 (en) | PROGRAM, INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND LEARNING MODEL | |
Torma | Estimation of tree species proportions of forest st ands using laser scanning | |
CN116205394B (en) | Forest resource investigation and monitoring method and system based on radio navigation | |
López-Dekker et al. | BIOMASS end-to-end mission performance simulator | |
Errico et al. | NOAA–NASA–DoD workshop on satellite data assimilation | |
Zimmermann et al. | Accuracy assessment of normalized digital surface models from aerial images regarding tree height determination in Saxony, Germany | |
CN110399832B (en) | TomosAR vegetation pest and disease damage monitoring method and device based on coherence | |
US12044798B2 (en) | Learning model, signal processor, flying object, and program | |
JP7534744B1 (en) | Learning model, signal processing device, flying object, and teacher data generation method | |
Yadav | Simulation of ICESat/GLAS full waveform over highly rugged terrain | |
WO2023233832A1 (en) | Method, program, and information processing device | |
CN118171967B (en) | Quality supervision method and system for mapping geographic information | |
Watson et al. | Littoral Observation by Collaborative Unmanned Systems for Target Detection | |
Soininen | Feasibility of Gaussian Processes for Individual Tree Attribute Prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231115 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240115 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7571960 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |