JP7114082B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7114082B2 JP7114082B2 JP2019053502A JP2019053502A JP7114082B2 JP 7114082 B2 JP7114082 B2 JP 7114082B2 JP 2019053502 A JP2019053502 A JP 2019053502A JP 2019053502 A JP2019053502 A JP 2019053502A JP 7114082 B2 JP7114082 B2 JP 7114082B2
- Authority
- JP
- Japan
- Prior art keywords
- observation information
- observation
- covering
- image
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
(実施の形態1)
図1は、衛星画像提供システムの構成例を示す模式図である。本実施の形態では、ユーザが所望する衛星画像を購入(利用)可能な衛星画像提供システムについて説明する。衛星画像提供システムは、情報処理装置1、端末2、衛星3を含む。情報処理装置1及び端末2は、インターネット等のネットワークNを介して通信接続されている。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
ユーザDB141は、ユーザID列、氏名列、ユーザ情報列、購入画像列を含む。ユーザID列は、各ユーザを識別するためのユーザIDを記憶している。氏名列、ユーザ情報列、購入画像列はそれぞれ、ユーザIDと対応付けて、ユーザの氏名、ユーザに関するその他の情報、及びユーザが購入した画像の情報を記憶している。ユーザ情報列には、例えばユーザの本プラットフォーム上でのアカウント情報、画像購入時の決済に必要な情報、その他の情報が記憶されている。購入画像列には、例えば後述する分割画像を識別するためのIDを記憶されている。
本実施の形態においてサーバ1は、各衛星3から取得した衛星画像をユーザに販売するプラットフォームを提供する。図6には、本プラットフォームに係るWebブラウザ画面の画面例であって、端末2が表示する表示画面の一例を図示してある。サーバ1は、当該画面上での操作入力に基づいて、被覆分類器143及び物体分類器144を用いた分類結果付きの衛星画像をユーザに提供する。
サーバ1の制御部11は、衛星画像に対して、衛星画像内に含まれる各対象物を分類した際の分類結果の正解値を対応付けた教師データを取得する(ステップS11)。上述の如く、分類対象とする対象物は、地表面を被覆する被覆物、地表面に存在する物体(例えば移動体)などある。制御部11は、衛星画像に対して各種オブジェクトの情報(正解値)がラベリングされた教師データを取得する。
サーバ1の制御部11は、衛星3が対象地域を撮像した衛星画像を取得する(ステップS31)。制御部11は、取得した衛星画像を、対象地域を区分した複数の領域それぞれに対応するセル画像51、51、51…に分割する(ステップS32)。
サーバ1の制御部11は、端末2から、地図画像を表示する対象地域の指定入力を受け付ける(ステップS51)。制御部11は、指定された地域の地図画像を端末2に出力し、表示させる(ステップS52)。具体的には上述の如く、制御部11は、対象地域を複数の領域に区分するためのグリッド線41(分割線)を重畳した地図画像を表示させる。
サーバ1の制御部11は、端末2から、購入済みのセル画像51、すなわちユーザが利用可能なセル画像51を指定する指定入力を受け付ける(ステップS71)。制御部11は、指定されたセル画像51を、地図上の対応する領域に重畳した地図画像を生成して端末2に表示させる(ステップS72)。
本実施の形態では、ユーザが指定した期間の衛星画像を一括購入する形態について説明する。
図17及び図18は、実施の形態2に係る表示画面の一例を示す説明図である。図17及び図18に基づき、本実施の形態の概要について説明する。
地図画像上の複数の領域を指定する指定入力を受け付けた後(ステップS53)、サーバ1の制御部11は以下の処理を実行する。制御部11は端末2から、指定された領域に対応するセル画像51について、購入対象とする撮像期間の指定入力を受け付けたか否かを判定する(ステップS201)。期間の指定入力を受け付けていないと判定した場合、(S201:NO)、制御部11は処理をステップS54に移行する。
対象物に関する分類結果を表示するセル画像51の指定入力を端末2から受け付けたと判定した場合(S73:YES)、サーバ1の制御部11は以下の処理を実行する。制御部11は端末2に、指定されたセル画像51を含む画像群であって、指定されたセル画像51と同一の領域で撮像時点が異なる複数のセル画像51から成る画像群を時系列で表示させる(ステップS221)。例えば制御部11は、上述の如くセル画像51の動画再生を行わせる。この場合に制御部11は、各撮像時点のセル画像51それぞれにおいて被覆物の色分け表示、移動体の数量のグラフ表示等を行わせることで、対象物の時系列変化を示す動画を表示させる。制御部11は、処理をステップS75に移行する。
本実施の形態では、画像DB142に記憶されている衛星画像から、ユーザが所望の画像を検索可能とする形態について説明する。
図21は、実施の形態3の概要を示す説明図である。上述の如く、サーバ1は画像DB142に、衛星3から取得した各衛星画像と、各衛星画像に含まれる対象物を被覆分類器143及び物体分類器144により分類した分類結果とを、衛星画像の対象地域、及び撮像時点と対応付けて記憶してある。本実施の形態では、ユーザが対象物を検索クエリとして画像DB142から所望の画像を検索し、提供可能とする。図21に基づき、本実施の概要について説明する。
サーバ1の制御部11は、検索対象とする対象物の指定入力を受け付ける(ステップS301)。制御部11は、指定された対象物を含む衛星画像(セル画像51)を画像DB142から検索する(ステップS302)。制御部11は、検索結果を端末2に出力する(ステップS303)。例えば制御部11は、検索された各セル画像51のサムネイルを表示させる。この場合に制御部11は、検索されたセル画像51において、検索クエリとされた対象物に関する情報の全部又は一部を端末2に出力して表示させてもよい。
本実施の形態では、衛星画像に基づく対象地域の監視を行い、対象物に所定の変化が生じたか否かを判定する形態について説明する。
図23は、実施の形態4の概要を示す説明図である。本実施の形態においてサーバ1は、衛星3が継続的に撮像する衛星画像から対象地域に発生した所定の事象を、被覆分類器143等による対象物の分類結果の時系列変化から検知し、ユーザに通知する。監視対象とする事象は、例えば土砂崩れ、火山噴火など、災害に関わる事象である。図23に基づき、本実施の形態の概要を説明する。
サーバ1の制御部11は、端末2から、監視対象とする対象地域の指定入力を受け付ける(ステップS401)。さらに制御部11は、監視対象とする事象(対象物の変化)に関する指定入力を受け付ける(ステップS402)。
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 ユーザDB
142 画像DB
2 端末
3 衛星
Claims (10)
- 宇宙空間を飛翔する飛翔体から対象地域を観測した観測情報を取得する取得部と、
前記観測情報を入力した場合に、前記対象地域を被覆する被覆物の分類結果を出力するように学習済みの第1の分類器に、前記取得部が取得した前記観測情報を入力して、前記被覆物を分類する第1分類部と、
前記第1の分類器から出力された前記被覆物の分類結果に基づき、前記被覆物に対応する前記対象地域内の領域の前記観測情報を抽出する抽出部と、
前記抽出部が抽出した観測情報を入力した場合に、前記観測情報に含まれる特定の物体を分類した分類結果を出力するよう学習済みの第2の分類器に、前記抽出部が抽出した前記観測情報を入力して、前記物体を分類する第2分類部と、
前記第2分類部が分類した前記物体の分類結果を含む前記観測情報を出力する出力部と
を備えることを特徴とする情報処理装置。 - 宇宙空間を飛翔する飛翔体から対象地域を観測した観測情報を取得する取得部と、
前記観測情報を入力した場合に、前記対象地域を被覆する被覆物、または前記被覆物に対応する前記対象地域内の領域の前記観測情報に含まれる特定の物体を含む対象物を分類した分類結果を出力するように学習済みの分類器に、前記取得部が取得した前記観測情報を入力して前記対象物を分類する分類部と、
前記対象物の分類結果を含む前記観測情報を出力する出力部と、
ユーザの端末から複数の観測時点を含む期間の指定入力を受け付ける受付部とを備え、 前記取得部は、複数の前記観測時点夫々において前記対象地域を観測した複数の前記観測情報を取得し、
前記出力部は、前記期間に含まれる複数の前記観測時点夫々の前記観測情報から成る観測情報群であって、前記観測時点夫々の前記観測情報から分類した前記対象物の分類結果が付加された前記観測情報群を前記端末に一括で出力し、
前記出力部は観測時点における前記対象地域での雲量に関する設定値を満たす前記観測情報を出力する
ことを特徴とする情報処理装置。 - 宇宙空間を飛翔する飛翔体から対象地域を観測した観測情報を取得する取得部と、
前記観測情報を入力した場合に、前記対象地域を被覆する被覆物、または前記被覆物に対応する前記対象地域内の領域の前記観測情報に含まれる特定の物体を含む対象物を分類した分類結果を出力するように学習済みの分類器に、前記取得部が取得した前記観測情報を入力して前記対象物を分類する分類部と、
前記対象物の分類結果を含む前記観測情報を出力する出力部と、
ユーザの端末から複数の観測時点を含む期間の指定入力を受け付ける受付部とを備え、 前記取得部は、複数の前記観測時点夫々において前記対象地域を観測した複数の前記観測情報を取得し、
前記出力部は、前記期間に含まれる複数の前記観測時点夫々の前記観測情報から成る観測情報群であって、前記観測時点夫々の前記観測情報から分類した前記対象物の分類結果が付加された前記観測情報群を前記端末に一括で出力し、
前記出力部は前記対象地域を観測した際のオフナディア角に関する設定値を満たす前記観測情報を出力する
ことを特徴とする情報処理装置。 - 複数の観測時点を含む期間の指定入力を受け付ける第1受付部を備え、
前記取得部は、複数の前記観測時点夫々において前記対象地域を観測した複数の前記観測情報を取得し、
前記出力部は、前記期間に含まれる複数の前記観測時点夫々の前記観測情報から成る観測情報群であって、前記観測時点夫々の前記観測情報から分類した前記被覆物または前記物体の分類結果を時系列で示す前記観測情報群を出力する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記取得部は、複数の観測時点夫々において複数の前記対象地域夫々を観測した複数の前記観測情報を取得し、
複数の前記観測情報と、該観測情報夫々における前記被覆物または前記物体の分類結果とを対応付けて記憶する記憶部と、
前記被覆物または前記物体を含む前記観測情報を前記記憶部から検索する検索部と
を備え、
前記出力部は、検索された前記観測情報を出力する
ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。 - 前記取得部は、複数の観測時点夫々において複数の前記対象地域夫々を観測した複数の前記観測情報を取得し、
前記対象地域が同一で前記観測時点が異なる複数の前記観測情報夫々の前記被覆物または前記物体の分類結果に基づき、前記被覆物または前記物体に所定の変化が生じたか否かを判定する判定部と、
前記被覆物または前記物体に所定の変化が生じたと判定した場合、判定結果を通知する通知部と
を備えることを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。 - 宇宙空間を飛翔する飛翔体から対象地域を観測した観測情報を取得し、
前記観測情報を入力した場合に、前記対象地域を被覆する被覆物の分類結果を出力するように学習済みの第1の分類器に、取得した前記観測情報を入力して、前記被覆物を分類し、
前記第1の分類器から出力された前記被覆物の分類結果に基づき、前記被覆物に対応する前記対象地域内の領域の前記観測情報を抽出し、
抽出した前記観測情報を入力した場合に、前記観測情報に含まれる特定の物体を分類した分類結果を出力するよう学習済みの第2の分類器に、抽出した前記観測情報を入力して、前記物体を分類し、
分類した前記物体の分類結果を含む前記観測情報を出力する
処理をコンピュータに実行させることを特徴とする情報処理方法。 - 宇宙空間を飛翔する飛翔体から対象地域を観測した観測情報を取得し、
前記観測情報を入力した場合に、前記対象地域に存在する対象物を分類した分類結果を出力するように学習済みの分類器に、取得した前記観測情報を入力して前記対象物を分類し、
前記対象物の分類結果を含む前記観測情報を出力し、
ユーザの端末から複数の観測時点を含む期間の指定入力を受け付け、
複数の前記観測時点夫々において前記対象地域を観測した複数の前記観測情報を取得し、
前記期間に含まれる複数の前記観測時点夫々の前記観測情報から成る観測情報群であって、前記観測時点夫々の前記観測情報から分類した前記対象物の分類結果が付加された前記観測情報群を前記端末に一括で出力し、
観測時点における前記対象地域での雲量に関する設定値を満たす前記観測情報を出力する
処理をコンピュータに実行させることを特徴とする情報処理方法。 - 宇宙空間を飛翔する飛翔体から対象地域を観測した観測情報を取得し、
前記観測情報を入力した場合に、前記対象地域を被覆する被覆物の分類結果を出力するように学習済みの第1の分類器に、取得した前記観測情報を入力して、前記被覆物を分類し、
前記第1の分類器から出力された前記被覆物の分類結果に基づき、前記被覆物に対応する前記対象地域内の領域の前記観測情報を抽出し、
抽出した前記観測情報を入力した場合に、前記観測情報に含まれる特定の物体を分類した分類結果を出力するよう学習済みの第2の分類器に、抽出した前記観測情報を入力して、前記物体を分類し、
分類した前記物体の分類結果を含む前記観測情報を出力する
処理をコンピュータに実行させることを特徴とするプログラム。 - 宇宙空間を飛翔する飛翔体が対象地域を観測した観測情報を管理する管理装置に、前記対象地域を被覆する被覆物に対応する前記対象地域内の領域の前記観測情報に含まれる特定の物体を、前記観測情報から分類した分類結果の出力を要求し、
前記観測情報を入力した場合に、前記被覆物の分類結果を出力するように学習済みの第1の分類器、及び、前記被覆物に対応する前記対象地域内の領域の前記観測情報を入力した場合に、前記物体を分類した分類結果を出力するよう学習済みの第2の分類器を用いて、前記物体を分類した分類結果を前記管理装置から取得し、
取得した前記物体の分類結果を含む前記観測情報を表示部に表示する
処理をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019053502A JP7114082B2 (ja) | 2019-03-20 | 2019-03-20 | 情報処理装置、情報処理方法及びプログラム |
EP20774207.3A EP3944218A4 (en) | 2019-03-20 | 2020-03-02 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
PCT/JP2020/008733 WO2020189242A1 (ja) | 2019-03-20 | 2020-03-02 | 情報処理装置、情報処理方法及びプログラム |
US17/198,618 US11450100B2 (en) | 2019-03-20 | 2021-03-11 | Information processing apparatus, information processing method and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019053502A JP7114082B2 (ja) | 2019-03-20 | 2019-03-20 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154835A JP2020154835A (ja) | 2020-09-24 |
JP7114082B2 true JP7114082B2 (ja) | 2022-08-08 |
Family
ID=72520902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019053502A Active JP7114082B2 (ja) | 2019-03-20 | 2019-03-20 | 情報処理装置、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11450100B2 (ja) |
EP (1) | EP3944218A4 (ja) |
JP (1) | JP7114082B2 (ja) |
WO (1) | WO2020189242A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728447B (zh) * | 2019-10-10 | 2021-03-09 | 合肥工业大学 | 一种最早完成区域目标覆盖的分区卫星任务规划方法 |
WO2023210190A1 (ja) * | 2022-04-28 | 2023-11-02 | パイオニア株式会社 | 情報処理装置、情報処理方法、プログラム及び記録媒体 |
JP7410339B1 (ja) | 2023-01-10 | 2024-01-09 | 株式会社パスコ | 識別装置、識別方法およびプログラム |
JP7400147B1 (ja) * | 2023-02-06 | 2023-12-18 | 株式会社Qps研究所 | 宇宙航行体に関連して用いられる処理装置及びコンピュータプログラム |
WO2024176400A1 (ja) * | 2023-02-22 | 2024-08-29 | 日本電気株式会社 | 衛星観測支援システム、衛星観測支援方法、および記録媒体 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072938A (ja) | 2016-10-25 | 2018-05-10 | 株式会社パスコ | 目的物個数推定装置、目的物個数推定方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7644131B2 (en) * | 2000-12-27 | 2010-01-05 | INOVO Limited | Optimized image delivery over limited bandwidth communication channels |
JP2009146262A (ja) | 2007-12-17 | 2009-07-02 | Hitachi Software Eng Co Ltd | 衛星画像の選択操作支援方法及び装置 |
US8077918B2 (en) * | 2008-08-28 | 2011-12-13 | Google, Inc. | Architectures and methods for creating and representing time-dependent imagery |
US8667054B2 (en) * | 2010-07-12 | 2014-03-04 | Opus Medicus, Inc. | Systems and methods for networked, in-context, composed, high resolution image viewing |
US9129161B2 (en) * | 2013-05-31 | 2015-09-08 | Toyota Jidosha Kabushiki Kaisha | Computationally efficient scene classification |
US9489581B2 (en) * | 2014-08-11 | 2016-11-08 | Nokia Technologies Oy | Vehicle counting and emission estimation |
US9518837B2 (en) * | 2014-12-02 | 2016-12-13 | Here Global B.V. | Monitoring and visualizing traffic surprises |
US9928578B1 (en) * | 2016-03-30 | 2018-03-27 | Descartes Labs, Inc. | Using boundary maps to refine imagery |
US10546195B2 (en) * | 2016-12-02 | 2020-01-28 | Geostat Aerospace & Technology Inc. | Methods and systems for automatic object detection from aerial imagery |
US10248663B1 (en) * | 2017-03-03 | 2019-04-02 | Descartes Labs, Inc. | Geo-visual search |
US11275989B2 (en) * | 2017-05-22 | 2022-03-15 | Sap Se | Predicting wildfires on the basis of biophysical indicators and spatiotemporal properties using a long short term memory network |
US10255526B2 (en) * | 2017-06-09 | 2019-04-09 | Uptake Technologies, Inc. | Computer system and method for classifying temporal patterns of change in images of an area |
WO2019193702A1 (ja) * | 2018-04-05 | 2019-10-10 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び、画像処理プログラムが格納された記録媒体 |
US10755146B2 (en) * | 2018-07-25 | 2020-08-25 | University Of Kentucky Research Foundation | Network architecture for generating a labeled overhead image |
US10984532B2 (en) * | 2018-08-24 | 2021-04-20 | Ordnance Survey Limited | Joint deep learning for land cover and land use classification |
-
2019
- 2019-03-20 JP JP2019053502A patent/JP7114082B2/ja active Active
-
2020
- 2020-03-02 EP EP20774207.3A patent/EP3944218A4/en active Pending
- 2020-03-02 WO PCT/JP2020/008733 patent/WO2020189242A1/ja unknown
-
2021
- 2021-03-11 US US17/198,618 patent/US11450100B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072938A (ja) | 2016-10-25 | 2018-05-10 | 株式会社パスコ | 目的物個数推定装置、目的物個数推定方法及びプログラム |
Non-Patent Citations (3)
Title |
---|
ベトナム南部域高解像度土地利用土地被覆図(ver.18.09),インターネット [online],ALOS利用推進研究プロジェクト,2018年09月10日,https://www.eorc.jaxa.jp/ALOS/en/dataset/lulc/lulc_vnm_v1809_e.htm |
伊東里保 他,ディープラーニングを適用した衛星画像からの土地被覆分類手法の評価,2016年度人工知能学会全国大会(第30回)論文集,日本,一般社団法人人工知能学会,2016年,p1-4 |
志水克人 他,時系列衛星画像を用いた森林のモニタリング手法とその熱帯林への応用,日本森林学会誌,98巻2号,日本,日本森林学会,2016年,p79-89 |
Also Published As
Publication number | Publication date |
---|---|
WO2020189242A1 (ja) | 2020-09-24 |
EP3944218A1 (en) | 2022-01-26 |
US11450100B2 (en) | 2022-09-20 |
JP2020154835A (ja) | 2020-09-24 |
EP3944218A4 (en) | 2022-11-30 |
US20210200984A1 (en) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7114082B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Zhong et al. | Landslide mapping with remote sensing: challenges and opportunities | |
Catani | Landslide detection by deep learning of non-nadiral and crowdsourced optical images | |
Kalantar et al. | Drone-based land-cover mapping using a fuzzy unordered rule induction algorithm integrated into object-based image analysis | |
Saralioglu et al. | Semantic segmentation of land cover from high resolution multispectral satellite images by spectral-spatial convolutional neural network | |
Velumani et al. | Estimates of maize plant density from UAV RGB images using faster-RCNN detection model: Impact of the spatial resolution | |
US8855427B2 (en) | Systems and methods for efficiently and accurately detecting changes in spatial feature data | |
d’Andrimont et al. | Monitoring crop phenology with street-level imagery using computer vision | |
Theres et al. | Comparison of landuse/landcover classifier for monitoring urban dynamics using spatially enhanced landsat dataset | |
Parajuli et al. | Attentional dense convolutional neural network for water body extraction from sentinel-2 images | |
Paul et al. | Canopy averaged chlorophyll content prediction of pear trees using convolutional autoencoder on hyperspectral data | |
CN115240168A (zh) | 感知结果获取方法、装置、计算机设备、存储介质 | |
CN114387506A (zh) | 输电杆塔监测方法、装置、计算机设备、存储介质 | |
JP7114081B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Ozturk et al. | Generation of Istanbul road data set using Google Map API for deep learning-based segmentation | |
Vlachopoulos et al. | Delineation of bare soil field areas from unmanned aircraft system imagery with the mean shift unsupervised clustering and the random forest supervised classification | |
CN114238541A (zh) | 敏感目标信息获取方法、装置和计算机设备 | |
Sen et al. | Unsupervised extraction of urban features from airborne lidar data by using self-organizing maps | |
Sardar et al. | Ensemble learning with CNN and BMO for drought prediction | |
CN113569600A (zh) | 物体重识别的方法、装置、电子设备及存储介质 | |
Thwal et al. | Land cover classification and change detection analysis of multispectral satellite images using machine learning | |
Tang et al. | Accuracy test of point-based and object-based urban building feature classification and extraction applying airborne LiDAR data | |
Wang et al. | A new stochastic simulation algorithm for image-based classification: feature-space indicator simulation | |
Mendes et al. | Urban road classification in geometrically integrated high-resolution RGB aerial and laser-derived images using the artificial neural network classification method | |
Portnov et al. | The Effect of Pre-and Post-Processing Techniques on Tree Detection in Young Forest Stands from Images of Snow Cover Using YOLO Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7114082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |