[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7225600B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP7225600B2
JP7225600B2 JP2018152031A JP2018152031A JP7225600B2 JP 7225600 B2 JP7225600 B2 JP 7225600B2 JP 2018152031 A JP2018152031 A JP 2018152031A JP 2018152031 A JP2018152031 A JP 2018152031A JP 7225600 B2 JP7225600 B2 JP 7225600B2
Authority
JP
Japan
Prior art keywords
snr
image data
information processing
image
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018152031A
Other languages
English (en)
Other versions
JP2020027033A (ja
JP2020027033A5 (ja
Inventor
昌利 高嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2018152031A priority Critical patent/JP7225600B2/ja
Priority to EP19759062.3A priority patent/EP3834169A1/en
Priority to US17/265,636 priority patent/US12056851B2/en
Priority to PCT/JP2019/030752 priority patent/WO2020031970A1/en
Publication of JP2020027033A publication Critical patent/JP2020027033A/ja
Publication of JP2020027033A5 publication Critical patent/JP2020027033A5/ja
Application granted granted Critical
Publication of JP7225600B2 publication Critical patent/JP7225600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本技術は情報処理装置、情報処理方法、プログラムに関し、特に撮像画像に基づく評価指数の算出を行う装置・システムに適用できる技術に関する。
例えば小型の飛行体に撮像装置(カメラ)を搭載し、圃場の上空を移動しながら植物の植生状態を撮像していくことで、植生状態をリモートセンシングする取り組みがある。
特許文献1には、圃場を撮像し、リモートセンシングを行う技術に関して開示されている。
特許第5162890号公報
例えばこのように圃場を撮像した画像をマッピングし、マッピング画像により植生の様子を観察することが行われている。
圃場の植生の撮像画像からは植生指数を測定することができ、広い圃場を一部毎に撮像していき、撮像した多数の画像を合成することで、圃場全体の植生を観察できる画像を生成できる。例えば植生指数としてNDSI(Normalized Difference Spectral Index)等を求め、多数の撮像画像からマッピング画像を生成することにより、広域でのNDSI画像を確認できるようにする。
ところが時間帯による太陽位置、撮影角度、天候等、様々な要因で、センシング結果が大きく異なる。1回のフライト内でも、突然晴れから曇りに変わり、センシング結果に影響を及ぼす。但しこのような外的要因については、環境が異なるケースなどを排除、またはケース分けをすることで、比較できる対象を増やすことが可能である。
ところが、一般のイメージセンサのSNR (signal-noise ratio) は約42dB程度しかなく、精度の高いセンシングは難しいのが現状である。特に上記の問題が解決され、精度の高いセンシング結果が得られると、イメージセンサの精度が大きな問題となる。
また、撮像結果のSNRは撮像された画像の信号レベルに大きく依存する。自動露光制御によりその変化を小さくすることが望ましいが、突然の天候変化に確実に反応する難しさから、ある程度、信号レベルの変化は許容せざるを得ないのが実態である。
その点で、フライト中に晴れから曇りに突然天候が変わった場合、フライト内でのSNRが大きく異なり、一定以上のセンシング精度の結果を得ることが難しいことになる。
そこで本技術では、撮像時の環境や環境変化、イメージセンサの精度などの事情があっても、測定結果の評価指標として十分な一定以上の精度が得られるようにすることを目的とする。
本技術に係る情報処理装置は、画像データの画素の平均値から算出されるSNRと、画像データの画素のバラツキから算出されるSNRとのうちの値の小さい方を用いて植生指数の画像データのSNRを予測する処理と、予測されたSNRに基づいて画像データの各画素のSNRを調整するSNR調整処理と、前記SNR調整処理後の画像データに基づき植生指数を算出する処理と、を行う評価演算部を備えている。
例えば観察対象を撮像した画像データから植生指数を求める場合に、画像データのSNRによって精度が十分でない場合があるため、予め画像毎にSNRを予測し、それに応じたSNR調整を行うようにする。
上記した本技術に係る情報処理装置においては、前記評価演算部は、評価指数の画像データのSNRを予測し、評価指数を算出する各要素及び画像データの各画素のSNR調整処理を行った状態で評価指数を算出することが考えられる。
例えばNDSI画像等の評価指数の画像データのSNRを予測し、評価指数を算出する要素(例えば特定の波長の画像)や、その各画素のSNR調整を行う。
上記した本技術に係る情報処理装置においては、前記SNR調整処理は、予測されたSNRと目標SNRから求められる不足SNRに応じて画像データのSNRの調整を行う処理であることが考えられる。
SNRを予測することで、目標のSNRに対する不足分が推定されるため、その不足SNRに応じたSNR調整を行う。
上記した本技術に係る情報処理装置においては、前記SNR調整処理は、前記不足SNRを用いて求められた数の周辺画素の平均化を行う処理であることが考えられる。
SNR調整の手法として周辺画素の平均化を行う。不足SNR分のSNR調整のために、平均化する周辺画素数を、不足SNRを用いて求められた数とする。
上記した本技術に係る情報処理装置においては、前記SNR調整処理は、前記不足SNRを用いて求められた数の周辺画素を対象として空間ノイズリダクションを行う処理であることが考えられる。
SNR調整の手法として空間ノイズリダクションを行う。対象の画素は不足SNRを用いて求められた数とする。
上記した本技術に係る情報処理装置においては、評価指数の提示の際に、前記SNR調整処理が有効とならない領域を明示する処理が行われることが考えられる。
つまりSNR調整によっても十分に精度が確保できない領域については、ユーザに明確に提示されるようにする。
上記した本技術に係る情報処理装置においては、前記評価指数は、植生評価指数であることが考えられる。
つまり植生のリモートセンシングを行うシステムにおいて、撮像画像或いは撮像画像から生成された植生評価画像に対しSNR調整を行う。
上記した本技術に係る情報処理装置においては、前記評価演算部では、光源の分光特性を反映して植物の反射率の分光特性を算出し、算出された植物の反射率の分光特性から植生指数を算出することが考えられる。
ここでの光源とは例えば太陽光など、天候の影響などで変動する光源である。この光源をキャリブレーションした状態で植物の反射率の分光特性を算出する。
上記した本技術に係る情報処理装置においては、前記評価演算部は、画像データのフレーム毎に、フレームの平均信号レベル、光ショットノイズ、暗時ノイズ、量子化ノイズの値を用いて画像データのSNRの予測値を求める処理を行うことが考えられる。
フレームの平均信号レベルはフレーム内画素の平均値である。光ショットノイズ、暗時ノイズ、量子化ノイズは撮像装置のイメージセンサのスペックから算出される。これらを用いた演算で画像データのSNRの予測値を求める。
本技術に係る情報処理方法は、画像データのSNRを予測する処理と、予測されたSNRに基づいて画像データのSNRを調整するSNR調整処理と、前記SNR調整処理後の画像データに基づき評価指数を算出する処理とを情報処理装置が実行する情報処理方法である。
つまり天候その他の影響によるSNR低下が生じないようにSNR調整を行う。
本技術に係るプログラムは、以上の各手順の処理を情報処理装置に実行させるプログラムである。これにより本技術に係る情報処理装置、情報処理方法を、コンピュータ装置を用いて実現させ、広く提供できる。
本技術によれば、精度の高い評価指数が安定して得られるようになるという効果がある。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態の圃場の撮像の様子の説明図である。 実施の形態のリモートセンシング動作及び画像マッピングの説明図である。 実施の形態の撮像装置及びセンサボックスのブロック図である。 実施の形態の情報処理装置のブロック図である。 実施の形態の情報処理装置の機能構成及び処理の説明図である。 実施の形態のシステム動作と装置の対応例の説明図である。 実施の形態で挙げる動作と装置の対応例の説明図である。 第1の実施の形態の植物の分光の算出の説明図である。 実施の形態の植生指数算出のための処理例のフローチャートである。 実施の形態のSNR改善を含めた植生指数算出のための処理例のフローチャートである。 実施の形態の各画素のSNR改善の説明図である。 実施の形態の各画素のSNR改善の説明図である。 第2の実施の形態の植物の分光の算出の説明図である。 第3の実施の形態の植物の分光の算出の説明図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、実施の形態を次の順序で説明する。
<1.リモートセンシングシステム概要>
<2.装置構成>
<3.第1の実施の形態>
<4.第2の実施の形態>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.移動体への応用例>
<8.まとめ及び変形例>
<1.リモートセンシングシステム概要>
実施の形態では圃場の植生状態のセンシングを行う場合を例に挙げて説明する。
例えば図1に示すように飛行体200に搭載された撮像装置250を用いて圃場210の植生に関するリモートセンシングを行う。そして、この撮像で得られた多数の画像データ(単に「画像」ともいう)を用いて植生データ(例えば植生指数のデータ)を示すマッピング画像を生成する場合とする。
図1は圃場210の様子を示している。
小型の飛行体200は、例えば操作者の無線操縦、或いは無線自動操縦等により、圃場210の上空を移動することができる。
飛行体200には撮像装置250が例えば下方を撮像するようにセットされている。飛行体200が所定の経路で圃場210の上空を移動する際に、撮像装置250は例えば定期的に静止画撮像を行うことで、各時点において撮像視野の範囲AWの画像を得ることができる。
例えば飛行体200は圃場210の上空を、図2Aに示すスタート位置STから折り返しながらエンド位置EDまで飛行する。その飛行中に撮像装置250が各時点で、図2Bに示す範囲AWを撮像していく。
撮像装置250がどのような種類の撮像装置であるかは各種考えられる。
例えば撮像装置250の撮像によって得られる画像ファイル(或る時点の撮像画像)には分光計測画像を含むことが考えられる。
例えば撮像装置250はマルチスペクトラムカメラやハイパースペクトルカメラとされ、撮像される画像としては、複数の波長領域の情報を有する測定画像を含むものが考えられる。
また撮像装置250としてR(赤波長領域、620nm~750nm)、G(緑波長領域、495nm~570nm)、B(青波長領域、450nm~495nm)の可視光画像を撮像するカメラが用いられてもよい。
また撮像装置250として、赤波長領域(RED、620nm~750nm)と近赤外領域(NIR:Near Infra Red、750nm~2500nm)の撮像画像を得るカメラであり、得られる画像からNDVI(Normalized Difference Vegetation Index)が算出できるものが用いられてもよい。NDVIとは植生の分布状況や活性度を示す指標である。なお植生指数の1つであるNDVIの値は、RED画像データ、NIR画像データを用いて、
NDVI=(1-RED/NIR)/(1+RED/NIR)
として算出することができる。
また撮像装置250で撮像されて得られる画像には、各種の付加データが対応づけられている。
付加データとしては、各種センサで検出される情報(説明上「センサデータ」と総称する)や、撮像装置250の装置情報、撮像画像に関する撮像画像情報などがある。
具体的にはセンサデータとしては、撮像日時情報や、GPS(Global Positioning System)データとしての位置情報(緯度/経度情報)、照度情報、高度情報、撮像姿勢情報(飛行体200に搭載された状態での撮像方向の傾き)等のデータがある。
このため、飛行体200には例えば照度センサ261を備えたセンサボックス260が搭載されたり、撮像装置250内には、例えば撮像日時情報、位置情報、高度情報、撮像姿勢情報等を検出するためのセンサが搭載されている。
撮像装置250の装置情報としては、撮像装置の個体識別情報、機種情報、カメラタイプ情報、シリアルナンバ、メーカー情報などがある。
撮像画像情報としては、画サイズ、コーデック方式、検出波長、撮像パラメータの情報などがある。
以上のように飛行体200に搭載された撮像装置250により得られる画像データや各種センサによって得られるセンサデータを含む付加データは、情報処理装置(コンピュータ装置)1に送られる。情報処理装置1は画像データやセンサデータを用いて各種処理を行う。例えばNDSI画像やNDVI画像としてのマッピング画像の生成処理や、そのマッピング画像の表示処理を行う。
例えば図2Cは、撮像装置250で撮像した複数の画像の被写体の範囲AWを示しているが、これらを撮像した位置情報に応じて配置し、スティッチしていくことで、例えば図2Dのようなマッピング画像MPを生成する。これにより、圃場210の全体についての植生評価指数を表す画像が生成される。
情報処理装置1は、例えばPC(personal computer)やFPGA(field-programmable gate array)などとして実現される。
なお、図1では情報処理装置1は撮像装置250とは別体のものとしているが、撮像装置250を含むユニット内に情報処理装置1となる演算装置(マイクロコンピュータ等)を設けてもよい。
<2.装置構成>
図3に飛行体200に搭載される撮像装置250及びセンサボックス260の構成例を示す。
本実施の形態では、飛行体200には撮像装置250とともに、照度センサ261を備えたセンサボックス260が搭載されている。例えば図1の例では照度センサ261の受光面が飛行体200の上面側となるように搭載されている。
照度センサ261により太陽400からの太陽光のレベル(照度)を検知することができる。
センサボックス260にはセンサ制御部262が設けられ、撮像装置250のカメラ制御部33と通信可能とされている。これによりカメラ制御部33は、照度センサ261で検出される照度情報を取得することができる。
撮像装置250は、撮像部31、撮像信号処理部32、カメラ制御部33、格納部34、通信部35、センサ部251を有する。
撮像部31は、撮像レンズ系、露光部、フィルタ、及びイメージセンサ等を有し、被写体光を受光して電気信号としての撮像画像信号を出力する。
即ち撮像部31において、被測定対象物等の被写体からの光(反射光)は、レンズ系とフィルタを介してイメージセンサに入射される。
レンズ系とは入射端レンズ、ズームレンズ、フォーカスレンズ、集光レンズなど各種レンズを含む入射光学系のことをいう。
フィルタとは被測定対象物についての測定しようとする波長を取り出すためのフィルタである。これは一般にイメージセンサ上に構成されるカラーフィルタとその前に配置される波長フィルタなどをいう。
露光部とは、イメージセンサにおいて、信号電荷が飽和せずにダイナミックレンジ内に入っている状態でセンシングが行われるように、レンズ系等の光学系やアイリス(絞り)による開口量などを調整することで、露光制御を行う部位をいう。
イメージセンサは、そのセンサ面に、複数の画素が繰り返しパターンで2次元配列されたセンシング素子を有して構成される。
イメージセンサは、フィルタを通過した光を、センシング素子により検出することで、光の光量に応じた撮像画像信号を撮像信号処理部32に出力する。
撮像信号処理部32は、撮像部31のイメージセンサから出力される撮像画像信号に対しA/D変換処理等を施してデジタルデータに変換し、さらに必要な各種信号処理を行って、測定対象物の画像データとしてカメラ制御部33に出力する。
例えば測定対象の画像データとして、複数の特定の波長の画像データをカメラ制御部33に出力する。もちろんRGBカラー画像としての画像データをカメラ制御部33に出力する場合もある。或いは例えば赤波長領域(RED)と近赤外領域(NIR)の撮像画像を得る場合はRED画像データ、NIR画像データを生成し、カメラ制御部33に出力することになる。もちろん他の波長帯の画像データの場合もある。
カメラ制御部33は例えばマイクロコンピュータにより構成され、撮像動作、画像データの格納動作、通信動作等、撮像装置250の全体の動作制御を行う。
カメラ制御部33は、逐次、撮像信号処理部32から供給される画像データを格納部34に格納していく処理を行う。この際、センサ部251や照度センサ261で得られる各種のセンサデータを付加して画像ファイル化して格納部34に格納する。或いはセンサデータを画像データに対応づけたファイルとして格納させてもよい。
格納部34は、例えば撮像装置250の内部メモリとしてのフラッシュメモリや、可搬性のメモリカードなどとされる。もちろん他の種類の記憶媒体が用いられてもよい。
通信部35は、有線又は無線の通信により外部機器との間でデータ送受信を行う。例えばUSB(Universal Serial Bus)等の規格による有線通信でもよいし、ブルートゥース(登録商標)、WI-FI(登録商標)等の無線通信規格の通信を行うものでもよい。
いずれにしても通信部35により、格納部34に格納された画像データ等は、例えば情報処理装置1等の外部機器に転送できるようにされている。
なお、格納部34が可搬性のメモリカード等とされる場合、メモリカード等の記憶媒体の受け渡しによって、格納されたデータが情報処理装置1等に受け渡されるようにしてもよい。
センサ部251としては、位置検出部41、時計部42、姿勢検出部43、高度検出部44が設けられる。
位置検出部41は例えばいわゆるGPS受信器とされ、現在位置としての緯度、経度の情報を取得することができる。
時計部42は現在時刻を計時する。
姿勢検出部43は例えば3軸のジャイロと3方向の加速度計を有するIMU(inertial measurement unit)を用いて所定のアルゴリズムで飛行体200の飛行姿勢、例えば水平方向或いは直下方向に対する傾きを検出するセンサとされる。これは撮像装置250の撮像方向の傾きを検出するものともなる。
高度検出部44は、飛行体200による高度、つまり撮像場所としての高度を検出する。
例えばこれらのセンサを備えたセンサ部251を搭載することにより、カメラ制御部33は、各時点の画像データに、位置検出部41によって得られる位置情報や、時計部42によって得られる日時情報、姿勢検出部43によって得られる傾き情報、高度検出部44によって得られる高度情報を対応づけてファイル化することができる。
情報処理装置1側では、画像データとともに、これらのセンサ部251の検出データや照度センサ261による照度情報を取得することで、各画像についての撮像時の位置、時刻、姿勢、高度、照度を確認できる。
なお図3では撮像装置250がセンサ部251を内蔵しているように示しているが、例えば位置検出部41、時計部42、姿勢検出部43、高度検出部44がセンサボックス260内に設けられ、撮像装置250に検出情報を送信可能とされてもよい。
また、センサの例は一例である。センサ部251には上記以外に、温度センサ、方位センサ、風速センサ等、他のセンサが設けられ、それらの検出値が画像データに対応づけられるようにしてもよい。また、上記したセンサが全て設けられる必要もない。
続いて図4、図5により情報処理装置1の構成を説明する。
図4はPC等で実現される情報処理装置1のハードウエア構成例を示している。
図4に示すように情報処理装置1は、CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53を有して構成される。
CPU51は、ROM52に記憶されているプログラム、または記憶部59からRAM53にロードされたプログラムに従って各種の処理を実行する。RAM53にはまた、CPU51が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU51、ROM52、およびRAM53は、バス54を介して相互に接続されている。このバス54にはまた、入出力インタフェース55も接続されている。
入出力インタフェース55には、表示部56、入力部5、音声出力部58、記憶部59、通信部60、メディアドライブ61などが接続可能である。
表示部56は液晶ディスプレイパネル或いは有機EL(Electroluminescence)ディスプレイパネル、及びこれらのディスプレイパネルの駆動回路を備えた表示装置として構成される。この表示部56は情報処理装置1と一体でも良いし別体の機器でもよい。
表示部56では、例えば撮像画像や評価指標の画像の表示などが行われる。
入力部57は、情報処理装置1を使用するユーザが用いる入力デバイスを意味する。入力デバイスとしては例えばキーボード、マウスが想定される。もちろんこれに限らず、例えば表示部56と一体形成されたタッチパネル、タッチパッド、撮像装置により構成されユーザの挙動を検出して操作入力と認識するジェスチャー入力装置、ユーザの視線を検知する視線入力装置なども入力デバイスとなり得る。
音声出力部58は、スピーカやスピーカを駆動するパワーアンプユニットなどより構成され、必要な音声出力を行う。
記憶部59は例えばHDD(Hard Disk Drive)などより構成され、各種データやプログラムが記憶される。例えば図5で後述する機能を実現するためのプログラムが記憶部59に記憶される。また撮像装置250で得られた画像データや各種付加データも記憶部59に格納され、これにより画像データを用いた各種の画像表示のための処理が可能となる。
通信部60は、インターネットを含むネットワークを介しての通信処理や、周辺各部の機器との間の通信を行う。情報処理装置1は通信部60によるネットワーク通信により各種プログラムをダウンロードしたり、画像データその他のデータを外部機器に転送できる。
また通信部60は、撮像装置250の通信部35との間で有線又は無線通信を行うものとしてもよい。これにより撮像装置250で撮像した画像データ等を取得できる。
なお通信部60は例えば撮像装置250の撮像中に逐次無線通信を行い、画像データ等を受信取得していってもよいし、撮像終了後にまとめて各時点のデータを受信取得してもよい。
入出力インタフェース55にはまた、必要に応じてメディアドライブ61が接続され、メモリカード62が装着され、メモリカード62に対して情報の書込、読出ができるようにされている。
例えばメモリカード62から読み出されたコンピュータプログラムが、必要に応じて記憶部59にインストールされる。
また例えば撮像装置250で画像データ等が記録されたメモリカード62がメディアドライブ61に装着された場合、その画像データ等を読み出して記憶部59に格納できる。
なおもちろんメディアドライブ61は、磁気ディスク、光ディスク、光磁気ディスク等のリムーバブル記憶媒体に対する記録再生ドライブとされてもよい。
実施の形態の情報処理装置1では、このようなハードウエア構成において、CPU51が図5Aに示す機能を備える。
即ちCPU51では、ソフトウエアにより実現される機能として、データ授受制御部71、照度データ処理部72、カメラデータ処理部73、評価演算部74、表示制御部75が設けられる。
データ授受制御部71は例えば記憶部59、メディアドライブ61等に対してデータの記憶や再生動作の制御を行って必要なデータを取得したり、出力するデータを記憶させたりする機能である。またデータ授受制御部71は、通信部60に対するデータの授受を行うことで、外部装置からのデータを取得したり、外部装置にデータ送信を行う機能でもある。
ここでは特に撮像装置250で撮像された画像データ及び各種検出データを含む付加データを用いた処理のための機能として示している。
照度データ処理部72は照度センサ261によって検出される照度情報に関する処理を行う。特には光源(太陽光)の分光特性演算を行う機能である。
カメラデータ処理部73は被写体、即ち圃場210の植物等についての反射分光特性演算を行う機能である。
評価演算部74は各種の植生指数(例えばNDSI等)の算出を行う機能である。
表示制御部75は、撮像した画像やマッピング画像等を表示部56において表示させる制御を行う機能である。
具体的な処理例は後述するが、例えば図4の構成の情報処理装置1が、CPU51において図5Aの機能をハードウエア又はソフトウエアにより具備することで、本開示の情報処理装置の実施の形態としての処理が実行される。即ち図5B、図5Cに示す処理である。
図5Aに示すように、CPU51はステップS101としてデータ取込を行う。これはデータ授受制御部71により撮像画像データの1フレーム及び付加データを取得する処理である。
ステップS102でCPU51は照度データ処理を行う。これは照度データ処理部72が、当該フレームについての照度情報を用いて光源(太陽光)の分光特性演算を行う処理である。
ステップS103でCPU51はカメラデータ処理を行う。これはカメラデータ処理部73により被写体の反射分光特性演算を行う処理である。
ステップS104でCPU51は評価指数算出を行う。これは評価演算部74による植生指数の算出処理である。
このステップS104の処理は、図5Cにより詳細に示される。
まずCPU51はステップS141で評価指数のSNRの予測演算を行う。
続いてCPU51はステップS142で、予測SNRと目標のSNRから不足SNRを算出する。
続いてCPU51はステップS143で、各要素のSNR改善処理を行う。各要素とは評価指数算出に用いる要素(例えば特定の波長の画像)であったり、画像データの各画素のことである。
そしてCPU51はステップS144で、SNR改善された各要素を用いて評価指数算出を行う。
なお以上の手順で算出された評価指数を示す画像は、その後表示制御部75の機能によりユーザに対して表示される。
以上の図5A、図5Bの処理を行う図5Aの機能をソフトウエアにより実現する場合、そのソフトウエアを構成するプログラムは、ネットワークからダウンロードされたり、リムーバブル記憶媒体から読み出されたりして図4の情報処理装置1にインストールされる。或いはそのプログラムが記憶部59としてのHDD等に予め記憶されていてもよい。そしてCPU51において当該プログラムが起動されることで、上記各部の機能が発現する。
なお、実施の形態の情報処理装置1は、図4のようなハードウエア構成のコンピュータ装置(情報処理装置)が単一で構成されることに限らず、複数のコンピュータ装置がシステム化されて構成されてもよい。複数のコンピュータ装置は、LAN(Local Area Network)等によりシステム化されていてもよいし、インターネット等を利用したVPN(Virtual Private Network)等により遠隔地に配置されたものでもよい。複数のコンピュータ装置には、クラウドコンピューティングサービスによって利用可能なコンピュータ装置が含まれてもよい。
またこの図4の情報処理装置1は、据え置き型、ノート型等のパーソナルコンピュータ、タブレット端末やスマートフォン等の携帯端末として実現できる。さらには情報処理装置1としての機能を有する測定装置、撮像装置、テレビジョン装置、モニタ装置、設備管理装置等の電子機器でも、本実施の形態の情報処理装置1としての機能を搭載することができる。
また機能構成の例は図5Aに示したものに限られない。更に多様な構成例が考えられる。また情報処理装置1が飛行体200の制御機能、撮像装置250との通信機能、他のインタフェース機能などをさらに備える例も考えられる。
ここで、本実施の形態のシステムの利用態様の例を説明しておく。
図6Aに実施の形態のシステムで行われる動作を大まかに示している。
センシングST1は飛行体200を用いた飛行時の撮像動作である。
後処理ST2は、撮像画像を用いて評価指数を算出する処理である。
ストレージST3は評価指数の保存処理である。
分析ST4は、保存された評価指数を用いてセンシング結果を分析する処理である。
アクションST5は、分析結果を実際のアクションに反映させることを示している。
例えば北米、ヨーロッパ、オーストラリアなど、農業大国における精密農業では、リモートセンシングの結果をFMS(Farm Management System)と言われる分析ツールにかけ、その結果をトラクターの制御信号として伝送することで、センシング結果に応じて異なるアクションが行われている。
この場合、本実施の形態としては、センシングST1、後処理ST2、ストレージST3をリモートセンシングシステムハードウエア(以下、「リモートセンシングHW」と略記)、情報処理装置1、クラウド3のどこで行うかに応じて、図6B、図6C、図6D、図6Eのように分類することができる。
リモートセンシングHWは、飛行体200、撮像装置250、センサボックス260を含むハードウエアである。
クラウド3は、情報処理装置1がネットワークを介して通信可能なコンピュータ装置や記憶装置を総称している。
図6Bは、センシングST1、後処理ST2をリモートセンシングHWで行い、ストレージST3を情報処理装置1で行う例である。即ちこの例の場合、例えば飛行体200上の撮像装置250において評価指数算出までを行うものとし、情報処理装置1はその記憶(又は記憶以降)を行う。
図6Cは、センシングST1をリモートセンシングHWで行い、後処理ST2、ストレージST3を情報処理装置1で行う例である。この例の場合、飛行体200上の撮像装置250で撮像した画像データを情報処理装置1が取得し、評価指数算出及び記憶を行う。
図6Dは、センシングST1をリモートセンシングHWで行い、後処理ST2を情報処理装置1で行い、ストレージST3をクラウド3で行う例である。この例の場合、飛行体200上の撮像装置250で撮像した画像データを情報処理装置1が取得し、評価指数算出を行った後、その評価指数をクラウド3で記憶する。
図6Eは、センシングST1をリモートセンシングHWで行い、後処理ST2、ストレージST3をクラウド3で行う例である。この例の場合、飛行体200上の撮像装置250で撮像した画像データをクラウド3に転送し、評価指数算出及び記憶を行う。
これらのいずれの場合でも、本実施の形態で説明する技術は適用可能である。換言すれば、情報処理装置1のみならず、クラウド3における情報処理装置1でも本開示の技術は適用できるものである。
以下、実施の形態の説明は図6Dのケースで行う。
この場合の各部の動作概要を図7に示す。
例えばリモートセンシングHWでセンシングST1が行われる。具体的には撮像部31で撮像される画像データと、照度センサ261で得られる照度情報が、信号処理系30の処理によりメモリカード62に格納される。信号処理系30とは撮像信号処理部32、カメラ制御部33、格納部34、センサ制御部262の総称としている。
メモリカード62は情報処理装置1に装填され、画像データとセンサデータは情報処理装置1に受け渡される。情報処理装置1は後処理ST2として評価指数の演算を行う。
評価指数の情報(例えばNDSI画像等)は基地局4を介してクラウド3に送信され、記憶装置5に記憶(ストレージST3)が行われる。
この記憶装置5に格納された評価指数の情報は例えばサーバ6の分析ソフトウエアによる分析ST4に用いられる。
また分析結果に応じたアクションST5が、実行装置7に指示される。例えば分析結果に基づく制御データを実行装置7としてのトラクターなどに転送することで、作物の発育状況に応じた可変施肥、散水などが行われる。
<3.第1の実施の形態>
第1の実施の形態としての具体的な処理例を説明する。この場合、撮像装置250はハイパースペクトルカメラであるとする。
まず図8に植生のリモートセンシングの具体例を示す。ハイパースペクトルカメラでは、非常に細かく多くの波長の画像を取り出すことができる。そこで、太陽光についても細かい分光特性を検出することが必要であり、分光器による測定がよく行われる(照度センサ261として分光器を用いる)。
図8Bはハイパースペクトルカメラとしての撮像装置250により、被写体である植物を撮像した場合の出力を示す。
太陽光の分光特性をL(λ)、植物の反射率の分光特性をP(λ)、撮像装置250(ハイパースペクトルカメラ)の分光特性をC(λ)とする。太陽光が植物に反射して撮像装置250に届くことになるため、撮像装置250からの出力CameraOut(λ)は、
CameraOut(λ)=L(λ)×P(λ)×C(λ)
で示すことができる。
一方、図8Aは、照度センサ261として設けられた分光器の出力を示す。
照度センサ261(分光器)の分光特性をS(λ)とする。太陽光スペクトルは照度センサ261に直接降り注ぐため、この照度センサ261の出力SensorOut(λ)は、
SensorOut(λ)=L(λ)×S(λ)
で示すことができる。
今、求めたいのは、被写体の反射率の分光特性P(λ)である。
図8Bの式を図8Cのように展開して、P(λ)を算出することができる。
ここで図8Aに示すように、L(λ)=SensorOut(λ)/S(λ)であるため、この値を図8Cの式のL(λ)に代入する。
つまり、図8Bでは太陽光の分光特性L(λ)と植物の反射率の分光特性をP(λ)の2つが未知であるのに対して、図8Aでは太陽光の分光特性L(λ)以外は既知であるため、図8Aの環境で太陽光の分光特性L(λ)が検出できる。この結果を図8Bに反映させることで、光源のキャリブレーションが可能となり、正しく植物の反射率の分光特性P(λ)が算出できる。換言すれば、太陽光の分光特性L(λ)が一定の状態とした状態で植物の反射率の分光特性P(λ)を算出できる。
図9に、情報処理装置1に取り込まれた後の光源キャリブレーションと植生指数算出までの処理を示す。
情報処理装置1のCPU51は、ステップS201でデータ取込を行う。即ちハイパースペクトルカメラである撮像装置250による撮像画像データ及び照度センサ261の情報を含む付加データを取得する。
ステップS202でCPU51は照度データ処理を行う。この場合CPU51は、取り込まれた付加データの中から照度センサ261の検出情報(分光器の出力SensorOut(λ))を取り出し、分光器の出力SensorOut(λ)と分光器の分光特性S(λ)から、太陽光の分光特性L(λ)を算出する。
ステップS203でCPU51はカメラデータ処理を行う。この場合CPU51は、撮像装置250の出力CameraOut(λ)と、撮像装置250(ハイパースペクトルカメラ)の分光特性C(λ)と、太陽光の分光特性L(λ)とを用いて、植物の反射率の分光特性P(λ)を算出する。
ステップS204でCPU51は評価指数算出を行う。
植物の反射率の分光特性P(λ)が算出できると、2つの波長の組み合わせにより、NDSIと言われる様々な植生指数を算出することができる。
例えば、撮像された植物の反射光における波長i,jの反射率の分光特性P(i)、P(j)を用いて、
NDSI(Pi,Pj)=(Pi-Pj)/(Pi+Pj)
として植生指数を求めることができる。
ここまでは基本的な処理の説明であるが、本実施の形態では、ステップS204の処理においてSNR改善を行うことで、より高精度な植生指数を算出する。
図10は、図9の処理、特にステップS201、S204の処理をより詳細に示している。
ステップS201ではCPU51は上記の通りデータ取込を行うが、情報処理装置1に取り込まれる画像データは一度のフライトで何百枚もある。CPU51は、それらの画像を読み込む際に、フレーム毎に次のような分析を行う。
即ちステップS210として示すように、
(1)フレーム内画素の平均値の算出
(2)エッジ部分検出
(3)無効領域検出
(4)各画素のバラツキ(σ)の算出
を行う。
ここで(1)のフレーム内画素の平均値は、(2)のエッジ部分、(3)の無効領域を除いた画素の平均値であり、(4)のバラツキもこの領域におけるバラツキを算出しておく。
次にCPU51は、ステップS202,S203で上述のように照度データ処理、カメラデータ処理を行った後、ステップS204でSNR改善処理を含む植生指数算出を行う。
即ち図9に示したステップS204の植生指数算出の処理は、より具体的には図10に示すステップS241のSNR改善処理、ステップS242のスティッチ処理、ステップS243の植生指数算出処理、ステップS244のUI(ユーザインタフェース)処理として実行される。
またステップS241のSNR改善処理においては、より詳細には、ステップS250の植生指数SNR予測、ステップS251の不足SNR算出、ステップS252の各画素のSNR改善の各処理が実行される。
ステップS250の植生指数SNR予測として、CPU51は、ステップS210でフレーム毎に分析した結果を用いて、各フレームのSNRを算出する。
具体的には、上記(1)のフレーム内画素の平均値から、各フレームのSNR(SNR1)を、次の(式1)で算出する。
Figure 0007225600000001
但し“S”はフレームの平均信号レベル(=上記(1)のフレーム内画素の平均値)、“Ns”は光ショットノイズ、“Nd”は暗時ノイズ、“Nq”は量子化ノイズである。
なお光ショットノイズNs、暗時ノイズNd、量子化ノイズNqは撮像装置250のイメージセンサのスペックから算出される値である。従ってこれら光ショットノイズNs、暗時ノイズNd、量子化ノイズNqはイメージセンサにより固有の値を持ち、例えばCPU51がアクセスできるメモリに格納されているなどして既知の値となる。
また、フレーム毎に分析した結果(上記(4)の各画素のバラツキ(σ))から求められる各フレームのSNR(SNR2)を次の(式2)で算出する。
Figure 0007225600000002
ここで次の(式3)により、SNR1,SNR2のうちの小さい方を、そのフレームのSNRと定義する。
Figure 0007225600000003
これは、信号成分にもバラツキがあるため、安定的な成分を求めるためには、信号成分のバラツキもノイズの一部と捉える必要があり、SNR1,SNR2のうちの悪い方を基準に改善量を見積もるという意味がある。
次にCPU51は植生指数(NDSI)のSNRを算出する。
波長(λ)=iの時の植生の反射率をPi
波長(λ)=jの時の植生の反射率をPj
とすると、植生指数(NDSI)は次の(式4)のようになる。
Figure 0007225600000004
ここで“α”は光源およびカメラの分光特性から決定されるキャリブレーション係数である。
ここで(式3)で決定されるSNRから
波長(λ)=iの時のシグナルとノイズをSi、Ni、
波長(λ)=jの時のシグナルとノイズをSj、Njとすると、
植生指数(NDSI)のSNRは次の(式5)のように算出される。
Figure 0007225600000005
以上までが、ステップS250の植生指数SNR予測の処理となる。
次にCPU51はステップS251で不足SNRを算出する。
今、改善の目標とするSNR値であるターゲットSNRを“SNRt”とすると、改善が必要なSNRの量である“SNRup”(即ち不足SNR)は、次の(式6)で算出される。
Figure 0007225600000006
この不足SNR分のSNR値の改善のためには様々な方法があるが、1つの簡単な例としては、周辺の画素を平均化することが挙げられる。
どの程度の画素平均が必要か(即ち積分画素数NUMR)は、次の(式7)で算出することができる。
Figure 0007225600000007
この時√NUMRが一辺の画素数になるため、√NUMR×√NUMRの面積で平均化すると、所望のSNRが得られることになる。
なお平方数でない場合、目標値以上の精度を確保する考え方と、目標値には達しない中でも精度を高くする考え方がある。例えば画素数が“10”の場合でいえば4×4画素の平均をとることや、3×3画素の平均をとることが考えられる。
次にCPU51はステップS252として各画素のSNR改善を行う。
各画素のSNR改善の具体的な様子を図11に示す。図11AのようにCPU51はステップS260で積分画素数NUMRの平均化を行い、ステップS261で精度確保が不十分な領域をインジケートする処理を行う。
ここでは必要なSNR改善量(SNRup)が約28dBで、積分画素数NUMRが25画素、5×5画素の平均化が必要な場合を示す。
図11Bは、図11AのステップS260、S261の処理をブロック図で示している。
メモリ81は画像データが格納されたある記憶領域であるとする。CPU51はメモリ81から対象画素を取り出す(処理OP1)。5×5画素が順次取り出されることになる。
CPU51は取り出した5×5画素の平均化を順次行い(処理OP2)、メモリ82に書き込む。メモリ82は平均化後の画像データを格納するある記憶領域であるとする。
なお処理OP1で取り出した5×5画素の画素であっても、無効領域の画素の場合は、CPU51はゼロにインジケートする処理を行い(処理OP3)、メモリ82に書き込む。
例えば画像データは図11Bの左図のように、圃場210としてのフィールドFD、道RD(畑の周辺道路やあぜ道等)、その他ANを含むことがある。この場合、フィールドFDが有効領域、道RDやその他ANが無効領域である。このように無効領域は、精度確保の対象外である。
また、フィールドFD内であっても、画像のエッジに当たる領域(撮像画像の隅の領域)は、5×5画素の平均化ができない。例えばエッジにある画素EGは、5×5画素の平均化には斜線部の画素が必要となり、この場合、画素データが存在しないため必要な平均化ができない。従ってこのような画素EGについては、精度が十分とはならない。
そこで右図のようにエッジ部分の画素の領域NFDは、無効領域と同様に扱うようにする。
以上の処理で図10のステップS250,S251,S252の処理が行われ、ステップS241としてのSNR改善処理が行われたことになる。
その後、各フレームの画像データのスティッチ処理が行われ(S242)、例えば圃場全体の画像が形成される。そして植生指数算出が行われ(S243)、UI処理として植生指数画像がユーザに提示される(S244)。
SNR改善が行われた画像データを用いることで、算出され、提示される植生指数の精度は向上されることになる。
なお、植生指数の画像を表示部56等で表示する際には、無効領域や精度不十分領域が明示されることで、ユーザは画像内で精度の高い部分を正しく認識できる。
なお、図11で示した処理に代えて、図12で示す処理で各画素のSNR改善が行われるようにしてもよい。
図12AのようにCPU51はステップS270で空間ノイズリダクションによるSNR改善を行い、ステップS271で精度確保が不十分な領域をインジケートする処理を行うものである。図12Bにこの処理をブロック図で示している。
メモリ81から対象画素を取り出す。つまり5×5画素が順次取り出される(処理OP1)。
取り出された5×5画素の画素については、空間ノイズリダクションが行われる(処理OP4)。まず5×5画素の画素データについて、2次元ハイパスフィルタ(2DHPF)92で高周波成分を抽出する。そしてリミッタ93で大きなエッジ部分をリミットし、乗算器94で係数kをかけて、減算器95に供給する。減算器95には、元の画素の信号がタイミング合わせのための遅延回路91を介して供給される。従って減算器95では乗算器94の出力を元の信号から引き算することになる。これによってSNR改善が行われる。この減算器95の出力はメモリ82に書き込まれる。
なお、これらの処理OP4の各部の処理は、ハードウエア演算により行うように図示したが、もちろんソフトウエア演算によっても可能である。
このように空間ノイズリダクションによりSNR改善を行うことができるが、この場合、必要なSNR量に応じて係数kを大きくすることで、所望のSNR改善が可能である。
また無効領域の画素については、図11の例と同様にゼロにインジケートされ(処理OP3)、メモリ82に書き込まれる。
<4.第2の実施の形態>
第2の実施の形態として、撮像装置250がハイパースペクトルカメラではなく、任意の波長がチューナブルに算出可能なマルチスペクトルカメラの場合の例を示す。
ハイパースペクトルカメラの場合と、マルチスペクトルカメラの場合との違いは、上述した(式1)で算出されるSNRが、マルチスペクトルカメラの場合では次のように算出される点である。
まず(式8)~(式12)を示す。
Figure 0007225600000008
撮像装置250(マルチスペクトルカメラ)の出力CameraOut(λ)は、上記(式8)で示すことができる。図13Bに乗算される分光特性を模式的に示している。なお図13A、図13Cは図8A、図8Cと同様である。
太陽光の分光特性L(λ)は後から光源情報を元に補正されるため、これを込みでL(λ)×P(λ)を算出する。必要な波長λを、λ=iおよびλ=jとすると、iおよびjの波長に対して算出すればよい。ここではλ=iの場合を示す。
L(λ)×P(λ)は上記の(式9)で示すことができる。
ここでは、マルチスペクトルカメラのフィルタが4種類でそれぞれの出力が“A”“B”“C”“D”であり、λ=iの時のC-1(λ)が(式10)に示す“E”~“T”までのマトリクスであるとする。
出力が“A”“B”“C”“D”のそれぞれについての信号Si(波長(λ)=iの時のシグナル)は、信号取り込み時に、第1の実施の形態で説明した「(1)フレーム内画素の平均値の算出」で算出した値をそれぞれAave、Bave、Cave、Daveとして、上記(式11)で算出される。
一方ノイズレベルとしては、光ショットノイズNs、暗時ノイズNd、量子化ノイズNqから決まるノイズをNiとすると、上記(式12)のように算出される。
これから各波長毎(ここではλ=iおよびj)のSNRを算出することになる。
その他の処理は第1の実施の形態と同様に行うこととなる。
<5.第3の実施の形態>
撮像装置250として、「特定用途を想定した特定の波長帯域を検出するカメラ」を用いた場合を図14に示す。
図14A、図14Cは図8A、図8Cと同様である。図14Aには、撮像装置250の分光特性C(λ)として、特定波長帯検出カメラの場合を模式的に示している。
例えば取り込み時の画像が、RED(赤波長域)、NIR(近赤外波長域)となる場合、波長i=RED、j=NIRとして、第1の実施の形態と同様に、被写体の反射率の分光特性P(λ)を求めればよい。
<6.第4の実施の形態>
上述の第1の実施の形態では、図10のステップS250の「植生指数SNR予測」において、SNRの小さい方を、このフレームのSNRと定義し信号成分のバラツキも含めてSNRの悪い方を基準に改善量を見積もると述べた((式1)(式2)(式3)参照)が、その限りではない。異なる例を第4の実施の形態として説明する。
画像の解像度を重視するケースにおいては、常に(式1)で得られた結果をそのフレームのSNRと定義するのがよい。
そうすることで、信号のバラツキ(絵柄、解像度)に左右されず、常にノイズ信号に対するSNRをベースとした改善が可能となる。
また、もう少し手を加えた方法としては、各フレームの対象となる有効領域を複数のブロックに分割し、ブロック毎に(式1)と(式2)を使ってSNR1とSNR2を算出する。この時、信号レベルSは、各ブロックの平均信号レベルである。
次にブロック毎、SNR1とSNR2を比較する。
SNR1とSNR2の差が大きいブロックでは、信号のバラツキが大きく、解像度が大きいブロックであるため、SNR予測には適さないと判断できる。
逆にSNR1とSNR2の差が小さいブロックでは、信号のバラツキも小さく、解像度が小さいブロックであるため、SNR予測に適すると判断できる。
そこで、フレームを分割した複数の各ブロックから、SNR予測に適するブロックだけを集め、それらのブロックの平均値をそのフレームのSNRとして予測する。
或いは、平均値の代わりに、最大値または最小値をそのフレームのSNRとして予測することも可能である。
このように、SNR予測に関して各種の手法が考えられる。
<7.移動体への応用例>
本開示に係るSNR改善の技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図1021の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図16は、撮像部12031の設置位置の例を示す図である。
図16では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図16には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12101ないし12104で撮像された画像データについてのSNR改善に用いることができる。これにより、より精度の高いセンシング等が可能となる。
<8.まとめ及び変形例>
以上の実施の形態では次のような効果が得られる。
実施の形態の情報処理装置1は、画像データのSNRを予測する処理と、予測されたSNRに基づいて画像データのSNRを調整するSNR改善処理と、SNR改善処理が反映された状態で評価指数を算出する処理と、を行う評価演算部74を備えている。
イメージセンサをセンシング用途に利用する場合、画素単位のSNRが厳しく、所望の精度を実現できないことが多い。例えば観察対象を撮像した画像データから評価指数を求める場合に、画像データのSNRによって精度が十分でない場合がある。
そこで画像毎にSNRを予測し、そのSNRに応じたSNR調整(SNR改善)を施す。これにより、SNRが変動しやすい環境において撮像された画像データから求める評価指数について、常に一定以上の精度が保たれるようにすることができる。
例えば土壌成分、植生指数などをリモートセンシングにより、その良し悪しを計測する場合に、天候や環境によらずに一定以上の評価指数画像を生成することができ、作物の育成状況の把握や、土壌調査などに適切な情報を提供できることになる。
また植生に限らず、例えば車載カメラにより車両の周囲状況を確認する画像、安全性の評価画像等を生成する場合に、SNRの低下による精度低下を防止できる。
実施の形態では、評価指数の画像データのSNRを予測し、評価指数を算出する各要素及び画像データの各画素のSNR改善処理を行った状態で評価指数を算出するようにした(図10参照)。
例えばNDSI画像等の評価指数の画像データのSNRを予測し、評価指数を算出する要素(例えば特定の波長の画像)や、その各画素のSNR改善を行う。
これにより評価指数の画像データについて適切なSNR調整ができ、評価指数の精度を向上させることができる。
実施の形態では、SNR改善処理は、予測されたSNRと目標SNRから求められる不足SNRに応じて画像データのSNRの調整を行う処理であるとした(図10、式1~式7参照)。
SNRを予測することで、目標のSNRに対する不足分が推定されるため、その不足SNRに応じたSNR改善を行う。これにより適切な改善量のSNR調整ができる。
実施の形態では、SNR改善処理では、画像データの各画素のSNRの改善のために、不足SNRを用いて求められた数の周辺画素の平均化を行う例を挙げた(図11参照)。
不足SNR分のSNR改善のために周辺画素の平均化を行う際に、平均化する周辺画素数を、不足SNRを用いて求められた数とする。これにより目標のSNRに対する適切なSNR調整ができる。
実施の形態では、SNR改善処理では、画像データの各画素のSNRの改善のために、不足SNRを用いて求められた数の周辺画素を対象として空間ノイズリダクションを行う例を挙げた(図12参照)。
SNR改善の手法として空間ノイズリダクションを行う場合も、対象の画素は不足SNRを用いて求められた数とする。これにより目標のSNRに対する適切なSNR調整ができる。
実施の形態では、評価指数の提示の際に、前記SNR改善処理が有効とならない領域を明示する処理が行われる例を挙げた(図11C参照)。
つまりSNR改善によっても十分に精度が確保できない領域については、ユーザに明確に提示されるようにする。これによりユーザは、SNR改善のよって精度が確保できた領域と、そうでない領域を明確に区別して、提示された評価指数を確認できる。
実施の形態では、評価指数として植生評価指数(例えばNDSI)の例を挙げた。
即ち植生のリモートセンシングを行うシステムにおいて、撮像画像或いは撮像画像から生成された植生評価画像に対しSNR改善を行う。
これにより植物のセンシングにおいて評価精度を向上させることができる。
特に屋外の圃場210を対象とする場合、時間帯による太陽位置、撮影角度、天候等、様々な要因で、センシング結果が大きく異なる。1回のフライト内でも、突然晴れから曇りに変わり、センシング結果に影響を及ぼす。さらにイメージセンサの精度の事情もある。本実施の形態では、画像のSNRを改善することで、このような外的要因の変動やシステム事情の影響を低減又は排除でき、常に良好なセンシング結果を得ることができる。
また例えば、今年の作物の育成状況を昨年の作付けの状態と正しく比較しようとする場合、精度の違いにより、一概に比較できないが、本実施の形態のようにSNR改善(SNR調整)を行うようにすることで評価精度が安定し、それが可能となる。つまり異なる時点での比較評価という点でも好適となる。
実施の形態では、光源(太陽光)の分光特性L(λ)を反映して植物の反射率の分光特性P(λ)を算出し、算出された植物の反射率の分光特性P(λ)から植生指数を算出する例を挙げた。
天候の影響などで変動する光源である太陽光をキャリブレーションした状態で植物の反射率の分光特性を算出することで、太陽光の状態にかかわらない植物の反射率が算出でき、植生指数の精度を向上させることができる。
実施の形態では、画像データのフレーム毎に、フレームの平均信号レベル、光ショットノイズ、暗時ノイズ、量子化ノイズの値を用いて画像データのSNRの予測値を求める処理を行う例を挙げた(図10、式1~式5参照)。
フレームの平均信号レベルはフレーム内画素の平均値である。光ショットノイズ、暗時ノイズ、量子化ノイズは撮像装置のイメージセンサのスペックから算出される。これらを用いた演算で画像データのSNRの予測値を求める。
この場合、各フレームについてフレームの平均信号レベルを求めることで、比較的容易に予測SNRを求めることができる。
実施の形態のプログラムは、画像データのSNRを予測する処理と、予測されたSNRに基づいて画像データのSNRを調整するSNR改善処理と、SNR調整処理後の画像データに基づき評価指数を算出する処理とを情報処理装置に実行させるプログラムである。
即ち図10の処理を情報処理装置1に実行させるプログラムである。
このようなプログラムにより本実施の形態の情報処理装置1の実現が容易となる。
そしてこのようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体や、CPUを有するマイクロコンピュータ内のROM等に予め記憶しておくことができる。あるいはまた、半導体メモリ、メモリカード、光ディスク、光磁気ディスク、磁気ディスクなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
なお、実施の形態ではSNR改善処理を行う例を述べているが、SNRを或るレートに安定化するということも、センシング精度を安定化したい場合には有効である。
そこで、SNRを必ずしも改善するだけでなく、場合によっては目標SNR値に安定化するために、部分的にSNRを下げる場合も有り得る。
そのため、SNR改善だけでなく、SNR一定化の場合も含めて本開示では、SNR調整といっている。
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
なお本技術は以下のような構成も採ることができる。
(1)
画像データのSNRを予測する処理と、
予測されたSNRに基づいて画像データのSNRを調整するSNR調整処理と、
前記SNR調整処理後の画像データに基づき評価指数を算出する処理と、を行う評価演算部を備えた
情報処理装置。
(2)
前記評価演算部は、
評価指数の画像データのSNRを予測し、
評価指数を算出する各要素及び画像データの各画素のSNR調整処理を行った状態で評価指数を算出する
上記(1)に記載の情報処理装置。
(3)
前記SNR調整処理は、予測されたSNRと目標SNRから求められる不足SNRに応じて画像データのSNRの調整を行う処理である
上記(1)又は(2)に記載の情報処理装置。
(4)
前記SNR調整処理は、前記不足SNRを用いて求められた数の周辺画素の平均化を行う処理である
上記(3)に記載の情報処理装置。
(5)
前記SNR調整処理は、前記不足SNRを用いて求められた数の周辺画素を対象として空間ノイズリダクションを行う処理である
上記(3)に記載の情報処理装置。
(6)
評価指数の提示の際に、前記SNR調整処理が有効とならない領域を明示する処理が行われる
上記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記評価指数は、植生評価指数である
上記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記評価演算部では、光源の分光特性を反映して植物の反射率の分光特性を算出し、算出された植物の反射率の分光特性から植生指数を算出する
上記(7)に記載の情報処理装置。
(9)
前記評価演算部は、
画像データのフレーム毎に、フレームの平均信号レベル、光ショットノイズ、暗時ノイズ、量子化ノイズの値を用いて画像データのSNRの予測値を求める処理を行う
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
画像データのSNRを予測する処理と、
予測されたSNRに基づいて画像データのSNRを調整するSNR調整処理と、
前記SNR調整処理後の画像データに基づき評価指数を算出する処理と、
を情報処理装置が実行する情報処理方法。
(11)
画像データのSNRを予測する処理と、
予測されたSNRに基づいて画像データのSNRを調整するSNR調整処理と、
前記SNR調整処理後の画像データに基づき評価指数を算出する処理と、
を情報処理装置に実行させるプログラム。
1…情報処理装置、31…撮像部、32…撮像信号処理部、33…カメラ制御部、34…格納部、35…通信部、41…位置検出部、42…時計部、43…姿勢検出部、44…高度検出部、51…CPU、52…ROM、53…RAM、54…バス、55…入出力インタフェース、56…表示部、57…入力部、58…音声出力部、59…記憶部、60…通信部、61…メディアドライブ、62…メモリカード、71…データ授受制御部、72…照度データ処理部、73…カメラデータ処理部、74…評価演算部、75…表示制御部、200…飛行体、210…圃場、250…撮像装置、251…センサ部、260…センサボックス、261…照度センサ、262…センサ制御部、

Claims (10)

  1. 画像データの画素の平均値から算出されるSNRと、画像データの画素のバラツキから算出されるSNRとのうちの値の小さい方を用いて植生指数の画像データのSNRを予測する処理と、
    予測されたSNRに基づいて画像データの各画素のSNRを調整するSNR調整処理と、
    前記SNR調整処理後の画像データに基づき植生指数を算出する処理と、を行う評価演算部を備えた
    情報処理装置。
  2. 前記評価演算部は
    植生指数を算出する各要素のSNR調整処理を行った状態で植生指数を算出する
    請求項1に記載の情報処理装置。
  3. 前記SNR調整処理は、予測されたSNRと目標SNRから求められる不足SNRに応じて画像データのSNRの調整を行う処理である
    請求項1に記載の情報処理装置。
  4. 前記SNR調整処理は、前記不足SNRを用いて求められた数の周辺画素の平均化を行う処理である
    請求項3に記載の情報処理装置。
  5. 前記SNR調整処理は、前記不足SNRを用いて求められた数の周辺画素を対象として空間ノイズリダクションを行う処理である
    請求項3に記載の情報処理装置。
  6. 植生指数の提示の際に、前記SNR調整処理が有効とならない領域を明示する処理が行われる
    請求項1に記載の情報処理装置。
  7. 前記評価演算部では、光源の分光特性を反映して植物の反射率の分光特性を算出し、算出された植物の反射率の分光特性から植生指数を算出する
    請求項1に記載の情報処理装置。
  8. 前記評価演算部は、
    画像データのフレーム毎に、フレームの平均信号レベル、光ショットノイズ、暗時ノイズ、量子化ノイズの値を用いて植生指数の画像データのSNRの予測値を求める処理を行う
    請求項1に記載の情報処理装置。
  9. 画像データの画素の平均値から算出されるSNRと、画像データの画素のバラツキから算出されるSNRとのうちの値の小さい方を用いて植生指数の画像データのSNRを予測する処理と、
    予測されたSNRに基づいて画像データの各画素のSNRを調整するSNR調整処理と、
    前記SNR調整処理後の画像データに基づき植生指数を算出する処理と、
    を情報処理装置が実行する情報処理方法。
  10. 画像データの画素の平均値から算出されるSNRと、画像データの画素のバラツキから算出されるSNRとのうちの値の小さい方を用いて植生指数の画像データのSNRを予測する処理と、
    予測されたSNRに基づいて画像データの各画素のSNRを調整するSNR調整処理と、
    前記SNR調整処理後の画像データに基づき植生指数を算出する処理と、
    を情報処理装置に実行させるプログラム。
JP2018152031A 2018-08-10 2018-08-10 情報処理装置、情報処理方法、プログラム Active JP7225600B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018152031A JP7225600B2 (ja) 2018-08-10 2018-08-10 情報処理装置、情報処理方法、プログラム
EP19759062.3A EP3834169A1 (en) 2018-08-10 2019-08-05 Information processing device, information processing method, and program
US17/265,636 US12056851B2 (en) 2018-08-10 2019-08-05 Information processing device, information processing method, and program
PCT/JP2019/030752 WO2020031970A1 (en) 2018-08-10 2019-08-05 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018152031A JP7225600B2 (ja) 2018-08-10 2018-08-10 情報処理装置、情報処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2020027033A JP2020027033A (ja) 2020-02-20
JP2020027033A5 JP2020027033A5 (ja) 2021-08-12
JP7225600B2 true JP7225600B2 (ja) 2023-02-21

Family

ID=67766219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018152031A Active JP7225600B2 (ja) 2018-08-10 2018-08-10 情報処理装置、情報処理方法、プログラム

Country Status (4)

Country Link
US (1) US12056851B2 (ja)
EP (1) EP3834169A1 (ja)
JP (1) JP7225600B2 (ja)
WO (1) WO2020031970A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7225600B2 (ja) * 2018-08-10 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
JP7563446B2 (ja) 2020-03-25 2024-10-08 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US11580730B2 (en) 2020-06-25 2023-02-14 GEOSAT Aerospace & Technology Apparatus and method for image-guided agriculture
US11620821B2 (en) 2020-06-25 2023-04-04 GEOSAT Aerospace & Technology Apparatus and method for image-guided agriculture
US20230319434A1 (en) * 2020-09-14 2023-10-05 Sony Semiconductor Solutions Corporation Solid-state imaging device, signal processing method, and electronic device
JP7041794B1 (ja) * 2020-11-27 2022-03-24 楽天グループ株式会社 センシングシステム、センシングデータ取得方法、及び制御装置
JP2022117205A (ja) * 2021-01-29 2022-08-10 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、撮像システム、情報処理方法及びプログラム
CN114091337B (zh) * 2021-11-23 2024-08-02 中国矿业大学 一种基于gps干涉反射模式的ndvi双频融合反演方法
JP2024047123A (ja) * 2022-09-26 2024-04-05 キヤノン株式会社 測定装置、測定方法、およびプログラム
WO2024202611A1 (ja) * 2023-03-30 2024-10-03 日本電気株式会社 物体検出システム、処理システム、教師データの生成方法、物体検出方法、及び記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205737A (ja) 2007-02-19 2008-09-04 Olympus Corp 撮像システム、画像処理プログラム、画像処理方法
WO2017010258A1 (ja) 2015-07-10 2017-01-19 ソニー株式会社 検査装置、検査方法、及び、プログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06121192A (ja) * 1992-10-08 1994-04-28 Sony Corp ノイズ除去回路
JPH10262160A (ja) * 1997-03-18 1998-09-29 Nippon Hoso Kyokai <Nhk> Sn比検出装置および雑音低減装置
JP2001218210A (ja) * 2000-02-02 2001-08-10 Sony Corp ノイズ検出方法、ノイズ検出装置、画像データ処理装置、記録媒体
US7263240B2 (en) * 2002-01-14 2007-08-28 Eastman Kodak Company Method, system, and software for improving signal quality using pyramidal decomposition
DE10214114A1 (de) * 2002-03-28 2003-10-23 Siemens Ag Verfahren und Vorrichtung zur Filterung eines mittels eines medizinischen Gerätes gewonnenen digitalen Bildes mittels eines Ortsfrequenzoperators
US7248749B2 (en) * 2003-07-29 2007-07-24 Ge Medical Systems Global Technology Company, Llc Method and apparatus for signal-to-noise ratio dependent image processing
US8527301B2 (en) * 2006-01-20 2013-09-03 Deere & Company System and method for evaluating risk associated with a crop insurance policy
KR100809687B1 (ko) * 2006-02-28 2008-03-06 삼성전자주식회사 영상신호에 포함된 잡음을 제거할 수 있는 영상신호처리장치 및 방법
JP5162890B2 (ja) 2006-12-01 2013-03-13 株式会社サタケ リモートセンシングにおける補正方法
JP4760801B2 (ja) * 2007-08-07 2011-08-31 ソニー株式会社 画像判定装置、画像判定方法、およびプログラム
KR101341099B1 (ko) * 2007-09-14 2013-12-13 삼성전기주식회사 노이즈 저감 방법 및 장치
JP4893758B2 (ja) * 2009-01-23 2012-03-07 ソニー株式会社 画像処理装置、画像処理方法および撮像装置
US8346011B2 (en) * 2009-06-26 2013-01-01 Mayo Foundation For Medical Education And Research Reducing noise in an image
JP2012124832A (ja) * 2010-12-10 2012-06-28 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
US10107770B2 (en) * 2014-06-18 2018-10-23 Texas Tech University System Portable apparatus for soil chemical characterization
CN104614321B (zh) * 2015-01-20 2017-07-25 山东农业大学 一种基于光谱图像的作物长势实时监测方法
JP2017009396A (ja) * 2015-06-19 2017-01-12 パナソニックIpマネジメント株式会社 撮像装置
US10657378B2 (en) * 2015-09-25 2020-05-19 Board Of Regents, The University Of Texas System Classifying images and videos
US10864998B2 (en) * 2016-04-14 2020-12-15 National University Corporation Hokkaido University Spectral camera control device and method for controlling spectral camera
CN106290197A (zh) * 2016-09-06 2017-01-04 西北农林科技大学 水稻叶片全氮含量高光谱估测及估测模型构建方法
EP3340130A1 (en) * 2016-12-23 2018-06-27 Hexagon Technology Center GmbH Method for prediction of soil and/or plant condition
CN106841116B (zh) * 2016-12-29 2019-08-16 中国科学院遥感与数字地球研究所 人工绿色目标的检测方法和装置
US11054368B2 (en) * 2018-01-18 2021-07-06 Wisconsin Alumni Research Foundation System for detection of disease in plants
WO2019148122A1 (en) * 2018-01-29 2019-08-01 Aerovironment, Inc. Multispectral filters
WO2020000084A1 (en) * 2018-06-29 2020-01-02 Farmer's Edge Inc. Automatic crop health change detection & alerting system
JP7225600B2 (ja) * 2018-08-10 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205737A (ja) 2007-02-19 2008-09-04 Olympus Corp 撮像システム、画像処理プログラム、画像処理方法
WO2017010258A1 (ja) 2015-07-10 2017-01-19 ソニー株式会社 検査装置、検査方法、及び、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Bo-Cai Gao,An Operational Method for Estimating Signal to Noise Ratios from Data Acquired with Imaging Spectrometers,REMOTE SENS.ENVIRON.,1993年,Vol.43,pp.23-33

Also Published As

Publication number Publication date
WO2020031970A1 (en) 2020-02-13
US12056851B2 (en) 2024-08-06
EP3834169A1 (en) 2021-06-16
JP2020027033A (ja) 2020-02-20
US20210304368A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP7225600B2 (ja) 情報処理装置、情報処理方法、プログラム
US11917281B2 (en) Camera system, method and instructions using images captured by a first mage sensor and a second image sensor to generate a third image corresponding to a simulated lens having an intermediate focal length
EP3700198B1 (en) Imaging device, image processing apparatus, and image processing method
US11403857B2 (en) System and method for vehicle localization
US10904503B2 (en) Image processing device, information generation device, and information generation method
CN111448529B (zh) 信息处理装置、移动物体、控制系统、信息处理方法以及程序
WO2019130945A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
CN111226094A (zh) 信息处理装置、信息处理方法、程序和移动体
EP4056950A1 (en) Thermal imaging for navigation systems and methods
CN109076167A (zh) 图像处理器、摄像装置和图像处理系统
CN111886854B (zh) 曝光控制装置、曝光控制方法、程序、成像装置和移动体
US11375137B2 (en) Image processor, image processing method, and imaging device
WO2019163315A1 (ja) 情報処理装置、撮像装置、及び撮像システム
CN111868778B (zh) 图像处理装置、图像处理方法以及存储介质
KR20210146891A (ko) 정보 처리 장치 및 정보 처리 방법
JP7059185B2 (ja) 画像処理装置、画像処理方法、および撮像装置
US20230290137A1 (en) Information processing apparatus, information processing method, and program
EP4067814A1 (en) Radiometric thermal imaging improvements for navigation systems and methods
US20220114768A1 (en) Information processing device, information processing method, and information processing program
CN116457843A (zh) 飞行时间物体检测电路和飞行时间物体检测方法
KR20200119790A (ko) 인식 장치와 인식 방법 그리고 프로그램

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R151 Written notification of patent or utility model registration

Ref document number: 7225600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151