JP2019003558A - 物体検出装置 - Google Patents
物体検出装置 Download PDFInfo
- Publication number
- JP2019003558A JP2019003558A JP2017119813A JP2017119813A JP2019003558A JP 2019003558 A JP2019003558 A JP 2019003558A JP 2017119813 A JP2017119813 A JP 2017119813A JP 2017119813 A JP2017119813 A JP 2017119813A JP 2019003558 A JP2019003558 A JP 2019003558A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- region
- extraction
- area
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】一例として、背景が変化する状況下であっても、対象物と背景との輝度差が小さい場合における対象物の検出精度を向上させることができる物体検出装置を提供する。【解決手段】実施形態にかかる物体検出装置は、領域特定部と、特徴抽出部と、パラメータ変更部とを備える。領域特定部は、撮像画像から対象物が存在する可能性のある領域と該領域の周辺領域とを含む対象領域を特定する。特徴抽出部は、領域特定部によって特定された対象領域から特徴点を抽出する。パラメータ変更部は、領域特定部によって特定された対象領域の輝度分布に基づき、特徴抽出部による処理に用いられる抽出パラメータを変更する。【選択図】図2
Description
本発明の実施形態は、物体検出装置に関する。
従来、撮像画像から対象物を検出する物体検出装置が知られている。
特許文献1には、撮像画像の輝度分布と予め取得しておいた背景画像の輝度分布とを比較し、両者が類似する場合に、撮像画像のコントラスト補正を行ったうえで、補正後の撮像画像からエッジ情報を抽出して対象物を検出する装置が開示されている。この装置によれば、日陰に暗色の服を着た人が存在している場合など、コントラストが不足している場合における対象物の検出精度を高めることが可能である。
しかしながら、上述した従来技術は、コントラスト補正を行う際に、予め取得しておいた背景画像と撮像画像とを比較することとしているため、背景が変化するような状況下においてはコントラスト補正を適切に行うことが困難である。
本発明の実施形態にかかる物体検出装置は、一例として、撮像画像から対象物が存在する可能性のある領域と該領域の周辺領域とを含む対象領域を特定する領域特定部と、前記領域特定部によって特定された前記対象領域から特徴点を抽出する特徴抽出部と、前記領域特定部によって特定された前記対象領域の輝度分布に基づき、前記特徴抽出部による処理に用いられる抽出パラメータを変更するパラメータ変更部とを備える。
よって、一例としては、対象領域の輝度分布に基づいて抽出パラメータを変更することで、対象物と背景部分との輝度値の差が小さい場合であっても、対象領域から対象物を検出するのに適切な数の特徴点を抽出することができる。また、従来技術と異なり、背景画像を用いることなく抽出パラメータを変更することができる。したがって、背景が変化する状況下であっても、対象物と背景との輝度差が小さい場合における対象物の検出精度を向上させることが可能である。
上記物体検出装置では、一例として、前記パラメータ変更部は、前記輝度分布の分散または標準偏差に基づいて前記抽出パラメータを変更する。
対象物と背景部分との輝度値の差が小さくなるほど、対象領域の輝度分布の分散または標準偏差は小さくなる。よって、たとえば、予め実験またはシミュレーション等によって求めておいた分散または標準偏差と抽出パラメータとの関係を示す式を用いて分散または標準偏差から抽出パラメータへの変換を行うことで、対象物と背景部分との輝度値の差に応じた抽出パラメータに変更することができる。
上記物体検出装置では、一例として、前記パラメータ変更部は、前記輝度分布の分散または標準偏差が閾値以下である場合には、前記特徴抽出部によって抽出される前記特徴点の数が多くなるように前記抽出パラメータを変更し、前記輝度分布の分散または標準偏差が前記閾値よりも大きい場合には、前記特徴抽出部によって抽出される前記特徴点の数が少なくなるように前記抽出パラメータを変更する。
よって、一例としては、対象物と背景部分との輝度差によらず、最適な数の特徴点を抽出することができる。
上記物体検出装置では、一例として、前記領域特定部は、時間的に前後する複数の前記撮像画像における輝度値の変化に基づいて前記対象物が存在する可能性のある領域を特定する。
よって、一例としては、対象物が存在する可能性のある領域を背景差分法を用いることなく特定することができる。したがって、背景が動的に変化する状況下であっても、対象領域を適切に特定することが可能である。
上記物体検出装置では、一例として、時間的に前後する前記撮像画像からそれぞれ抽出される前記特徴点に基づき、前記対象物の移動方向を示す追跡情報を生成する追跡部と、複数の前記追跡情報を時系列に蓄積した追跡情報群と前記対象物の動作に対応付けて予め登録された登録情報群との比較結果に基づき、当該動作が行われたか否かを判定する判定部とを備える。
よって、一例としては、複数フレーム分の追跡情報を一つのかたまり(追跡情報群)として、予め登録された登録情報群と比較することで、一つの追跡情報から動作を判定する場合と比較して、登録情報群に対応する動作が行われたか否かを精度よく判定することができる。
〔1.動体検出処理の一例〕
まず、実施形態に係る物体検出処理の一例について図1Aおよび図1Bを参照して説明する。図1Aおよび図1Bは、実施形態に係る物体検出処理の一例を示す図である。
まず、実施形態に係る物体検出処理の一例について図1Aおよび図1Bを参照して説明する。図1Aおよび図1Bは、実施形態に係る物体検出処理の一例を示す図である。
実施形態に係る物体検出処理は、撮像画像からエッジ等の特徴点を抽出し、抽出した特徴点に基づいて対象物を検出する。ここでは、一例として、人の足部を「対象物」として検出する場合について説明する。
図1Aには、暗色の服を着用した人Hを光が少ない状況下で撮像した場合の撮像画像Xを示している。このように対象物(人Hの足部)と背景部分との輝度差が小さい場合、図1Bの上図に示すように、撮像画像Xからは僅かな特徴点Fしか抽出することができず、対象物の検出精度が低下するおそれがある。
そこで、実施形態に係る物体検出処理では、特徴点Fを抽出する際に用いる抽出パラメータを撮像画像Xの輝度分布に基づいて変更することにより、対象物と背景との輝度差が小さい場合における対象物の検出精度を向上させることとした。
具体的には、まず、撮像画像Xから対象物が存在する可能性のある領域とその周辺領域(すなわち背景部分)とを含む対象領域Sを特定する。
対象物が存在する可能性がある領域は、たとえば、フレーム間差分法を用いて特定することができる。すなわち、撮像画像Xを含む、時間的に前後する複数の撮像画像における輝度値の変化に基づいて対象物が存在する可能性がある領域を特定する。そして、特定した領域に対してさらにその周辺の領域を加えた領域を対象領域Sとして特定する。
図1Aに示す例では、対象物が存在する可能性がある領域として人Hの足部の領域が特定され、足部の領域と足部の周辺の領域とを含んだ領域が対象領域Sとして特定されている。
つづいて、特定した対象領域Sの輝度分布に基づいて抽出パラメータを変更する。たとえば、図1Aに示す例のように人Hと背景部分との輝度差が小さい場合、対象領域Sの輝度分布のバラツキは小さくなる。このような場合には、対象領域Sから抽出される特徴点Fの数が多くなるように抽出パラメータを変更する。また、人Hと背景部分との輝度差が大きい場合には、対象領域Sから抽出される特徴点Fの数が少なくなるように抽出パラメータを変更する。
そして、上記のようにして変更された抽出パラメータを用いて対象領域Sから特徴点Fを抽出する。これにより、図1Bの下図に示すように、抽出パラメータを変更することなく特徴点Fの抽出を行った場合(図1Bの上図)と比較して、より多くの特徴点Fを抽出することができる。その後、抽出された特徴点Fに基づいて対象物である人Hの足部を検出する。
このように、実施形態に係る物体検出処理では、対象領域Sの輝度分布に基づいて抽出パラメータを変更することで、人Hと背景部分との輝度値の差が小さい場合であっても、対象領域Sから対象物を検出するうえで適切な数の特徴点Fを抽出することができる。このため、対象物と背景との輝度差が小さい場合における対象物の検出精度を向上させることができる。
また、抽出パラメータは、対象領域Sの輝度分布に基づいて動的に変更されるため、光の当たり方が大きく変化するような状況下においても、対象物を適切に検出することができる。また、背景差分法を用いないため、背景が大きく変化する状況下においても対象物を適切に検出することができる。
したがって、実施形態に係る物体検出処理によれば、たとえば、車載カメラで撮像した車外の画像から他車や歩行者等の障害物を対象物として検出する車外監視への適用が可能である。すなわち、車載カメラによって撮像される画像は、車両の走行に伴って背景が動的に変化し、輝度も、たとえばライトを点けた対向車とすれ違ったりトンネルへ進入したりすることによって動的に変化する。しかし、実施形態に係る物体検出処理によれば、このような状況下においても、対象物を適切に検出することができる。
また、実施形態に係る物体検出処理は、車載カメラで撮像した車室内の画像から乗員を対象物として検出する車室内監視への適用も可能である。実施形態に係る物体検出処理を車室内監視に適用することにより、たとえば、乗員を検知するために座席に設けられる体重検知センサが不要になる。
以下、上述した物体検出処理を実現する物体検出装置について図2以降を参照して詳細に説明する。以下においては、撮像画像に写り込んだ人の動作を判定する動作判定装置に対して本発明に係る物体検出装置を適用した場合の例について説明する。
〔2.動作判定装置の構成〕
実施形態に係る動作判定装置の構成について図2を参照して説明する。図2は、動作判定装置の構成例を示すブロック図である。
実施形態に係る動作判定装置の構成について図2を参照して説明する。図2は、動作判定装置の構成例を示すブロック図である。
図2に示すように、実施形態に係る動作判定装置1は、撮像装置10から入力される撮像画像に基づいて人の動作を判定し、判定結果を外部装置へ出力する。
動作判定装置1は、領域特定部2と、輝度分散算出部3と、パラメータ変更部4と、特徴抽出部5と、追跡部6と、判定部7と、記憶部8とを備える。
かかる動作判定装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するマイクロコンピュータや各種の回路を含んで構成される。そして、動作判定装置1は、CPUがROMに記憶された駆動制御プログラムを、RAMを作業領域として使用して実行することにより、上述した領域特定部2、輝度分散算出部3、パラメータ変更部4、特徴抽出部5、追跡部6および判定部7として機能する。なお、動作判定装置1が備える各処理部は、それぞれ一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。
(撮像装置10について)
撮像装置10は、たとえば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮像素子を内蔵するデジタルカメラである。撮像装置10は、所定のフレームレートで撮像した撮像画像の画像データ(以下、単に「撮像画像」と記載する)を動作判定装置1へ出力する。
撮像装置10は、たとえば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮像素子を内蔵するデジタルカメラである。撮像装置10は、所定のフレームレートで撮像した撮像画像の画像データ(以下、単に「撮像画像」と記載する)を動作判定装置1へ出力する。
(領域特定部2について)
領域特定部2は、撮像装置10から撮像画像が入力されるごとに、撮像画像から対象物が存在する可能性のある領域とその周辺領域とを含む対象領域Sを特定する。
領域特定部2は、撮像装置10から撮像画像が入力されるごとに、撮像画像から対象物が存在する可能性のある領域とその周辺領域とを含む対象領域Sを特定する。
ここで、領域特定部2による領域特定処理の一例について図3を参照して説明する。図3は、領域特定処理の一例を示す図である。
図3に示すように、領域特定部2は、たとえば、撮像装置10から入力された現在の撮像画像Xと、撮像画像Xの1フレーム前の撮像画像Xt−1とを比較し、輝度値の差が閾値以上である領域を対象物が存在する可能性のある領域S1として特定する。そして、領域特定部2は、特定した領域S1と、領域S1の周辺領域S2とを合わせた領域を対象領域Sとして特定する。周辺領域S2は、領域S1を取り囲む領域すなわち背景に相当する領域である。
ここでは、領域S1を囲む矩形状の領域を周辺領域S2としているが、周辺領域S2の形状は矩形に限定されるものではなく、たとえば、領域S1を所定の倍率で拡大させた形状であってもよい。
また、ここでは、撮像画像Xの全領域において、撮像画像Xt−1との比較を行うものとするが、領域特定部2は、対象物が存在する可能性が高い領域に限定して撮像画像Xt−1との比較を行ってもよい。たとえば、対象物が人Hの足部である場合には、撮像画像Xの下半分の領域に限定して撮像画像Xt−1との比較を行ってもよい。
また、ここでは、現在の撮像画像Xと1フレーム前の撮像画像Xt−1との間での輝度値の変化に基づいて領域S1を特定することとしたが、領域特定部2は、撮像画像Xt−1よりも古い撮像画像をさらに用いて、すなわち、複数の過去の撮像画像を用いて領域S1の特定を行ってもよい。また、領域特定部2は、過去の撮像画像だけでなく、未来の撮像画像を用いて領域S1の特定を行ってもよい。
このように、領域特定部2は、対象物が存在する可能性のある領域S1を背景差分法を用いることなく特定することができるため、背景が動的に変化する状況下においても、対象領域Sを適切に特定することが可能である。なお、動作判定装置1は、複数の撮像画像を一時的に記憶しておくための記憶部を備えているものとする。
(輝度分散算出部3について)
輝度分散算出部3は、対象領域Sの輝度分布の分散または標準偏差を算出する。なお、1つの撮像画像Xから複数の対象領域Sが特定された場合には、輝度分散算出部3は、特定された複数の対象領域Sの各々について、輝度分布の分散または標準偏差を算出する。
輝度分散算出部3は、対象領域Sの輝度分布の分散または標準偏差を算出する。なお、1つの撮像画像Xから複数の対象領域Sが特定された場合には、輝度分散算出部3は、特定された複数の対象領域Sの各々について、輝度分布の分散または標準偏差を算出する。
輝度分散算出部3は、対象領域Sの輝度分布(輝度ヒストグラム)を用いて分散または標準偏差を算出する。
ここで、対象物と背景部分との輝度値の差が大きい場合と小さい場合とにおける輝度分布の相違について図4Aおよび図4Bを参照して説明する。図4Aは、対象物と背景部分との輝度値の差が大きい場合における対象領域Sの輝度分布の一例を示す図である。また、図4Bは、対象物と背景部分との輝度値の差が小さい場合における対象領域Sの輝度分布の一例を示す図である。
図4Aには、一例として、暗色の背景の中に暗色の服を着用した人が立っている光景を光が多い状況下で撮像した場合の撮像画像X’を示している。このように光が多い状況下においては、対象物である人Hの足部と背景部分との輝度差は大きくなる。よって、撮像画像X’の対象領域Sからは、バラツキが大きい輝度分布が得られる。
一方、図4Bには、暗色の背景の中に暗色の服を着用した人が立っている光景を光が少ない状況下で撮像した場合の撮像画像Xを示している。このように光が少ない状況下においては、対象物である人Hの足部と背景部分との輝度差は小さくなる。よって、撮像画像Xの対象領域Sからは、バラツキが小さい輝度分布が得られる。
(パラメータ変更部4について)
パラメータ変更部4は、輝度分散算出部3から対象領域Sの輝度分布の分散または標準偏差の情報が入力されるごとに、入力された分散または標準偏差に基づき、後述する特徴抽出部5による特徴抽出処理に用いられる抽出パラメータを変更して特徴抽出部5へ出力する。
パラメータ変更部4は、輝度分散算出部3から対象領域Sの輝度分布の分散または標準偏差の情報が入力されるごとに、入力された分散または標準偏差に基づき、後述する特徴抽出部5による特徴抽出処理に用いられる抽出パラメータを変更して特徴抽出部5へ出力する。
抽出パラメータには、たとえば、特徴抽出処理に用いられる抽出用閾値が含まれ得る。
一例として、パラメータ変更部4は、輝度分散算出部3から入力された分散または標準偏差を閾値と比較する。そして、分散または標準偏差が閾値以下である場合、パラメータ変更部4は、特徴抽出処理において抽出される特徴点Fの数が多くなるように抽出用閾値を低くする。一方、輝度分散算出部3から入力された分散または標準偏差が閾値を超える場合、パラメータ変更部4は、特徴抽出処理において抽出される特徴点Fの数が少なくなるように抽出用閾値を高くする。
たとえば、図4Bのように対象物と背景部分との輝度差が小さい場合、特徴抽出処理において抽出される特徴点Fの数は最適な数よりも少なくなり、対象物の検出精度が低下するおそれがある。
そこで、パラメータ変更部4は、輝度分散算出部3から入力された分散または標準偏差が閾値以下である場合には、対象物と背景部分との輝度差が小さいと判断し、特徴抽出処理において抽出される特徴点Fの数が多くなるように抽出用閾値を低くする。これにより、対象物と背景部分との輝度差が小さい場合であっても最適な数の特徴点Fを抽出することができる。
一方、図4Aのように対象物と背景部分との輝度差が大きい場合、特徴抽出処理において抽出される特徴点Fの数は最適な数よりも多くなる可能性がある。抽出される特徴点Fの数が最適な数よりも多くなると、ノイズの影響が大きくなり、対象物の検出精度が低下するおそれがある。
そこで、パラメータ変更部4は、輝度分散算出部3から入力された分散または標準偏差が閾値を超える場合には、対象物と背景部分との輝度差が大きいと判断し、特徴抽出処理において抽出される特徴点Fの数が少なくなるように抽出用閾値を高くする。これにより、対象物と背景部分との輝度差が大きい場合であっても最適な数の特徴点Fを抽出することができる。
このように、動作判定装置1では、対象領域Sにおける輝度分布の分散または標準偏差に基づいて抽出パラメータを変更することで、対象物と背景部分との輝度差によらず、最適な数の特徴点Fを抽出することができる。
なお、パラメータ変更部4は、記憶部8に記憶された変換情報を用い、輝度分散算出部3から入力される分散または標準偏差を抽出パラメータに変換してもよい。変換情報は、予め実験またはシミュレーションによって求めておいた分散または標準偏差と抽出パラメータとの関係を示す変換テーブルや変換マップ等の情報である。あるいは、パラメータ変更部4は、予め実験またはシミュレーションによって求めておいた分散または標準偏差と抽出パラメータとの関係を示す式またはその近似式を用いて分散または標準偏差から抽出パラメータへの変換を行ってもよい。
なお、パラメータ変更部4は、対象領域Sの輝度分布の分散または標準偏差に基づき、撮像画像のコントラストを補正するγ補正値を変更してもよい。たとえば、パラメータ変更部4は、輝度分散算出部3から入力された分散または標準偏差を閾値と比較し、分散または標準偏差が閾値以下である場合にγ補正値を高くする。これにより、特徴点Fが抽出されやすくなるため、対象物の検出精度の低下を抑制することができる。
(特徴抽出部5について)
特徴抽出部5は、対象領域Sからエッジやコーナー等の特徴点Fを抽出する。特徴点Fを抽出する手法としては、たとえば、Harrisコーナー検出法を用いることができる。Harrisコーナー検出法は、撮像画像中のコーナー(角部)を特徴点Fとして検出する手法の一種である。
特徴抽出部5は、対象領域Sからエッジやコーナー等の特徴点Fを抽出する。特徴点Fを抽出する手法としては、たとえば、Harrisコーナー検出法を用いることができる。Harrisコーナー検出法は、撮像画像中のコーナー(角部)を特徴点Fとして検出する手法の一種である。
特徴抽出部5は、Harrisコーナー検出法により算出される値を抽出用閾値と比較して抽出用閾値よりも大きければ、その値に対応する箇所を特徴点Fとして抽出し、抽出した特徴点Fの位置等の情報を追跡部6へ出力する。
抽出用閾値は、パラメータ変更部4から入力される抽出パラメータであり、上述したように対象領域Sにおける輝度分布の分散または標準偏差に応じて最適な値に変更される。これにより、抽出用閾値が固定である場合と比較して、より適切な数の特徴点Fを抽出することができ、対象物の検出精度を向上させることができる。
なお、特徴抽出部5は、Harrisコーナー検出法に限らず、たとえば、FAST、DoG、SIFT、SURFといった他の手法を用いて特徴(点、エッジ)を抽出してもよい。
(追跡部6について)
追跡部6は、特徴抽出部5によって抽出された特徴点Fを追跡する。
追跡部6は、特徴抽出部5によって抽出された特徴点Fを追跡する。
具体的には、追跡部6は、時間的に前後する2つの撮像画像からそれぞれ抽出される特徴点Fに基づき、2フレーム間における対象物の移動方向を示す追跡情報を生成する。
ここで、追跡部6による追跡情報生成処理の一例について図5を参照して説明する。図5は、追跡情報生成処理の一例を示す図である。
図5に示すように、追跡部6は、まず、複数の特徴点Fを一つのかたまり(クラスターC)と見なすクラスタリング処理を行う。
クラスタリングの手法としては、たとえば、Ward法を用いることができる。Ward法では、まず、クラスタリングの対象となる複数(図の例では5個)の特徴点F間のユークリッド距離をそれぞれ算出する。つづいて、最小距離にある2個の特徴点Fを1個のクラスターとし、2個の特徴点Fの重心をこのクラスターの位置とする。つづいて、1個にまとめたクラスターを含めた各クラスター間のユークリッド距離を算出し、最小距離にある2個のクラスターをまとめて1個のクラスターとする。以上の処理を、複数の特徴点Fが1個のクラスターCとなるまで繰り返す。
つづいて、追跡部6は、クラスターCの2フレーム間の動きを追跡する処理を行う。
追跡手法としては、たとえば、Lucas−Kanade法を用いることができる。Lucas−Kanade法は、2つの画像の対応点を探索してその速度ベクトルを求める手法である。追跡部6は、Lucas−Kanade法を用いてクラスターCの2フレーム間における移動方向および移動速度の情報を含む追跡情報を生成する。
なお、追跡部6は、Lucas−Kanade法に限らず、たとえば、ブロックマッチング法等の他の手法を用いてクラスターCの追跡を行ってもよい。
つづいて、追跡部6は、追跡情報を時系列に蓄積した追跡情報群を生成する。具体的には、追跡部6は、図示しないバッファに複数フレーム分の追跡情報を時系列に蓄積し、蓄積した複数フレーム分の追跡情報を「追跡情報群」として判定部7に出力する。追跡部6は、この処理を追跡情報を生成するごとに実行する。すなわち、追跡部6は、新たな追跡情報を生成すると、バッファに蓄積されている追跡情報のうち最も古いものを破棄し、新たな追跡情報をバッファに追加する。そして、追跡部6は、バッファに記憶された追跡情報群を判定部7へ出力する。
追跡部6は、上記の処理を登録された動作(以下、「登録ジェスチャ」と記載する)ごとに実行する。なお、蓄積するフレーム数は、登録ジェスチャごとに異ならせてもよい。
(判定部7について)
判定部7は、追跡部6による特徴点の追跡結果に基づいて登録ジェスチャが行われたか否かを判定する。
判定部7は、追跡部6による特徴点の追跡結果に基づいて登録ジェスチャが行われたか否かを判定する。
判定部7は、追跡部6から追跡情報群が入力されるごとに、入力された追跡情報群と、記憶部8に記憶された登録ジェスチャ情報に含まれる登録情報群とを比較する。
ここで、判定部7による比較処理について図6を参照して説明する。図6は、比較処理の一例を示す図である。
図6に示すように、追跡情報群は、複数フレーム(ここでは、9フレーム)分の追跡情報を時系列に蓄積した情報である。図6では、理解を容易にするために、最も古い追跡情報T1から最新の追跡情報T9までを紙面左側から順に並べたものを追跡情報群として示している。また、登録情報群は、登録ジェスチャに対応付けて予め登録される情報であって、登録ジェスチャが理想的に行われたと仮定した場合に得られる仮想的な追跡情報を複数フレーム分蓄積した情報である。登録情報群のフレーム数は、必ずしも追跡情報群のフレーム数と同数でなくてもよく、追跡情報群のフレーム数と異なるフレーム数であってもよい。
判定部7は、追跡情報群と登録情報群とを比較し、これらの類似度(尤度)を算出する。そして、判定部7は、算出した類似度が閾値以上である場合には、登録ジェスチャが行われたと判定し、判定結果を外部装置へ出力する。判定の手法としては、たとえば、DP(Dynamic Programming)マッチング法を用いることができる。判定部7は、この判定処理を登録ジェスチャごとに実行する。なお、判定結果には、登録ジェスチャの内容(たとえば、足を上げる動作)を示す情報が含まれる。
このように、実施形態に係る動作判定装置1では、複数の追跡情報を時系列に蓄積した追跡情報群と予め登録された登録情報群との比較結果に基づいて登録ジェスチャが行われたか否かを判定する。すなわち、実施形態に係る動作判定装置1では、複数フレーム分の追跡情報を一つのかたまり(追跡情報群)として、予め登録された登録情報群と比較することとしたため、一つの追跡情報から動作を判定する場合と比較して、登録ジェスチャが行われたか否かを精度よく判定することができる。
(記憶部8について)
記憶部8は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスク等の記憶装置である。記憶部8は、たとえば、変換情報と登録ジェスチャ情報とを記憶する。
記憶部8は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスク等の記憶装置である。記憶部8は、たとえば、変換情報と登録ジェスチャ情報とを記憶する。
変換情報は、輝度分布の分散または標準偏差と抽出パラメータとの関係を示す変換テーブルや変換マップ等の情報である。また、登録ジェスチャ情報は、登録ジェスチャの内容および登録情報群等の情報を含む。
〔3.動作判定装置の具体的動作〕
次に、上述した動作判定装置1の具体的動作について図7を参照して説明する。図7は、動作判定装置1が実行する処理の手順の一例を示すフローチャートである。
次に、上述した動作判定装置1の具体的動作について図7を参照して説明する。図7は、動作判定装置1が実行する処理の手順の一例を示すフローチャートである。
図7に示すように、動作判定装置1は、撮像装置10から撮像画像が入力されると、入力された撮像画像から対象物が存在する可能性のある領域S1とその周辺領域S2とを含む対象領域Sを特定する(ステップS101)。
つづいて、動作判定装置1は、対象領域Sの輝度分布の分散または標準偏差を算出し(ステップS102)、算出した分散または標準偏差に基づいて抽出パラメータを変更する(ステップS103)。そして、動作判定装置1は、変更した抽出パラメータを用いて対象物の特徴点Fを抽出する(ステップS104)。
つづいて、動作判定装置1は、抽出した複数の特徴点Fをクラスタリングして(ステップS105)、2フレーム間におけるクラスターCの追跡情報を生成する(ステップS106)。また、動作判定装置1は、生成した追跡情報を時系列に蓄積した追跡情報群を生成する(ステップS107)。
つづいて、動作判定装置1は、追跡情報群と登録情報群との類似度を算出し、算出した類似度が閾値以上であるか否かを判定して(ステップS108)、閾値以上であると判定した場合には(ステップS108,Yes)、判定結果を外部装置へ出力する。
ステップS109の処理を終えても、たとえば外部装置から終了指示を受け付けていない場合(ステップS110,No)、ステップS108において類似度が閾値以上でない場合(ステップS108,No)、動作判定装置1は、処理をステップS101へ戻す。動作判定装置1は、ステップS101〜S109の処理をたとえば外部装置から終了指示を受け付けるまで繰り返す。ステップS109の処理を終えて、たとえば外部装置から終了指示を受け付けた場合(ステップS110,Yes)、動作判定装置1は、一連の処理を終了する。
上述してきたように、実施形態に係る動作判定装置1は、領域特定部2と、特徴抽出部5と、パラメータ変更部4とを備える。領域特定部2は、撮像画像から対象物が存在する可能性のある領域S1と該領域の周辺領域S2とを含む対象領域Sを特定する。特徴抽出部5は、領域特定部2によって特定された対象領域Sから特徴点Fを抽出する。パラメータ変更部4は、領域特定部2によって特定された対象領域Sの輝度分布に基づき、特徴抽出部5による処理に用いられる抽出パラメータを変更する。
よって、実施形態に係る動作判定装置1によれば、一例としては、背景が変化する状況下であっても、対象物と背景との輝度差が小さい場合における対象物の検出精度を向上させることが可能である。
なお、上述した実施形態では、動作判定装置1を用いて人の動作を判定する場合の例について説明したが、動作判定装置1は、人以外の動作の判定に用いてもよい。たとえば、動作判定装置1は、踏切やETCレーンに設置される遮断機の動作の判定に用いることができる。この場合、動作判定装置1は、遮断機が備える遮断桿を対象物として、遮断桿が降下する動作や上昇する動作が行われたか否かを判定する。その他、動作判定装置1は、犬猫などの動物やロボット等の動作の判定に用いることもできる。
また、本発明に係る物体検出装置は、動作判定装置1以外の装置にも適用可能である。たとえば、本発明に係る物体検出装置は、上述した車外監視や車室内監視を行う装置に対して適用可能である。また、たとえば、街頭や建物等に設置された監視カメラにより撮像された画像から人や物などの対象物を検出する装置や、スマートフォンなどの携帯端末に搭載されるカメラにより撮像された画像から人や物などの対象物を検出する装置に対して本発明に係る物体検出装置を適用することも可能である。
以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。
1…動作判定装置(物体検出装置の一例)、2…領域特定部、3…輝度分散算出部、4…パラメータ変更部、5…特徴抽出部、6…追跡部、7…判定部、8…記憶部、F…特徴点、S…対象領域
Claims (5)
- 撮像画像から対象物が存在する可能性のある領域と該領域の周辺領域とを含む対象領域を特定する領域特定部と、
前記領域特定部によって特定された前記対象領域から特徴点を抽出する特徴抽出部と、
前記領域特定部によって特定された前記対象領域の輝度分布に基づき、前記特徴抽出部による処理に用いられる抽出パラメータを変更するパラメータ変更部と
を備える物体検出装置。 - 前記パラメータ変更部は、
前記輝度分布の分散または標準偏差に基づいて前記抽出パラメータを変更する、
請求項1に記載の物体検出装置。 - 前記パラメータ変更部は、
前記輝度分布の分散または標準偏差が閾値以下である場合には、前記特徴抽出部によって抽出される前記特徴点の数が多くなるように前記抽出パラメータを変更し、前記輝度分布の分散または標準偏差が前記閾値よりも大きい場合には、前記特徴抽出部によって抽出される前記特徴点の数が少なくなるように前記抽出パラメータを変更する、
請求項2に記載の物体検出装置。 - 前記領域特定部は、
時間的に前後する複数の前記撮像画像における輝度値の変化に基づいて前記対象物が存在する可能性のある領域を特定する、
請求項1〜3のいずれか一つに記載の物体検出装置。 - 時間的に前後する前記撮像画像からそれぞれ抽出される前記特徴点に基づき、前記対象物の移動方向を示す追跡情報を生成する追跡部と、
複数の前記追跡情報を時系列に蓄積した追跡情報群と前記対象物の動作に対応付けて予め登録された登録情報群との比較結果に基づき、当該動作が行われたか否かを判定する判定部と
を備えることを特徴とする請求項1〜4のいずれか一つに記載の物体検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119813A JP2019003558A (ja) | 2017-06-19 | 2017-06-19 | 物体検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119813A JP2019003558A (ja) | 2017-06-19 | 2017-06-19 | 物体検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019003558A true JP2019003558A (ja) | 2019-01-10 |
Family
ID=65006248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017119813A Pending JP2019003558A (ja) | 2017-06-19 | 2017-06-19 | 物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019003558A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019181491A1 (ja) * | 2018-03-22 | 2019-09-26 | 日立オートモティブシステムズ株式会社 | 物体認識装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213166A (ja) * | 2006-02-07 | 2007-08-23 | Toyota Motor Corp | 道路区間線検出装置及び方法並びにプログラム |
JP2011182386A (ja) * | 2010-02-05 | 2011-09-15 | Sony Corp | 画像処理装置、画像処理方法、プログラム、及び電子機器 |
JP2012088881A (ja) * | 2010-10-19 | 2012-05-10 | Nippon Hoso Kyokai <Nhk> | 人物動作検出装置およびそのプログラム |
-
2017
- 2017-06-19 JP JP2017119813A patent/JP2019003558A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213166A (ja) * | 2006-02-07 | 2007-08-23 | Toyota Motor Corp | 道路区間線検出装置及び方法並びにプログラム |
JP2011182386A (ja) * | 2010-02-05 | 2011-09-15 | Sony Corp | 画像処理装置、画像処理方法、プログラム、及び電子機器 |
JP2012088881A (ja) * | 2010-10-19 | 2012-05-10 | Nippon Hoso Kyokai <Nhk> | 人物動作検出装置およびそのプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019181491A1 (ja) * | 2018-03-22 | 2019-09-26 | 日立オートモティブシステムズ株式会社 | 物体認識装置 |
JPWO2019181491A1 (ja) * | 2018-03-22 | 2021-01-14 | 日立オートモティブシステムズ株式会社 | 物体認識装置 |
US11982745B2 (en) | 2018-03-22 | 2024-05-14 | Hitachi Astemo, Ltd. | Object recognizing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636164B2 (en) | Object detection method and apparatus based on dynamic vision sensor | |
US9330446B2 (en) | Method and apparatus for processing image | |
Sen-Ching et al. | Robust techniques for background subtraction in urban traffic video | |
US10839537B2 (en) | Depth maps generated from a single sensor | |
US20170116858A1 (en) | Parking space detection apparatus and method, electronic apparatus | |
KR101747216B1 (ko) | 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체 | |
JP5271227B2 (ja) | 群衆監視装置および方法ならびにプログラム | |
JP2018063680A (ja) | 交通信号認識方法および交通信号認識装置 | |
JP2010244194A (ja) | 物体識別装置 | |
JP6953818B2 (ja) | 動作判定装置 | |
US20180137346A1 (en) | Action determination device | |
KR101712136B1 (ko) | 열화상 카메라를 이용한 객체의 실신 상황 감지 방법 및 장치 | |
JP2016173795A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2015185135A (ja) | 停車認識装置、停車認識方法及びプログラム | |
JP2016095701A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP4740755B2 (ja) | 画像を用いた監視装置 | |
JP2019003558A (ja) | 物体検出装置 | |
JP6772059B2 (ja) | 電子制御装置、電子制御システムおよび電子制御方法 | |
US20210089818A1 (en) | Deposit detection device and deposit detection method | |
JP6495691B2 (ja) | 動体検出装置、動体検出方法及びコンピュータプログラム | |
JP2018197945A (ja) | 障害物検出装置および障害物検出方法 | |
JP2021007055A (ja) | 識別器学習装置、識別器学習方法およびコンピュータプログラム | |
TWI804083B (zh) | 物體偵測系統 | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
US20230343105A1 (en) | Method for detecting road users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210629 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220104 |