JP4825350B2 - Passing object counting device and counting method - Google Patents
Passing object counting device and counting method Download PDFInfo
- Publication number
- JP4825350B2 JP4825350B2 JP2000372859A JP2000372859A JP4825350B2 JP 4825350 B2 JP4825350 B2 JP 4825350B2 JP 2000372859 A JP2000372859 A JP 2000372859A JP 2000372859 A JP2000372859 A JP 2000372859A JP 4825350 B2 JP4825350 B2 JP 4825350B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- passing
- plane
- passing object
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、通過物体計数装置及び計数方法に関し、特にステレオ画像から通過物体を計数する通過物体計数装置及び計数方法に関するものである。
【0002】
【従来の技術】
2台の撮像装置により得られた通過物体のステレオ画像から、計数線上での高さ情報と速度情報を算出し、3次元情報を得る。次に得られた3次元情報を一定の高さで輪切りにして、その高さについて通過物体を時間方向に一定時間並べた時の平面的な時空間画像を作成する。そして作成した平面的な時空間画像を用いて、前記一定の高さにおいて一定以上の幅×時間の面積を持つ物体であるかどうかで、通過物体を計数していた。
【0003】
【発明が解決しようとする課題】
以上のような従来の通過物体計数装置によれば、次のような問題があった。一定時間の平面的な時空間画像で、一定の高さにおいて一定以上の幅×時間の面積を持つ物体であるかどうかで計数を行う方法では、計算に時間がかかり、また逐次処理ができなかった。
【0004】
そこで本発明は、計算量を減らし高速処理でき、逐次処理が可能な通過物体計数装置及び計数方法を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、第1の態様の通過物体計数装置は、例えば図1に示すように、平面2に沿って平面2上の基準線1を通過する通過物体5の奥行情報と速度情報とから通過物体5を計数する通過物体計数装置10において;前記取得された奥行情報に前記速度情報で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分する積分演算部21(図2)と;前記時間積分によって得られた値と予め設定された閾値とに基づいて基準線1を通過した通過物体5を計数する通過計数演算部22、23(図2)とを備える。
【0006】
このように構成すると、積分演算部21と、通過計数演算部22、23とを備えるので、取得された奥行情報に速度情報で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分した値を取得することができ、通過計数演算部22、23を備えるので、時間積分によって得られた値と予め設定された閾値とに基づいて基準線1を通過した通過物体5を計数することができる。なお速度の向きは、同じ速度の方向について、正の向きと負の向きとがある。
【0007】
前記目的を達成するために、第2の態様の通過物体計数装置は、例えば図1に示すように、平面2に沿って平面2上の基準線1を通過する通過物体5を撮像する、平面2に対向して設けられた複数の撮像装置11、12と;複数の撮像装置11、12によって撮像された通過物体5の画像同士を比較して、通過物体5上の基準線1に沿った複数の部位に関して、通過物体5の平面2に交差する奥行方向の奥行情報と前記複数の部位のうち少なくとも1つの部位に関して、基準線1に垂直で平面2に平行な進行方向の速度情報を、時系列的に取得する比較演算部20(図2)と;前記取得された奥行情報に前記速度情報で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分する積分演算部21(図2)とを備える。なお同じ進行方向について、進行の向きは正の向きと負の向きとがある。
【0008】
このように構成すると、複数の撮像装置11、12と、比較演算部20とを備えるので、奥行情報と速度情報を時系列的に取得することができ、積分演算部21を備えるので、取得された奥行情報に速度情報で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分した値を取得することができる。積分演算部21で計算されるのは結局通過物体5の体積である。
【0009】
前記目的を達成するために、第3の態様の通過物体計数装置は、例えば図1に示すように、平面2に沿って平面2上の基準線1を通過する通過物体5を撮像する、平面2に対向して設けられた第1の撮像装置11と;第1の撮像装置11と並列に、且つ平面2に対向して設けられ、基準線1を通過する通過物体5を、第1の撮像装置11の撮像時点より所定の時間だけ遅らせて撮像する第2の撮像装置12と;第1の撮像装置11によって撮像された前記通過物体5の画像Aと前記所定の時間だけ遅らせて第2の撮像装置12によって撮像された前記通過物体の画像Bとを比較して、通過物体5上の基準線1に沿った複数の部位に関して、通過物体5の平面2に交差する奥行方向の奥行情報と前記複数の部位のうち少なくとも1つの部位に関して、基準線1に垂直で平面2に平行な進行方向の速度情報を、時系列的に取得する比較演算部20(図2)と;前記取得された奥行情報に前記速度情報で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分する積分演算部21(図2)とを備える。
【0010】
通過物体5が移動する面は、例えば図12に示すように、水平な平面に限らず斜面や階段のように傾斜した面2’であってもよい。但し、必要に応じて例えば図12(a)のような場合には、傾斜角度により奥行情報と速度情報を補正する。
【0011】
また通過物体5の進行方向に交差する基準線1は、通過物体5の進行方向に垂直な線とするのがよい。また第1と第2の撮像装置は、並列に、基準線1と平行な方向に並べるのがよい。奥行方向は、典型的には平面に垂直な方向、又は鉛直方向である。
【0012】
このように構成すると、第1の撮像装置11によって撮像された通過物体5の画像Aと所定の時間だけ遅らせて第2の撮像装置12によって撮像された通過物体5の画像Bとを比較して、通過物体5上の基準線1に沿った複数の部位に関して、通過物体5の平面2に交差する奥行方向の奥行情報と前記複数の部位のうち少なくとも1つの部位に関して、基準線1に垂直で平面2に平行な進行方向の速度情報を、時系列的に取得する比較演算部20と、前記取得された奥行情報に前記速度情報で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分する積分演算部21とを備えるので、画像Aと画像Bから通過物体5の位置情報と速度情報を得ることができる。
【0013】
また第4の態様は、第2の態様または第3の態様の通過物体計数装置10において、積分演算部21で時間積分して得られた値が予め設定された閾値を越えたときに、通過物体5が1だけ通過したものとして計数する差算通過計数演算部22を備えるとよい。
【0014】
このように構成すると、通過物体5の計数は、通過物体の通過個数(自然数)に対する時間で把握することになる。又は一定時間に通過する個数で把握する。
【0015】
また第5の態様は、第2の態様または第3の態様の通過物体計数装置10において、積分演算部21で時間積分して得られた値を予め設定された閾値で除算した値を通過物体5が通過した数として計数する除算通過計数演算部23を備えるとよい。
【0016】
このように構成すると、通過物体5の計数は、時刻で区切ってその間に通過した通過物体の個数を小数点まで求めることになる。
【0017】
予め設定された閾値とは、典型的には通過物体1個分の体積値である。この体積値は通過物体、場所、時刻、季節等の条件によって、適切な値を定めるとよい。例えば、通過物体が人であり、場所が遊園地であれば子供が中心であり、子供対大人の平均的人数比率を考慮して定めるが体積値は小さめになる。ラッシュアワーの駅であれば、大人の男性が中心であり、冬季であればオーバーコートを着ているので、体積は大きく定める。これを場合毎に統計的に求めておくとよい。
【0018】
前記目的を達成するために、第6の態様の通過物体計数方法は、例えば図4に示すように、平面に沿って該平面上の基準線を通過する通過物体を前記平面に対向する方向から撮像して、複数の画像を取得する撮像工程S1と;撮像工程S1で取得された複数の画像同士を比較して、前記通過物体上の前記基準線に沿った複数の部位に関して、前記通過物体の前記平面に交差する奥行方向の奥行情報と前記複数の部位のうち少なくとも1つの部位に関して、前記基準線に垂直で前記平面に平行な進行方向の速度情報を、時系列的に取得する比較演算工程S9、S12と;前記取得された奥行情報に前記速度情報で重み付けした値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算工程S13とを備える。
【0019】
前記目的を達成するために、第7の態様の通過物体計数方法は、例えば図5に示すように、平面に沿って該平面上の基準線を通過する通過物体を、前記平面に対向した第1の位置から、第1の時点に撮像して画像Aを取得する第1の撮像工程S32と;前記基準線を通過する前記通過物体を、前記第1の時点から所定の時間だけ経過した第2の時点に、前記第1の位置と並列で、且つ前記平面に対向した第2の位置から撮像して画像Bを取得する第2の撮像工程S33と;前記画像Aと前記画像Bとを比較して、前記通過物体上の前記基準線に沿った複数の部位に関して、前記通過物体の前記平面に交差する奥行方向の奥行情報と前記複数の部位のうち少なくとも1つの部位に関して、前記基準線に垂直で前記平面に平行な進行方向の速度情報を、時系列的に取得する比較演算工程S38、S39と;前記取得された奥行情報に前記速度情報で重み付けした値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算工程S40とを備える。
【0020】
このように構成すると、画像Aと画像Bとを比較して、通過物体の平面に交差する奥行方向の情報と基準線に交差し(典型的には垂直に交差し)平面に平行な進行方向の速度を演算する比較演算工程S38、S39を備えるので、通過物体5の位置情報と速度情報を得ることができる。
【0021】
また第8の態様は、第6の態様または第7の態様の通過物体計数方法において、平均的な前記通過物体の1個分の体積を閾値として予め設定する工程S0と;前記積分演算部で時間積分して得られた値が前記閾値を越えたときに、前記通過物体が1だけ通過したものとして計数する通過計数演算工程S15を備えるとよい。
【0022】
また第9の態様は、第6の態様または第7の態様の通過物体計数方法において、平均的な前記通過物体の1個分の体積を閾値として予め設定する工程S0と;前記積分演算部で時間積分して得られた値を前記閾値で除算した値を前記通過物体が通過した数として計数する除算通過計数演算工程S20を備えるとよい。
【0023】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号または類似符号を付し、重複した説明は省略する。
【0024】
図1は、本発明による実施の形態である通過物体計数装置10(以下適宜「計数装置10」という)の模式的斜視図である。図中通過物体5が平面である水平な通路2上を進行方向に移動している。XY軸を通路2内に置くように、直交座標系XYZがとられており、通路2はY軸と平行に延設されている。また通路2の延設方向と垂直即ちX軸と平行に基準線である計数線1がとられている。通過物体5の進行方向は、典型的には通路2の延設方向即ちY軸と平行である。通過物体5は、本実施の形態では人物である。また本実施の形態では、計数線1は通路2の延設方向と垂直としているが、特に垂直としなくてもよい。垂直でない場合は、X軸との角度で視差と速度を補正すればよい。計数線1は、この線を通過した通過物体5を計数するための基準線であり、仮想的な線であってもよく、実際に物理的に通路2に描く必要はない。
【0025】
一方、図中通路2の計数線1の鉛直方向上方には、通過物体である人物5が通過するのに十分な高さに、通路2の計数線1を通過する通過物体5を撮像するための第1の撮像装置11と第2の撮像装置12が設置されている。第1の撮像装置11と第2の撮像装置12は、適切な間隔をあけて並列に、計数線1と平行で且つ光軸がZ軸と平行になるように設置してある。ここでいう人物5が通過するのに十分な高さとは、例えば3000mm程度である。また、適切な間隔とは、例えば50mm程度である。
【0026】
図2を参照して、通過物体計数装置10の構成の一例を説明する。計数装置10は、第1の撮像装置としての第1のCCDカメラ11、第2の撮像装置としての第2のCCDカメラ12、演算装置としてのパソコン13を含んで構成される。
【0027】
そして第1のCCDカメラ11、第2のCCDカメラ12は、パソコン13に接続されており、パソコン13は第1のCCDカメラ11、第2のCCDカメラ12によってそれぞれ撮像された画像を取得出来るように構成されている。
【0028】
パソコン13は、制御部14を備えており、計数装置10全体を制御している。制御部14には、撮像装置用インターフェイス15が接続されており、第1のCCDカメラ11、第2のCCDカメラ12は、撮像装置用インターフェイス15を介して制御部14に接続され、制御されている。
【0029】
また制御部14内には、第1のCCDカメラ11、第2のCCDカメラ12により取得したステレオ画像から、通過物体5の奥行情報である通過物体5の高さと、通過物体5の速度情報である通過物体5の速度を時系列的に取得する比較演算部20、取得した通過物体5の高さに速度で重み付けした値を基準線1に沿って速度の向き別に加算した値を時間積分する積分演算部21、積分演算部21で時間積分して得られた値である体積値が、予め設定された閾値を越えたときに通過物体5が1だけ通過したものとして計数する差算通過計数演算部22、体積値を予め設定された閾値で除算した値を通過物体の通過した数として計数する除算通過計数演算部23が備えられている。比較演算部20は、高さを基準線1に沿って速度の向き別に加算した値に速度で重み付けするようにしてもよい。
【0030】
また、本実施の形態では、差算通過計数演算部22と除算通過計数演算部23を共に備えるとしたが、どちらか一方を備えればよい。この時、差算通過計数演算部22を備えた場合は、例えば、任意の自然数だけ通過物体5が通過した時間を得ることができ、除算通過計数演算部23を備えた場合は、例えばある時刻で区切った任意の時間間隔における通過物体5の通過した数を小数(例えば10.6)として逐次得ることができるので、目的や用途に合わせて差算通過計数演算部22と除算通過計数演算部23のいずれかを選択するとよい。
【0031】
制御部14には、記憶部18が接続されており、第1のCCDカメラ11、第2のCCDカメラ12で撮像された画像や算出された情報等のデータが記憶できる。
【0032】
また制御部14には、計数装置10を操作するための情報を入力する入力装置16、計数装置10で処理された結果を出力する出力装置17が接続されている。入力装置16は例えばキーボードやマウスであり、出力装置17は例えばディスプレイやプリンタである。本図では、入力装置16、出力装置17はパソコン13に外付けするものとして図示されているが、内蔵されていてもよい。
【0033】
さらに図3に示すように、比較演算部20内には、CCDカメラにより撮像された画像を処理する画像処理部25、第1のCCDカメラにより撮像された画像と、第2のCCDカメラにより撮像された画像から対応点を求める対応点探索部26、通過物体5の奥行情報である高さを算出する奥行情報算出部27、通過物体5の速度情報である速度を算出する速度情報算出部28が備えられている。画像を処理するとは、例えば第1のCCDカメラ11、第2のCCDカメラ12からの撮像信号から画像Aとしての第1の画像、第2の画像、画像Bとしての第3の画像を取得することをいう。
【0034】
図4のフローを参照して、第1の実施の形態としての計数装置10の作用の一例を説明する。ここで、第1のCCDカメラ11で撮像された画像を左画像、第2のCCDカメラで撮像された画像を右画像として説明する。まず計数装置10の使用者はパソコン13に閾値を設定する(ステップ0(図中「S0」と表示。
以下同じ))。
【0035】
次にパソコン13の制御部14は、第1のCCDカメラ11、第2のCCDカメラ12で撮像された左画像、右画像を、撮像装置インターフェイス15を介してステレオ画像として取得する(ステップ1)。
【0036】
制御部14は、取得したステレオ画像から、制御部14内の画像処理部19によって、ある時間tに撮像された第1の画像であるtフレームの左画像を取得し(ステップ2)、同時に第2の画像であるtフレームの右画像を取得する(ステップ3)。また時点tよりΔt経過した時点t+Δtに撮像された第3の画像であるt+Δtフレームの右画像を取得する(ステップ3)。
【0037】
実際には同時並列的に一定間隔で撮像を行い、第1の画像、第2の画像として時点tの画像を、第3の画像として1フレーム以上ずらした時点t+Δtの画像を採用するようにすればよい。このときΔtは、計数装置10の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。即ち1フレームだけずらしたフレームを採用する。この時、Δtを1/30秒とすると、例えば80m/minで歩く人を撮像した場合、フレームN+1は、フレームNと比べて撮像された人が約4.4cm進行方向に移動した画像となる。
【0038】
次に、tフレームの右画像のエッジ抽出を行い(ステップ5)、細線化する(ステップ6)。そして、tフレームの右画像の計数線1上のエッジ点を用いてtフレームの左画像の第1の対応点探索を行なう(ステップ7)。また、エッジ抽出、細線化、対応点探索については、図6を参照してあとで詳しく説明する。
【0039】
第1の対応点探索により得られた対応点から奥行情報を算出する(ステップ8)。ここで、背景除去によってあらかじめ非背景部分を規定しておき、その部分に対して、エッジ点における値を反映させるための線形補間を行なう(ステップ9)。ここで線形補間とは、例えば1つのエッジ点と、それに隣接するエッジ点の3次元座標を用いて、両エッジ点を直線で結ぶことにより、両エッジ点の間の点の3次元座標を得るようにするものである。
【0040】
また同時に、tフレームの右画像の計数線1上のエッジ点を用いてt+Δtフレームの右画像の第2の対応点探索を行ない(ステップ10)、第2の対応点探索により得られた対応点から速度情報を算出する(ステップ11)。そして、同様に線形補間を行なう(ステップ12)。また、奥行情報及び速度情報を算出する方法は、図7、図8を参照してあとで説明する。
【0041】
そして、算出された奥行情報に速度情報を乗じたものを時間方向に加え体積値を加算する(ステップ13)。体積値を算出する方法は、図9、図10を参照してあとで説明する。ここで奥行情報に速度情報を乗じて重み付けするのは、通過速度の速い通過物体は、通過速度と通過フレーム数は反比例するので、単に時空間像で計算すると体積値が小さくなるためである。また、通過物体の体積を算出するので、体積の無い通過物体の影を誤って計数してしまうことがない。
【0042】
これにより得られた体積値と予め設定された閾値とを比較して(ステップ15)、体積値が閾値より大きい場合は(ステップ15がY)、通過物体5である人物が1人通過したと判断して計数し(ステップ16)、体積値から閾値を差し引く(ステップS18)。このとき、前述で算出した速度情報を、通過した通過物体5の進行の向きとして反映させる(ステップ17)。体積値が閾値より小さい場合は(ステップ15がN)、次のフレームを取得し、さらに体積値を加算する。また予め設定された閾値とは、典型的には通過物体の最小体積値である。
【0043】
以上では、計数に差算通過計数演算部22を用いた場合を説明したが、除算通過計数演算部23を用いた場合は(図中破線で示す)、まず同様に算出された奥行情報に速度情報を乗じたものを時間方向に加え体積値を加算する(ステップ13)。そして、これにより得られた体積値で計数するかを判断する(ステップ19)。この判断は、例えば取得した画像のフレーム数を予め設定しておいて、設定したフレーム数になると自動的に計数する判断をするようにしてもよいし、使用者の判断で逐次計数する判断をするようにしてもよい。
【0044】
計数する場合は(ステップ19がY)、取得した体積値を予め設定された閾値で除算し(ステップ20)、これにより得られた値を通過物体5である人物の通過人数として計数する(ステップ21)。このとき、前述で算出した速度情報を、通過した通過物体5の進行の向きとして反映させる(ステップ17)。計数しない場合は(ステップ19がN)、次のフレームを取得し、さらに体積値を加算する。
【0045】
図5のフローを参照して、第2の実施の形態としての計数装置10の作用の一例を説明する。第1の実施の形態と同様にまず計数装置10の使用者はパソコン13に閾値を設定し(ステップ30)、ステレオ画像を取得する(ステップ31)。
【0046】
制御部14は、取得したステレオ画像から、制御部14内の画像処理部19によって、ある時間tに撮像された画像Aとしての第1の画像であるtフレームの左画像を取得する(ステップ32)。また時点tよりΔt経過した時点t+Δtに撮像された画像Bとしての第3の画像であるt+Δtフレームの右画像を取得する(ステップ33)。
【0047】
実際には、第1のCCDカメラと第2のCCDカメラとは同時並列的に各時点で撮像を行い、第1の画像として時点tの画像を、第3の画像として1フレーム以上ずらした時点t+Δtの画像を採用するようにしてもよい。このときΔtは、計数装置10の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。
【0048】
次に、tフレームの左画像のエッジ抽出を行い(ステップ34)、細線化する(ステップ35)。そして、tフレームの左画像の計数線1上のエッジ点を用いてt+Δtフレームの右画像の第3の対応点探索を行なう(ステップ36)。
【0049】
次に第3の対応点探索により得られた対応点から、奥行情報を算出する(ステップ37)。ここで、背景除去によってあらかじめ非背景部分を規定しておき、その部分に対して、エッジ点における値を反映させるための線形補間を行なう(ステップ38)。同時に速度情報も算出し(ステップ39)、同様に線形補間も行なう(ステップ40)。奥行情報及び速度情報を算出する方法は、図7、図8を参照してあとで説明する。そして算出された奥行情報に速度情報を乗じたものを時間方向に加え体積値を加算する(ステップ41)。以下、第1の実施の形態と同様にして計数する。
【0050】
図6を参照して、第3対応点探索についてさらに詳細に説明する。ここで、図示の各フレームでの通過物体として人物を、ハッチングにより表現しているが、これは断面を示しているものではなく、単に上方から撮像された人物を表現するものである。
【0051】
ここでは奥行情報および速度情報を求めるために、2枚の画像の対応点を求める。まず、tフレームの左画像と、t+Δtフレームの右画像での対応を求める。この際、近傍領域に特徴のない画素に関しては対応関係が明確に定まらない。
そこで、以下のような流れで探索を行う。
【0052】
まず、tフレームの左画像のエッジ抽出を行い細線化した画像を求め、そのエッジ点においてのみ対応点探索を行う。エッジ抽出とは、濃淡で取得された画像から対象とする通過物体のエッジ点の集合である輪郭を抽出し、例えば座標で特定することをいう。また細線化とは、例えばエッジ抽出を行なった画像を、エッジ抽出で得られた通過物体の輪郭のみを細線で示した画像とするものである。
【0053】
対応点探索を行うには、まずtフレームの左画像の前記特定された輪郭上の点をエッジ点として選定し、濃淡画像上でそのエッジ点を含む近傍領域にウインドウを設定する。典型的には計数線上にあるエッジ点を選定する。エッジ点は典型的には前記細線と計数線との交点であり、通常は複数、典型的には10〜20点存在する。これら複数のエッジ点のうち、例えば最も左にある点をまず選定する。選定したエッジ点が中心になるようにウインドウを設定するとよい。そして前記設定されたウインドウを参照して、t+Δtフレームの右画像にウインドウを設定する。
【0054】
これらのウインドウについて、図11に示す式1を用いてtフレームの左画像とt+Δtフレームの右画像との濃淡値の相関をとる。ここで、IL(i,j)とIR(i,j)はそれぞれ左右画像上のウインドウ内の濃淡値であり、μL , μR , σL , σRはそれぞれ左右ウインドウの濃淡値の平均及び分散である。Cは−1から+1までの範囲内の値をとる。選定された左画像のエッジ点に対して、右画像のウインドウを少しずつ、例えば計数線に平行に移動し、また計数線に直交する方向に移動しながら、各ウインドウでC値を計算する。このようにて求めたCのうち最大値を与える右画像のウインドウを、選定された左画像のウインドウに対応する局所領域とみなす。
【0055】
即ち、上記のように左右画像のウインドウの相関をとり、左画像で選定したエッジ点を含むウインドウと対応する(Cが最大となる)右画像のウインドウを探索する。この探索により得られた右画像のウインドウの中心が、先に選定した左画像のエッジ点に対応する右画像のエッジ点となる。
【0056】
ウインドウの探索は、例えば計数線と平行方向(X軸方向)と垂直方向(Y軸方向)に行う。例えば通過物体が人物である場合は、計数線と平行方向は後述のように左右画像間の視差と見るので、既に設定した左画像のウインドウを参照して、例えば高さが1m〜2mと算出される視差の幅を探索すればよい。垂直方向は、後述のように人物の移動量と見るので、既に設定した左画像のウインドウを参照して、時間Δt間に人物が移動すると予想される移動量の幅を探索すればよい。またCの値が、探索している方向に上昇傾向ならば、さらにCの値が最大となり、下降傾向に移るまで同じ探索方向に探索を継続し、下降傾向ならば、探索方向を変えるか、既に探索した範囲でCの値が最大となるウインドウを選択するようにしてもよい。
【0057】
このようにウインドウの探索を行えば、明らかに探索不要な部分の左右画像のウインドウの相関をとらなくてよいので、さらに計算量を減らすことができる。以上のようにして左画像に存在する全てのエッジ点について対応点の探索を行い、左右画像の対応するエッジ点を得る。
【0058】
以上では、第2の実施の形態の第3の対応点探索について説明したが、第1の実施の形態の第1の対応点探索、第2の対応点探索についても同様の対応点探索を行う。
【0059】
図7を参照して、奥行情報と速度情報の算出についてさらに詳細に説明する。まず前述で得られた左右画像の対応するエッジ点同士を結ぶベクトルを考え、これを水平成分(X軸方向成分)と垂直成分(Y軸方向成分)に分離する。水平成分は、左右画像間の視差を表す量と見ることができ、この視差を用いて対象とする通過物体までの距離を算出することができる。対して、垂直成分は、注目点の通路に沿う方向の移動量と見ることができ、これを基に対象とする通過物体の速度情報を得ることができる。こうして、エッジ点における奥行情報である3次元高さ、速度情報である速度を対の形で一括して得ることができる。
【0060】
なお、1つの通過物体について得られた速度は、通常は等しいはずであるので、各エッジ点全てについて速度を求める必要はなく、例えば最も中心に近い点の速度を採用すればよい。または、各エッジ点の速度を求めて、突出した値を有するエッジ点は、探索に誤りがあったものとして再探索を行うか又はその点は不採用とするとよい。あるいは各エッジ点の速度を全て求めて、それらの平均値を計算し、その物体の速度として採用してもよい。
【0061】
また、後で説明する速度による重み付けには、各点毎の速度を用いてもよいし、平均値で求めた通過物体の速度を各点共通に用いてもよい。
【0062】
ここで左右画像は、Δtだけ時間的にずれた画像ではあるが、Δtが充分に小さい値であれば、左右画像には視差を求めるのに差支えるほどの差は生じない。逆にそのようにΔtを定めることにしてもよい。即ち視差を求めるのに差支えず、且つ速度情報を得るのに充分な長さとする。例えば、対象とする通過物体が歩行者の場合は1/60〜1/10秒程度、特に1/40〜1/20秒、さらに好ましくは約1/30秒とする。
【0063】
このように第2の実施の形態によれば、第1の実施の形態では3枚の画像を使って高さ、速度を求めたのに対して、2枚の画像の処理のみで済むので、計算量を大幅に減らすことができ、処理の高速化が可能になる。
【0064】
ここで、図8を参照して、対象とする通過物体の奥行情報としての平面からの高さzの算出方法について説明する。対象とする通過物体5までの距離aは、図11に示す式2を用いて算出することができる。ここで、wはCCDカメラ間距離(基線長)、fはCCDカメラの結像レンズを単一レンズとしたときそのレンズの焦点距離、dはCCDカメラの結像面上の視差である。ここでの焦点距離は、一般に用いられている組み合わせレンズを使用する場合は、その組み合わせレンズの焦点距離とする。また、CCDカメラの結像レンズから計数線1までの距離をhとすると、対象とする通過物体5の高さzは図11に示す式3で算出する。
【0065】
図9、図10を参照して、前述の方法によって各フレームで算出した通過物体の高さおよび速度を用いて、計数を行う方法を説明する。ある位置xの、あるtフレームにおける物体の高さをz(x,t)、同じ位置、同じフレームにおける速度をv(x,t)とする。前述の対応点探索により、z(x,t)には高さ約0〜185cmに対応させた0〜255の値が、v(x,t)には速度約−12〜12km/hに対応させた−5〜5の値が求められている(図9(a))。
【0066】
次に、そのフレームの積zvを、X軸方向へ加算する。この総和、すなわち図11に示す式4は、あるフレームの奥行情報に、速度の重みを乗じた値(ある時点において単位時間に通過する体積)を意味している。直感的には、計数線を通過したときの人の時空間における断面積と見ることができるので、ここではこの値を「面積値」と呼ぶことにする(図9(b))。後に速度の向き別に計測する必要があるため、この加算の作業も、v(x,t)の正負すなわち通過する人の進行の向きによって、加算する変数を図11に示す式5のように区別しておく。
【0067】
次に、各ラインで算出された面積値を時間方向に加算していく(図10−(a))。この和、すなわち図11に示す式6は、通過した人の体積を表すことになる。これをここでは「体積値」と呼ぶことにする(図10−(b))。フレーム間隔を一定に保っている限り、通過速度と通過フレーム数は反比例するので、速度の重みを考慮したこの加算によって、一人一人の通過から算出される体積値がある程度正規化される。即ち、3次元空間における真の体積値が求められる。
【0068】
図12を参照して、通過物体5が斜面を移動する場合を説明する。例えば階段や坂道などの傾斜した面2’を通過物体5が移動している場合、平面2は基準線1と第1、第2の撮像装置11、12を結ぶ線に垂直な仮想平面2とするのがよい。
【0069】
対象とする通過物体5が人物の場合は、斜面であっても鉛直方向に立つので、CCDカメラの光軸は鉛直方向に向ける(図12(a))。この場合は、仮想平面2は水平面となる。この例では、例えば傾斜した面2’と仮想平面2とのなす角をθとすると、仮想平面2からの通過物体5の高さを得るには、斜面2’を移動する通過物体5の時間Δtの移動量にtanθを乗じた値を、斜面2’を移動する通過物体5の算出された高さから引けばよい。
【0070】
また対象とする通過物体5が、例えば車の場合は、斜面をそのまま本発明の平面2としてよい。この場合、CCDカメラの光軸は斜面に垂直な方向に向ける(図12(b))。
【0071】
次に、本発明の実施例を使用して、実際に行なわれた計数実験の結果について述べる。実験は、大学の校舎の仮設通路で、晴天の昼間に以下の条件で行なった。
実験1:1分あたり約40人通過
実験2:1分あたり約80人通過
実験3:1分あたり約120人通過
撮像装置の設定条件は、撮像装置としてCCDカメラを使用し、カメラ高さ295cm、通路幅200cm、カメラの基線長(カメラ間距離)47mm、焦点距離4.8mmである。また、実際の計数では、前述の除算通過計数演算部23を用いて、30ラインの処理が終了した時点で計数人数を算出する。30ライン分の総体積値をあらかじめ別の入力画像によって決定しておいた1人分の体積値で割った値を通過人数とする。ここでラインとは、フレームの処理単位のことである。
【0072】
600フレーム、時間にして20秒ごとの計数結果として、実験1の結果を図13、実験2の結果を図14、実験3の結果を図15に示す。各図に示す通過人数に付された正負の符号は、互いに逆の向きに人物が進行したことを表すものである。また各図中の計数結果は、自然数として表示しているが、除算通過計数演算部23を用いる場合であるので、小数点まで表示することもできる。
【0073】
各実験の精度は、実験1で87%、実験2で89%、実験3で90%であった。ただし、この精度は20秒ごとで算出したものの平均値であり、計数を長時間にわたって継続して累積したデータで精度を算出すると、各実験とも、95%を超える高い精度を示した。
【0074】
図16は、人がカウンターを持って行うマニュアル計数による計数結果と、本発明を使用して計数した計数結果とを比較したものである。マニュアル計数では、混み合いが少ない場合は正確に計数できるが、混み合いが激しくなるにつれて、精度が極端に落ちている。
【0075】
それに対して、本発明を使用した計数では、混み合いによらず安定した精度を保っていることがわかる。
【0076】
以上説明したように本発明の実施の形態によれば、2台のCCDカメラより取得したステレオ画像から通過物体の高さ、速度が取得でき、取得した高さ、速度から通過物体の体積を速度別に取得できるので、従来と比較してより正確に通過物体を逐次計数することができる。
【0077】
【発明の効果】
以上のように本発明によれば、複数の撮像装置によって撮像された通過物体の画像同士を比較して、通過物体上の基準線に沿った複数の部位に関して、通過物体の平面に交差する奥行方向の奥行情報と前記複数の部位のうち少なくとも1つの部位に関して、基準線に垂直で平面に平行な進行方向の速度情報を、時系列的に取得する比較演算部と、記取得された奥行情報に前記速度情報で重み付けした値を基準線に沿って速度の向き別に加算した値を時間積分する積分演算部とを備えるので、複数の撮像装置によって撮像された通過物体の奥行情報と速度情報を取得し、取得された奥行情報に速度情報で重み付けした値を基準線に沿って速度の向き別に加算した値を時間積分した値を取得でき、計算量を減らし高速処理でき、逐次処理が可能な通過物体計数装置及び計数方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態である通過物体計数装置の概要を示す模式的斜視ブロック図である。
【図2】本発明の実施の形態である通過物体計数装置の構成例を示すブロック図である。
【図3】本発明の実施の形態で用いる比較演算部の構成例を示すブロック図である。
【図4】本発明の第1の実施の形態である通過物体計数装置の作用の一例あるいは本発明の実施の形態である通過物体計数方法を示すフローチャートである。
【図5】本発明の第2の実施の形態である通過物体計数装置の作用の一例あるいは本発明の実施の形態である通過物体計数方法を示すフローチャートである。
【図6】本発明の実施の形態で、第1の画像と第3の画像の第3の対応点探索を行う場合の処理例を説明する画像図である。
【図7】図6の場合における、第1の画像と第3の画像の対応点を結ぶベクトルを説明する画像図である。
【図8】本発明の実施の形態で、第1の撮像装置と第2の撮像装置の視差から、通過物体の高さを算出する方法を説明する様式的正面図である。
【図9】本発明の実施の形態で、計数を行う方法を説明する様式的斜視図である。
【図10】図9の場合における、計数を行う方法を説明する様式的斜視図である。
【図11】本発明の実施の形態の説明で用いられる計算式を示す図である。
【図12】傾斜した面を移動する通過物体を計数する方法の例として、仮想平面で計数する場合(a)と斜面をそのまま本発明の平面とする場合(b)を説明する図である。
【図13】本発明の実施の形態による、実験1の計数実験の結果を示す図である。
【図14】本発明の実施の形態による、実験2の計数実験の結果を示す図である。
【図15】本発明の実施の形態による、実験3の計数実験の結果を示す図である。
【図16】マニュアル計数の計数結果と本発明の実施の形態による通過物体計数装置を使用しての計数の計数結果との比較を示す図である。
【符号の説明】
1 計数線
2 通路
5 通過物体
10 通過物体計数装置
11 第1のCCDカメラ
12 第2のCCDカメラ
13 演算装置
14 制御部
15 撮像装置用インターフェイス
16 入力装置
17 出力装置
18 記憶部
20 比較演算部
21 積分演算部
22 差算通過計数演算部
23 除算通過計数演算部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a passing object counting device and a counting method, and more particularly to a passing object counting device and a counting method for counting passing objects from a stereo image.
[0002]
[Prior art]
From the stereo image of the passing object obtained by the two imaging devices, height information and velocity information on the counting line are calculated, and three-dimensional information is obtained. Next, the obtained three-dimensional information is cut into circles at a certain height, and a planar spatio-temporal image is created when passing objects are arranged in the time direction for a certain time. Then, using the created planar spatio-temporal image, passing objects are counted depending on whether or not the object has an area of a certain width or more and a time at a certain height.
[0003]
[Problems to be solved by the invention]
The conventional passing object counting apparatus as described above has the following problems. In a method that counts whether or not an object has a certain width and time area at a certain height in a planar spatiotemporal image for a certain time, it takes time to calculate and sequential processing cannot be performed. It was.
[0004]
Accordingly, an object of the present invention is to provide a passing object counting device and a counting method capable of reducing the amount of calculation and performing high-speed processing and sequentially processing.
[0005]
[Means for Solving the Problems]
To achieve the above objective,Of the first aspectFor example, as shown in FIG. 1, the passing object counting device counts the
[0006]
If comprised in this way, since the
[0007]
To achieve the above purpose,Of the second aspectFor example, as shown in FIG. 1, the passing object counting device captures a
[0008]
If comprised in this way, since it comprises the some
[0009]
To achieve the above purpose,Of the third aspectAs shown in FIG. 1, for example, the passing object counting device captures a
[0010]
For example, as shown in FIG. 12, the surface on which the
[0011]
The
[0012]
With this configuration, the image A of the
[0013]
AlsoThe fourth aspect is,Second aspectOrThird aspectPassing object counting device 10InIt is preferable to provide a difference passage
[0014]
If comprised in this way, the count of the
[0015]
AlsoThe fifth aspect is,Second aspectOrThird aspectPassing object counting device 10InIt is preferable to provide a division passage
[0016]
If comprised in this way, the count of the
[0017]
The preset threshold value is typically a volume value for one passing object. The volume value may be determined appropriately depending on conditions such as the passing object, location, time, season, and the like. For example, if the passing object is a person and the place is an amusement park, the child is the center, and the volume value is small although it is determined in consideration of the average ratio of children to adults. If it is a rush hour station, adult men are the center. In winter, an overcoat is worn. This should be obtained statistically for each case.
[0018]
To achieve the above purpose,Of the sixth aspectIn the passing object counting method, for example, as shown in FIG. 4, an imaging step S <b> 1 for capturing a plurality of images by imaging a passing object passing through a reference line on the plane along a plane from a direction facing the plane. And comparing the plurality of images acquired in the imaging step S1, and regarding the plurality of portions along the reference line on the passing object, the depth information in the depth direction intersecting the plane of the passing object, and the Comparison operation steps S9 and S12 for acquiring, in time series, velocity information in a traveling direction perpendicular to the reference line and parallel to the plane with respect to at least one of the plurality of portions; An integration operation step S13 for time-integrating a value obtained by adding the value weighted by the speed information along the reference line for each speed direction.
[0019]
To achieve the above purpose,Of the seventh aspectIn the passing object counting method, for example, as shown in FIG. 5, a passing object passing through a reference line on a plane along a plane is imaged from a first position facing the plane at a first time point. A first imaging step S32 for acquiring an image A; the passing object passing through the reference line at a second time point after a predetermined time from the first time point, in parallel with the first position; And a second imaging step S33 in which an image B is obtained by imaging from a second position facing the plane; the image A and the image B are compared, and the reference line on the passing object is compared with the reference line. The depth information in the depth direction intersecting the plane of the passing object and the velocity information in the traveling direction perpendicular to the reference line and parallel to the plane with respect to the plurality of portions along the depth direction intersecting the plane of the passing object Are calculated in a time series. 8, S39 and; and an integral calculation step (S40) integrating the value of the weighted values obtained by adding to the speed of the orientation by along the reference line by the velocity information on the acquired depth information time.
[0020]
When configured in this manner, the image A and the image B are compared, the information on the depth direction intersecting the plane of the passing object and the reference line (typically perpendicularly intersecting) and the traveling direction parallel to the plane Since the comparison calculation steps S38 and S39 for calculating the speed of the moving
[0021]
AlsoThe eighth aspect,Sixth aspectOrSeventh aspectPassing object counting methodInA step S0 in which a volume of one average passing object is set as a threshold value in advance; and when the value obtained by time integration by the integration calculation unit exceeds the threshold value, the passing object is 1 It is preferable to provide a passage counting calculation step S15 that counts as only passing.
[0022]
AlsoThe ninth aspect,Sixth aspectOrSeventh aspectPassing object counting methodInA step S0 in which an average volume of one passing object is set in advance as a threshold; and the passing object has passed a value obtained by dividing the value obtained by time integration by the integration calculation unit by the threshold. A division passage count calculation step S20 for counting as a number may be provided.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol or a similar code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted.
[0024]
FIG. 1 is a schematic perspective view of a passing object counting device 10 (hereinafter referred to as “counting
[0025]
On the other hand, in order to image the passing
[0026]
An example of the configuration of the passing
[0027]
The
[0028]
The
[0029]
Further, in the
[0030]
In the present embodiment, the difference passage
[0031]
A
[0032]
Further, an
[0033]
Further, as shown in FIG. 3, an
[0034]
With reference to the flow of FIG. 4, an example of the effect | action of the
same as below)).
[0035]
Next, the
[0036]
The
[0037]
In practice, images are taken simultaneously at a fixed interval, and the image at time t is used as the first image and the second image, and the image at time t + Δt shifted by one frame or more is used as the third image. That's fine. At this time, Δt may be appropriately determined according to the setting conditions of the
[0038]
Next, edge extraction of the right image of t frame is performed (step 5), and it thins (step 6). Then, the first corresponding point search of the left image of the t frame is performed using the edge points on the
[0039]
Depth information is calculated from the corresponding points obtained by the first corresponding point search (step 8). Here, a non-background portion is defined in advance by background removal, and linear interpolation is performed on the portion to reflect the value at the edge point (step 9). Here, the linear interpolation is, for example, using the three-dimensional coordinates of one edge point and the edge points adjacent to the edge point to connect the two edge points with a straight line, thereby obtaining the three-dimensional coordinates of the point between the two edge points. It is what you want to do.
[0040]
At the same time, the second corresponding point search of the right image of the t + Δt frame is performed using the edge points on the
[0041]
Then, the calculated depth information multiplied by the speed information is added in the time direction, and the volume value is added (step 13). A method for calculating the volume value will be described later with reference to FIGS. The reason why the depth information is weighted by multiplying the depth information is that a passing object with a high passing speed is inversely proportional to the passing speed and the number of passing frames. Further, since the volume of the passing object is calculated, the shadow of the passing object having no volume is not erroneously counted.
[0042]
The volume value obtained in this way is compared with a preset threshold value (step 15). If the volume value is larger than the threshold value (
[0043]
In the above, the case where the difference passage
[0044]
When counting (
[0045]
With reference to the flow of FIG. 5, an example of the operation of the
[0046]
The
[0047]
Actually, the first CCD camera and the second CCD camera pick up images at each time point simultaneously and in parallel, and the time point t as the first image is shifted by one frame or more as the third image. You may make it employ | adopt the image of t + (DELTA) t. At this time, Δt may be appropriately determined according to the setting conditions of the
[0048]
Next, edge extraction of the left image of t frame is performed (step 34), and it thins (step 35). Then, the third corresponding point search of the right image of the t + Δt frame is performed using the edge points on the
[0049]
Next, depth information is calculated from the corresponding points obtained by the third corresponding point search (step 37). Here, a non-background portion is defined in advance by background removal, and linear interpolation is performed on the portion to reflect the value at the edge point (step 38). At the same time, speed information is calculated (step 39), and linear interpolation is also performed (step 40). A method for calculating the depth information and the speed information will be described later with reference to FIGS. Then, the calculated depth information multiplied by speed information is added in the time direction and the volume value is added (step 41). Hereinafter, counting is performed in the same manner as in the first embodiment.
[0050]
The third corresponding point search will be described in more detail with reference to FIG. Here, although a person is expressed by hatching as a passing object in each illustrated frame, this does not indicate a cross section but merely represents a person imaged from above.
[0051]
Here, in order to obtain depth information and speed information, corresponding points of the two images are obtained. First, the correspondence between the left image of t frame and the right image of t + Δt frame is obtained. At this time, the correspondence relationship is not clearly determined for pixels having no feature in the neighboring region.
Therefore, the search is performed according to the following flow.
[0052]
First, edge extraction of the left image of t frame is performed to obtain a thinned image, and corresponding point search is performed only at the edge point. Edge extraction refers to extracting a contour, which is a set of edge points of a target passing object, from an image acquired with shading and specifying the coordinates, for example, with coordinates. Thinning refers to, for example, converting an image obtained by edge extraction into an image in which only the outline of a passing object obtained by edge extraction is indicated by a thin line.
[0053]
In order to perform the corresponding point search, first, a point on the specified outline of the left image of the t frame is selected as an edge point, and a window is set in a neighborhood region including the edge point on the grayscale image. Typically, an edge point on the counting line is selected. An edge point is typically an intersection of the fine line and the count line, and usually there are a plurality of edge points, typically 10 to 20 points. For example, the leftmost point among the plurality of edge points is first selected. The window may be set so that the selected edge point is the center. Then, the window is set to the right image of the t + Δt frame with reference to the set window.
[0054]
With respect to these windows, the correlation between the gray values of the left image of t frame and the right image of t + Δt frame is obtained using
[0055]
That is, the left and right image windows are correlated as described above, and the right image window corresponding to the window including the edge point selected in the left image (C is maximized) is searched. The center of the window of the right image obtained by this search becomes the edge point of the right image corresponding to the edge point of the left image selected previously.
[0056]
The search for the window is performed, for example, in a direction parallel to the count line (X-axis direction) and a vertical direction (Y-axis direction). For example, when the passing object is a person, the direction parallel to the counting line is regarded as a parallax between the left and right images as will be described later, so the height is calculated to be 1 m to 2 m, for example, with reference to the window of the left image that has already been set. What is necessary is just to search the width | variety of the parallax to be performed. Since the vertical direction is regarded as the movement amount of the person as will be described later, the width of the movement amount that the person is expected to move during the time Δt may be searched with reference to the window of the left image that has already been set. If the value of C is increasing in the direction of search, the value of C is further maximized, and the search is continued in the same search direction until the downward trend is reached. You may make it select the window where the value of C becomes the maximum in the already searched range.
[0057]
If the window search is performed in this way, it is not necessary to correlate the windows of the left and right images of the part that clearly does not need to be searched, so that the amount of calculation can be further reduced. As described above, the corresponding points are searched for all the edge points existing in the left image, and the corresponding edge points of the left and right images are obtained.
[0058]
Although the third corresponding point search of the second embodiment has been described above, the same corresponding point search is performed for the first corresponding point search and the second corresponding point search of the first embodiment. .
[0059]
The calculation of depth information and speed information will be described in more detail with reference to FIG. First, a vector connecting corresponding edge points of the left and right images obtained above is considered, and this is separated into a horizontal component (X-axis direction component) and a vertical component (Y-axis direction component). The horizontal component can be viewed as an amount representing the parallax between the left and right images, and the distance to the target passing object can be calculated using this parallax. On the other hand, the vertical component can be regarded as the amount of movement of the attention point in the direction along the path, and based on this, the speed information of the passing object can be obtained. In this way, the three-dimensional height that is the depth information at the edge point and the speed that is the speed information can be collectively obtained in pairs.
[0060]
Since the speeds obtained for one passing object should normally be equal, it is not necessary to obtain the speeds for all the edge points. For example, the speed of the point closest to the center may be adopted. Alternatively, the speed of each edge point is obtained, and an edge point having a protruding value may be re-searched as a search error, or the point may be rejected. Or you may obtain | require all the speed | velocity | rate of each edge point, calculate those average values, and may employ | adopt as the speed | velocity | rate of the object.
[0061]
Further, for the weighting based on the speed described later, the speed for each point may be used, or the speed of the passing object obtained by the average value may be used in common for each point.
[0062]
Here, the left and right images are images that are shifted in time by Δt. However, if Δt is a sufficiently small value, the left and right images do not have a difference enough to support parallax. Conversely, Δt may be determined as such. That is, the length is sufficient to obtain the speed information without any problem for obtaining the parallax. For example, when the target passing object is a pedestrian, it is set to about 1/60 to 1/10 seconds, particularly 1/40 to 1/20 seconds, and more preferably about 1/30 seconds.
[0063]
As described above, according to the second embodiment, the height and speed are obtained using three images in the first embodiment, but only processing of two images is required. The amount of calculation can be greatly reduced, and the processing speed can be increased.
[0064]
Here, with reference to FIG. 8, the calculation method of the height z from the plane as the depth information of the target passing object will be described. The distance a to the
[0065]
With reference to FIG. 9 and FIG. 10, a method of counting using the height and speed of the passing object calculated in each frame by the above-described method will be described. Assume that the height of an object at a certain position x in a certain t frame is z (x, t), and the velocity at the same position and the same frame is v (x, t). According to the corresponding point search described above, z (x, t) corresponds to a value of 0 to 255 corresponding to a height of about 0 to 185 cm, and v (x, t) corresponds to a speed of about −12 to 12 km / h. A value of -5 to 5 is obtained (FIG. 9A).
[0066]
Next, the product zv of the frames is added in the X-axis direction. This sum, that is,
[0067]
Next, the area values calculated for each line are added in the time direction (FIG. 10- (a)). This sum, that is,
[0068]
A case where the passing
[0069]
If the
[0070]
If the
[0071]
Next, the results of a counting experiment actually performed using the embodiment of the present invention will be described. The experiment was conducted in a temporary passage in a university building under the following conditions in the daytime in fine weather.
Experiment 1: Passing about 40 people per minute
Experiment 2: Passing about 80 people per minute
Experiment 3: Passing about 120 people per minute
The setting conditions of the image pickup apparatus are a CCD camera as the image pickup apparatus, a camera height of 295 cm, a passage width of 200 cm, a camera base line length (inter-camera distance) of 47 mm, and a focal length of 4.8 mm. Further, in actual counting, the number of counting persons is calculated at the time when the processing of 30 lines is completed using the above-described division passage counting
[0072]
FIG. 13 shows the results of
[0073]
The accuracy of each experiment was 87% in
[0074]
FIG. 16 shows a comparison between a counting result obtained by manual counting performed by a person with a counter and a counting result counted using the present invention. In manual counting, when the crowding is low, the counting can be performed accurately, but the accuracy decreases extremely as the crowding becomes intense.
[0075]
On the other hand, in the counting using the present invention, it can be seen that a stable accuracy is maintained regardless of the congestion.
[0076]
As described above, according to the embodiment of the present invention, the height and speed of the passing object can be acquired from the stereo images acquired from the two CCD cameras, and the volume of the passing object is determined from the acquired height and speed. Since it can be obtained separately, it is possible to sequentially count passing objects more accurately than in the past.
[0077]
【The invention's effect】
As described above, according to the present invention, the depth of the crossing of the plane of the passing object is compared with respect to the plurality of parts along the reference line on the passing object by comparing the images of the passing object captured by the plurality of imaging devices. A comparison operation unit for acquiring speed information in a traveling direction perpendicular to a reference line and parallel to a plane in time series with respect to direction depth information and at least one of the plurality of portions, and the acquired depth information And an integration calculation unit that integrates a value obtained by adding the value weighted by the speed information along the reference line according to the direction of the speed with respect to time, so that the depth information and the speed information of the passing object captured by the plurality of imaging devices are obtained. It is possible to acquire a value obtained by integrating the value obtained by weighting the acquired depth information with speed information along the reference line according to the speed direction, time integration, reducing the amount of calculation, enabling high-speed processing, and enabling sequential processing It is possible to provide an over-object counting device and counting method.
[Brief description of the drawings]
FIG. 1 is a schematic perspective block diagram showing an outline of a passing object counting apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration example of a passing object counting apparatus according to an embodiment of the present invention.
FIG. 3 is a block diagram showing a configuration example of a comparison operation unit used in the embodiment of the present invention.
FIG. 4 is a flowchart showing an example of the operation of the passing object counting apparatus according to the first embodiment of the present invention or the passing object counting method according to the embodiment of the present invention.
FIG. 5 is a flowchart showing an example of the operation of a passing object counting device according to a second embodiment of the present invention or a passing object counting method according to an embodiment of the present invention.
FIG. 6 is an image diagram for explaining a processing example when searching for a third corresponding point between the first image and the third image in the embodiment of the present invention.
FIG. 7 is an image diagram for explaining vectors connecting corresponding points of the first image and the third image in the case of FIG. 6;
FIG. 8 is a stylized front view illustrating a method for calculating the height of a passing object from the parallax between the first imaging device and the second imaging device in the embodiment of the present invention.
FIG. 9 is a stylized perspective view illustrating a method of performing counting in the embodiment of the present invention.
FIG. 10 is a stylized perspective view for explaining a counting method in the case of FIG. 9;
FIG. 11 is a diagram showing a calculation formula used in the description of the embodiment of the present invention.
FIGS. 12A and 12B are diagrams illustrating a case of counting by a virtual plane (a) and a case of using a slope as a plane of the present invention (b) as an example of a method of counting passing objects moving on an inclined surface.
FIG. 13 is a diagram showing a result of a counting experiment of
FIG. 14 is a diagram showing a result of a counting experiment of
FIG. 15 is a diagram illustrating a result of a counting experiment of Experiment 3 according to the embodiment of the present invention.
FIG. 16 is a diagram showing a comparison between a counting result of manual counting and a counting result of counting using the passing object counting device according to the embodiment of the present invention.
[Explanation of symbols]
1 Count line
2 passage
5 passing objects
10 Passing object counting device
11 First CCD camera
12 Second CCD camera
13 Arithmetic unit
14 Control unit
15 Imaging device interface
16 input devices
17 Output device
18 Storage unit
20 Comparison operation part
21 Integral calculation unit
22 Subtraction passage count calculator
23 Division Passing Count Calculation Unit
Claims (9)
前記通過物体を撮像する、前記平面に対向して設けられた、ステレオ画像を取得する撮像装置によって撮像された前記通過物体の画像Aと、前記画像Aの撮像時点より所定の時間だけ遅らせて前記撮像装置によって撮像された前記通過物体の画像Bを取得する画像処理部と;
前記画像Aと前記画像Bから対応点を求める対応点探索部と;
前記対応点を用いて、前記通過物体の速度を算出する速度情報算出部と;
前記画像Aのステレオ画像、または、前記画像Aと前記画像Bのステレオ画像から、前記通過物体の高さを算出する奥行情報算出部と;
前記取得された高さに前記速度の重みを乗じた値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算部と;
前記時間積分によって得られた値と予め設定された閾値とに基づいて前記基準線を通過した前記通過物体を計数する通過計数演算部とを備える;
通過物体計数装置。A passing object counting device for counting passing objects from the height and velocity from the plane of passing objects passing through a reference line on the plane along a plane;
An image A of the passing object captured by an imaging device that captures the passing object and is provided opposite to the plane and acquires a stereo image, and is delayed by a predetermined time from the time when the image A was captured. An image processing unit for acquiring an image B of the passing object imaged by the imaging device;
A corresponding point search unit for obtaining corresponding points from the image A and the image B;
A speed information calculation unit that calculates the speed of the passing object using the corresponding points;
A depth information calculation unit that calculates the height of the passing object from the stereo image of the image A or the stereo images of the image A and the image B;
An integration operation unit for time-integrating a value obtained by multiplying the acquired height by the weight of the speed for each direction of speed along the reference line;
A passage counting calculation unit that counts the passing object that has passed through the reference line based on a value obtained by the time integration and a preset threshold;
Passing object counting device.
前記第1の撮像装置と並列に、且つ前記平面に対向して設けられ、前記基準線を通過する前記通過物体を撮像する第2の撮像装置と;
第1の時点で、前記第1の撮像装置によって撮像された前記通過物体の第1の画像と前記第2の撮像装置によって撮像された前記通過物体の第2の画像と、前記第1の時点から所定の時間だけ遅らせて、前記第2の撮像装置によって撮像された前記通過物体の第3の画像を取得する画像処理部と;
前記第1の画像と前記第2の画像から対応点を求め、前記第2の画像と前記第3の画像から対応点を求める対応点探索部と;
前記第1の画像と前記第2の画像から求めた対応点を用いて、前記通過物体上の前記基準線に沿った複数の部位に関して、前記通過物体の前記平面からの高さを時系列的に取得する奥行情報算出部と;
前記第2の画像と前記第3の画像から求めた対応点を用いて、前記複数の部位のうち少なくとも1つの部位に関して、前記基準線に垂直で前記平面に平行な進行方向の速度を時系列的に取得する速度情報算出部と;
前記取得された高さに前記速度の重みを乗じた値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算部とを備える;
通過物体計数装置。 A first imaging device provided to face the plane, which images a passing object passing through a reference line on the plane along the plane;
A second imaging device provided in parallel with the first imaging device and facing the plane, and imaging the passing object passing through the reference line;
A first image of the passing object imaged by the first imaging device at a first time point, a second image of the passing object imaged by the second imaging device, and the first time point An image processing unit that obtains a third image of the passing object imaged by the second imaging device with a delay of a predetermined time;
A corresponding point search unit for obtaining corresponding points from the first image and the second image and obtaining corresponding points from the second image and the third image;
Using the corresponding points obtained from the first image and the second image , the height of the passing object from the plane is time-sequentially related to a plurality of parts along the reference line on the passing object. A depth information calculation unit to be acquired;
Using the corresponding points obtained from the second image and the third image , the velocity in the traveling direction perpendicular to the reference line and parallel to the plane is time- sequentially related to at least one of the plurality of portions. A speed information calculation unit to be acquired automatically ;
An integration operation unit for time-integrating a value obtained by multiplying the acquired height by the weight of the speed for each direction of speed along the reference line;
Passing object counting device.
前記第1の撮像装置と並列に、且つ前記平面に対向して設けられ、前記基準線を通過する前記通過物体を撮像する第2の撮像装置と;
前記第1の撮像装置によって撮像された前記通過物体の第1の画像と、前記第1の画像の撮像時点より所定の時間だけ遅らせて前記第2の撮像装置によって撮像された前記通過物体の第2の画像を取得する画像取得部と;
前記第1の画像と前記第2の画像から対応点を求める対応点探索部と;
前記対応点を用いて、前記通過物体上の前記基準線に沿った複数の部位に関して、前記第1と第2の画像間の視差を表す量から前記通過物体の前記平面からの高さを時系列的に取得する奥行情報算出部と;
前記対応点を用いて、前記複数の部位のうち少なくとも1つの部位に関して、前記基準線に垂直で前記平面に平行な進行方向の速度を時系列的に取得する速度情報算出部と;
前記取得された高さに前記速度の重みを乗じた値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算部とを備える;
通過物体計数装置。A first imaging device provided to face the plane, which images a passing object passing through a reference line on the plane along the plane;
In parallel with the first imaging device, and provided opposite to said plane, a second imaging device for an image shooting the passage object passing through the reference line;
A first image of the passing object imaged by the first imaging device, the first of the said passage object imaged by a predetermined time by delay in the second imaging device from the imaging point of the first image An image acquisition unit for acquiring two images;
A corresponding point search unit for determining corresponding points from the first image and the second image;
Time using the corresponding points, for a plurality of sites along the reference line on the passage body, the height from the first and the plane of the passage body from the quantity representing the parallax between the second image A depth information calculation unit acquired in series;
A speed information calculation unit that acquires, in a time series, a speed in a traveling direction that is perpendicular to the reference line and parallel to the plane with respect to at least one part of the plurality of parts using the corresponding points ;
An integration operation unit for time-integrating a value obtained by multiplying the acquired height by the weight of the speed for each direction of speed along the reference line;
Passing object counting device.
請求項2または請求項3に記載の通過物体計数装置。When a value obtained by time integration in the integration calculation unit exceeds a preset threshold value, a difference passage count calculation unit that counts that the passing object has passed by 1 is provided.
The passing object counting device according to claim 2 or 3.
請求項2または請求項3に記載の通過物体計数装置。A division passage count calculation unit that counts a value obtained by dividing the value obtained by time integration in the integration calculation unit by a preset threshold as the number of passing objects;
The passing object counting device according to claim 2 or 3.
前記基準線を通過する前記通過物体を、前記第1の時点および前記第1の時点から所定の時間だけ経過した第2の時点に、前記第1の位置と並列で、且つ前記平面に対向した第2の位置から撮像して、第2の画像および第3の画像を取得する第2の撮像工程と;
前記第1の画像、前記第2の画像、および前記第3の画像を取得する画像処理工程と;
前記第1の画像と前記第2の画像から対応点を求め、前記第2の画像と前記第3の画像から対応点を求める対応点探索工程と;
前記第1の画像と前記第2の画像から求めた対応点を用いて、前記通過物体上の前記基準線に沿った複数の部位に関して、前記通過物体の前記平面からの高さを時系列的に取得する奥行情報算出工程と;
前記第2の画像と前記第3の画像から求めた対応点を用いて、前記複数の部位のうち少なくとも1つの部位に関して、前記基準線に垂直で前記平面に平行な進行方向の速度を時系列的に取得する速度情報算出工程と;
前記取得された高さに前記速度の重みを乗じた値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算工程とを備える;
通過物体計数方法。 A first imaging step of obtaining a first image by imaging a passing object passing through a reference line on the plane along a plane from a first position facing the plane at a first time point; ;
The passing object passing through the reference line is opposed to the plane in parallel with the first position at the first time point and a second time point after a predetermined time from the first time point. A second imaging step of imaging from the second position to obtain a second image and a third image;
An image processing step of obtaining the first image, the second image, and the third image;
A corresponding point search step of obtaining corresponding points from the first image and the second image and obtaining corresponding points from the second image and the third image;
Using the corresponding points obtained from the first image and the second image , the height of the passing object from the plane is time-sequentially related to a plurality of parts along the reference line on the passing object. Depth information calculation step to be acquired;
Using the corresponding points obtained from the second image and the third image , the velocity in the traveling direction perpendicular to the reference line and parallel to the plane is time- sequentially related to at least one of the plurality of portions. Speed information calculation step to be acquired automatically ;
An integration operation step of time-integrating a value obtained by multiplying a value obtained by multiplying the acquired height by the weight of the speed for each direction of speed along the reference line;
Passing object counting method.
前記基準線を通過する前記通過物体を、前記第1の時点から所定の時間だけ経過した第2の時点に、前記第1の位置と並列で、且つ前記平面に対向した第2の位置から撮像して、第2の画像を取得する第2の撮像工程と;
前記第1の画像と前記第2の画像を取得する画像取得工程と;
前記第1の画像と前記第2の画像から対応点を求める対応点探索工程と;
前記対応点を用いて、前記通過物体上の前記基準線に沿った複数の部位に関して、前記第1と第2の画像間の視差を表す量から前記通過物体の前記平面からの高さを時系列的に取得する奥行情報算出工程と;
前記対応点を用いて、前記複数の部位のうち少なくとも1つの部位に関して、前記基準線に垂直で前記平面に平行な進行方向の速度を時系列的に取得する速度情報算出工程と;
前記取得された高さに前記速度の重みを乗じた値を前記基準線に沿って速度の向き別に加算した値を時間積分する積分演算工程とを備える;
通過物体計数方法。A first imaging step of obtaining a first image by imaging a passing object passing through a reference line on the plane along a plane from a first position facing the plane at a first time point; ;
The passing object passing through the reference line is imaged from a second position parallel to the first position and facing the plane at a second time point after a lapse of a predetermined time from the first time point. to a second imaging step of obtaining a second image;
An image acquisition step of acquiring the first image and the second image;
A corresponding point search step of obtaining corresponding points from the first image and the second image;
Time using the corresponding points, for a plurality of sites along the reference line on the passage body, the height from the first and the plane of the passage body from the quantity representing the parallax between the second image Depth information calculation step acquired in series;
A velocity information calculation step of acquiring, in a time series, a velocity in a traveling direction that is perpendicular to the reference line and parallel to the plane with respect to at least one portion of the plurality of portions using the corresponding points ;
An integration operation step of time-integrating a value obtained by multiplying a value obtained by multiplying the acquired height by the weight of the speed for each direction of speed along the reference line;
Passing object counting method.
前記積分演算部で時間積分して得られた値が前記閾値を越えたときに、前記通過物体が1だけ通過したものとして計数する通過計数演算工程を備える、
請求項6または請求項7に記載の通過物体計数方法。Presetting a volume of one average passing object as a threshold;
When the value obtained by time integration in the integration calculation unit exceeds the threshold value, a passing count calculation step for counting that the passing object has passed by 1 is provided.
The passing object counting method according to claim 6 or 7.
前記積分演算部で時間積分して得られた値を前記閾値で除算した値を前記通過物体が通過した数として計数する除算通過計数演算工程を備える、
請求項6または請求項7に記載の通過物体計数方法。Presetting a volume of one average passing object as a threshold;
A division passage counting calculation step of counting a value obtained by dividing the value obtained by time integration in the integration calculation unit by the threshold as the number of passing objects;
The passing object counting method according to claim 6 or 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000372859A JP4825350B2 (en) | 2000-12-07 | 2000-12-07 | Passing object counting device and counting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000372859A JP4825350B2 (en) | 2000-12-07 | 2000-12-07 | Passing object counting device and counting method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002175513A JP2002175513A (en) | 2002-06-21 |
JP4825350B2 true JP4825350B2 (en) | 2011-11-30 |
Family
ID=18842334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000372859A Expired - Fee Related JP4825350B2 (en) | 2000-12-07 | 2000-12-07 | Passing object counting device and counting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4825350B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4633942B2 (en) * | 2001-01-05 | 2011-02-16 | 住友大阪セメント株式会社 | Passing object counting method and counting apparatus |
JP4122384B2 (en) | 2005-01-31 | 2008-07-23 | オプテックス株式会社 | Traffic monitoring device |
JP5091908B2 (en) * | 2009-04-30 | 2012-12-05 | 日本電信電話株式会社 | Object number measuring method, object number measuring apparatus, object number measuring program, and recording medium recording this program |
CN111242903B (en) * | 2020-01-03 | 2023-08-15 | 温氏食品集团股份有限公司 | Piglet out-of-line automatic counting platform and method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3490466B2 (en) * | 1992-02-21 | 2004-01-26 | 株式会社東芝 | Image monitoring device and elevator control device using the image monitoring device |
JPH08161453A (en) * | 1994-12-02 | 1996-06-21 | Tokai Rika Co Ltd | Counter for number of persons |
JPH08202847A (en) * | 1995-01-31 | 1996-08-09 | Matsushita Electric Ind Co Ltd | Moving object counting device |
-
2000
- 2000-12-07 JP JP2000372859A patent/JP4825350B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002175513A (en) | 2002-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6519262B2 (en) | Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system | |
CN109934848B (en) | Method for accurately positioning moving object based on deep learning | |
US7536035B2 (en) | Object velocity measuring apparatus and object velocity measuring method | |
US9767568B2 (en) | Image processor, image processing method, and computer program | |
US20040057599A1 (en) | Image processing apparatus and method | |
JPH1166319A (en) | Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person | |
JP2009053818A (en) | Image processor and method thereof | |
JP3729025B2 (en) | Pedestrian detection device | |
KR20150029551A (en) | Determining source lane of moving item merging into destination lane | |
US20100259597A1 (en) | Face detection apparatus and distance measurement method using the same | |
CN106530328A (en) | Method for detecting and smoothly following moving object based on video images | |
JPH10334207A (en) | Human stream measuring instrument | |
JP6349272B2 (en) | Moving object tracking device | |
JP4825350B2 (en) | Passing object counting device and counting method | |
JPH1144533A (en) | Preceding vehicle detector | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JP4825349B2 (en) | Passing object counting device and counting method | |
CN112561915A (en) | Image processing method and device, image acquisition device and storage medium | |
JP3364771B2 (en) | Moving object detection device | |
JP5891802B2 (en) | Vehicle position calculation device | |
JP3011748B2 (en) | Mobile counting device | |
JP4633942B2 (en) | Passing object counting method and counting apparatus | |
JP2013148355A (en) | Vehicle position calculation device | |
JPH09259282A (en) | Device and method for detecting moving obstacle | |
JP5279459B2 (en) | Congestion detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110614 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110906 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110912 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |