[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004171289A - Road traffic measuring device - Google Patents

Road traffic measuring device Download PDF

Info

Publication number
JP2004171289A
JP2004171289A JP2002336841A JP2002336841A JP2004171289A JP 2004171289 A JP2004171289 A JP 2004171289A JP 2002336841 A JP2002336841 A JP 2002336841A JP 2002336841 A JP2002336841 A JP 2002336841A JP 2004171289 A JP2004171289 A JP 2004171289A
Authority
JP
Japan
Prior art keywords
traffic
image
signal
traffic light
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002336841A
Other languages
Japanese (ja)
Other versions
JP3979272B2 (en
Inventor
Toru Nagai
徹 永井
Tadaaki Kitamura
忠明 北村
Takayoshi Yokota
孝義 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002336841A priority Critical patent/JP3979272B2/en
Publication of JP2004171289A publication Critical patent/JP2004171289A/en
Application granted granted Critical
Publication of JP3979272B2 publication Critical patent/JP3979272B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a controller, a control program and a control method for making it unnecessary to synchronize the time, and flexibly executing the control of equipment, and easily controlling and managing the equipment by simultaneously inputting a plurality of camera videos. <P>SOLUTION: The video of a camera which monitors a signal and the video of a camera which measures a traffic flow are simultaneously fetched, and the video of the signal is compounded with the measured image of the traffic flow, and outputted so that a video synchronizing the signal can be prepared. Also, the compounded image is processed so that the current condition of the signal can be automatically recognized, and simultaneously the traffic flow is measured so that the traffic flow synchronizing with the signal can be measured. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は道路などに適用されるテレビカメラを用いた監視システムに関し、特にカメラで信号の点灯状態を認識し、その状態に同期して交通流などを計測する交通計測装置に関する。
【0002】
【従来の技術】
渋滞の原因調査や交通計画を目的とした交通流シミュレーションの実施には、(社)交通工学研究会 H7.5発行の道路交通容量調査マニュアル検討資料Vol.2(PP.14−PP.22)の記載にもあるように、交差点での飽和交通流率(青1時間あたりの停止線通過台数)や、交通量,車頭時間(1台目の車両の頭が停止線を通過してから2台目の車両が停止線を通過するまでの通過時間)の計測を、現場で人手により計測したり、一度現場でVTR撮影を行い、後からその再生画面のタイマーを読み,パソコンに打ち込んだりするなどしていた。
【0003】
何れの方法も、信号機の変化やストップウオッチに連動して車両の通過を把握する必要があるため、計測作業に多くの時間と労力を要していた。また、長時間に渡る単調作業のためヒューマンエラーが介入する虞もあった。その結果、データの信頼性の低下を招来しかねなかった。
【0004】
最近では、タイマーを内蔵し予め測定項目が意味付けされた12個のボタンを調査員が押下することで計測作業を行う、仮称Koshi Watcher Proto(http://www.trpt.cst.nihon−u.ac.jp/ROADDATA/research/koshi−watcher/koshi−w0.html)による計測装置の高度化も試みられるが、使いこなすまで練習が必要なことや人手によるためミスが生じやすいという課題が残る。
【0005】
そこで、画像処理を用いて交差点などの交通の流れを計測するシステムを利用し計測することが考えられる。画像処理で車の台数,速度などを求める技術はかなり技術的に進展しており、リアルタイムで90%以上の精度で計測することが可能である。なお、車両などの追跡処理の詳細は、テンプレートマッチングを用いた方法が特開平6−30417号に記載されている。
【0006】
【特許文献1】
特開平6−30417号
【非特許文献1】
http://www.trpt.cst.nihon−u.ac.jp/ROADDATA/research/koshi−watcher/koshi−w0.html
【0007】
【発明が解決しようとする課題】
飽和交通流率を計測するには、信号機の赤点灯時間中に停止線を起点として滞留した車両が、青点灯時間中に何台通過できるかを信号サイクル毎に計測し、トータルで青点灯時間が累積で1時間分に相当するまで繰返し計測する必要がある。一般的には、信号機と車両の流れを1台のカメラで同時に収まるように撮影し、この映像を用いて映像中の信号機と車両の流れを夫々画像処理することが考えられる。
【0008】
しかしながら、場所によっては信号機と車両の流れが離れていたり、映っていても信号が非常に小さいため点灯状態を自動認識することが困難な場合が多い。このため、信号機に同期して交通データを計測することが困難であった。
【0009】
【課題を解決するための手段】
上記課題を解決するため本発明は、信号機を撮影するカメラ(信号カメラ)の映像と交通流を計測するカメラ(交通流カメラ)の映像とを画像処理装置に入力し、交通流カメラの映像に信号機カメラで撮影した信号機の映像を貼り付け、このように画像合成処理した結果を映像出力するとともに、信号機の点灯状態の認識や交通流の認識を実行する。また、信号機の現示状態に合わせて各種データを計測し、集計する。
【0010】
【発明の実施の形態】
本発明の実施例を図面を用いて詳細に説明する。図1は、交通計測装置の構成を示す図である。交通流計測領域を撮影するカメラ1及び信号機を撮影するカメラ2から、それぞれのカメラ画像が入力され、画像処理を行う画像処理装置3が、ネットワーク6を介して中央処理装置5と接続されている。
【0011】
画像処理装置3は、カメラ1とカメラ2の画像を入力して2つの画像を合成する画像入力部301と、合成された画像を基に画像中の信号機の画像を処理する信号認識部302と、画像中の交通流の画像を計測する交通流認識部303と、中央処理装置5との間で認識結果及び認識に必要となるパラメータの通信を行う通信部304とを含む構成である。画像処理装置3からはカメラ1とカメラ2の映像を合成した映像を出力することができ、この映像をVTRなどの録画機器4に接続することで合成画像を記録することができる。
【0012】
中央処理装置5は、パラメータの設定や計測結果の集計に利用されるが、屋外で簡易に作業できるようノートPCやPDAを用いてもよい。集計結果については、画像処理装置3に計測結果を記憶する媒体を持たせておけば、ネットワーク6に接続することは必ずしも必要無い。ただし、パラメータ設定のために画像処理装置3にキーボードやディスプレーを接続する必要があるが、可搬的に計測するにはPDAやノートPCと接続することが望ましい。画像処理装置3の機器構成を最小にすることができるからである。ネットワーク6は有線,無線LANのどちらでも構わない。
【0013】
図2は、カメラの配置,視野を説明する図である。カメラ1は所要の交通流を計測する領域を視野8とし、カメラ2は信号機の近傍を視野7とする。一般に交通流計測カメラの視野は、奥行き100m〜150m程度を撮影する。このため、信号機の映像が同時に映らないことが多い。そこで、カメラ2で信号機だけを撮影しておく。こうすることで、画像処理装置を用いて、2台のカメラの映像を予め合成してVTRなどに記録し、合成した映像を処理して信号機の状態に合わせ交通流を計測するので、時刻合わせの必要が無くなる。
【0014】
このようにしないと、各々をVTRなどに録画した後、オフライン的に各々の映像を処理し、GPSの時刻データを予め映像に書き込むなどして各映像間で時刻を合わせることが必要となる。
【0015】
図3は、カメラ1(2)とカメラ2(1)の距離が離れている場合で、1台のカメラを無線伝送する場合の構成を示している。カメラ2(1)の映像は、無線映像伝送装置9に一旦入力され、無線映像伝送装置9からの映像を無線映像受信装置10で受信し、その映像を画像処理装置3に入力する。このようにすることで、信号機と交通流計測領域が離れている場合でも合成映像を作成可能である。無線映像送受信装置9,10としては、市販の2.5GHz 簡易伝送装置などを用いることができる。
【0016】
図4は、映像の合成状態を説明する図である。カメラ1の映像は交通流計測領域を撮影しているもので、視野は100m程度と比較的広い11。一方、信号機を撮影しているカメラ2の映像は信号機がよく見えるよう撮影しているもので、視野は比較的狭い12。この計測画像11に信号領域画像を合成(例えば、信号機部分を切り出して貼り付けるなど)した映像が合成画像13となる。この合成画像13は、画像処理装置3の映像出力部または画像処理装置3に接続された映像出力部(何れの映像出力部も図示せず)から出力し、リアルタイムに交通流計測することも可能である。また、VTR4に記録することもでき、このようにしておけば、事務所などに映像を持ち帰りオフライン的に再度処理することも可能となる。
【0017】
図5は、交通流計測システム全体の処理フローを示す図である。まず、初期化処理15を実行する。この処理には、信号機の領域,信号機の書き込み領域設定,交通流計測のための検知領域設定,レーン設定などがある。中央処理装置5が接続されている場合は、その装置5からパラメータとして受信する。
【0018】
次に、カメラ1,2の映像を入力し16、入力された此れらの映像を合成する(例えば、信号機撮影の映像から信号機領域を切り出し、計測画像に貼り付ける)17。合成された映像を出力する18。検知領域に対し車両検知処理19を実行し、検知したら車両を追跡処理する20。この処理をレーン数繰り返す21。次に、信号機の点灯状態を認識22し、計測結果の出力を実行する23。処理が終了するまで16以降を繰り返す。処理19から処理23までを実行しないで合成画像を作成するだけの処理の場合もある。
【0019】
図6は映像合成するときの合成パラメータを設定するユーザインタフェース画面の一例である。画像入力ボタンを押すと、画像処理装置3に接続しているカメラの映像をLANを経由し入手し、左上に計測画像を、右上に信号機の画像を表示する。マウスを用いて信号機領域を信号機画像上で指定し信号領域設定ボタンを押す。更に、書き込み領域を計測画面上でマウスを用いて指定し、書き込み領域設定ボタンを押す。確認ボタンを押すと、合成画像が下方に表示される。このような仕掛けで領域を設定する。
【0020】
また、PDAのように表示画面が小さい場合には、計測画像と信号機画像と合成画像との3つを画面上に同時に表示しておき、さらに各画面をタップすることで拡大画面を呼び出して表示することで操作性を向上することができる。
【0021】
図7は、カメラ座標(カメラパラメータ)とワールド座標(ワールドパラメータ)を対応付けるユーザインタフェース画面の一例であり、カメラパラメータ(奥行きの情報)を設定することができる。予めカメラからの距離が既知の場所を4点指定することで、カメラの座標系とワールド座標系の関係を透視変換として定義する。
【0022】
図8は、検知領域やレーン境界を設定するインタフェース画面の一例であり、交通流計測に必要な車両検知領域を設定し、レーン境界を設定することができる。この画面で設定された内容に従い画像処理を実行する。
【0023】
図9は、追跡処理の概要を示す図であり、図中左レーンの車両検知,車両追跡の様子を示したものである。25は図中左レーンの検知エリア、26は図中右レーンの検知エリアを示す。25の検知エリアを車両が通過すると、車両末尾を検出し、その映像をテンプレート画像として27のように記憶する。記憶したテンプレート画像27の近傍に車両は次の時刻に移動しているはずであるから、サーチエリア28を設定し、その領域でテンプレート画像に最も類似している場所をサーチする。その結果29の位置が求まる。29の位置を記憶するとともに、この位置近傍の画像をテンプレート画像として更新する。このような処理を順次繰り返すことで、車両の追跡処理が実行できる。右のレーンの場合は図中奥から手前に走行する場合の設定であるが、車両の前面部の映像を検知し、その画像を登録することで同様な処理を実行する。
【0024】
図10は、信号現示の認識フローを説明する図である。信号機の領域設定があるかを判断し、あれば、領域設定を行う31。まず、その領域について濃度の投影分布を求める32。この分布の内、最大の頻度分布の横位置を求め33、この位置が左,中,右で「青」「黄」「赤」の判断を行う34〜37。この処理は、カラー処理でなく、点灯している灯器が最も明るいことに着目した手法であるが、カラー処理で実行しても構わない。
【0025】
図11は、計測結果出力フローを説明する図である。車両を追跡した場合、所定位置を通過したタイミングで台数のカウントを行う。このタイミングで、まず時刻を出力39し、また、前回出力した状態と今の信号の状態が変わっていれば、それまでの信号の周期に通過した台数,平均速度を算出し出力する41。また、信号の状態を出力する42。その後、個別車両の速度,先行車との車間時間を出力する。この出力例を図12に示す。
【0026】
図13は、画像処理装置3の詳細を示す図である。画像処理装置3は、カメラ1,2の映像を入力するA/D変換器52,53と、その映像を記憶する複数の画像メモリ54と、画像メモリのデータを画像処理する専用画像処理プロセッサ55と、画像メモリのデータを映像として出力するD/A変換器56と、これらハードウエアを動作させるCPU59と、動作を記述するプログラムが格納されるRAM60と、外部機器と通信する通信部58とを含んで構成される。なお、画像メモリ54とRAM60は共通のメモリとする場合もある。カメラ入力のA/D変換器は画像メモリに同時入力できる。
【0027】
以上のように、道路を広い視野で撮影するカメラと、信号機を所定の大きさで撮影するカメラの映像を入力し、信号機の画像と計測する画像とを合成した合成画像を作成し、その映像を出力してVTRなどに記憶するとともに、交通流の計測及び信号機の認識を行い、信号機の状態に合わせ計測結果を出力することで、交差点の交通状況を可搬型で計測することが可能となる。
【0028】
次に、別の実施例を説明する。
【0029】
道路交通のパラメータには信号機のサイクル(信号機が青→黄→赤→青と一巡する時間),スプリット(主道路側と従道路側、それぞれの青黄赤の時間配分),オフセット(隣り合う2ヶ所の交差点の信号機のオフセットを求める場合、上流側の信号Aの青信号が開始してから下流側の信号Bの青信号が開始するまでの時刻差を求める。)が重要な値となる。特にオフセットは、走行車両がスムーズに流れるために重要なパラメータとなっている。このようなパラメータは、信号機そのものに設定情報があるが、これを入手することは通常出来ない。
【0030】
このため、図14のように離れた交差点の信号とのオフセットなどは現状、ストップウオッチなどを用いて人手で計測しているが、誤差が大きい、長い時間の計測は困難と言った問題がある。図14は、複数の信号機の映像を合成する処理を説明する図である。
【0031】
そこで、複数の信号機を合成するインタフェースを説明する図である図15を参照すると、このように信号機1画像66と信号機2画像67の映像を合成した合成画像68が得られ、それぞれの信号の点灯状態を画像処理で計測することでそれぞれの信号のサイクル,スプリット,オフセットを計測することができる。
【0032】
図16は、信号機領域設定のインタフェースの一例を示すもので、各カメラの映像の信号機領域をそれぞれ指定し、これを合成する。交差点の距離は色々あるが、一箇所の場所から隣の信号が見える場合は、カメラのズーミングで拡大し撮影することができ、見えない場合は、図14に示すようにカメラ62及び63によりその地点近傍で撮影し、無線伝送などで映像を送り、合成すればよい。
【0033】
これにより、交差点などの飽和交通流率などの車両の流れの自動計測、あるいは映像収集することが可能な交通流計測装置を具備する。
【0034】
以上のように、2台のカメラ映像で交通流計測領域と信号機を撮影して此れらを合成し、その映像を処理することで信号機の現示状態に合わせ、交通流(飽和交通流率,台数,車間距離,車間時間など)を計測でき、渋滞の原因調査などに威力を発揮する。また、隣り合う信号機をそれぞれ撮影し、これを合成することで、交差点の信号状態である、サイクル,スプリット,オフセットを簡単に計測することが可能となる。
【0035】
【発明の効果】
本発明により、信号機に同期して交通データを計測することが容易となる。
【図面の簡単な説明】
【図1】交通計測装置の構成を示す図である。
【図2】カメラの視野を説明する図である。
【図3】1台のカメラを無線伝送する場合の構成を示す図である。
【図4】映像の合成状態を説明する図である。
【図5】交通流計測装置の全体の処理フローを示す図である。
【図6】映像合成するときのインタフェースを示す図である。
【図7】カメラ座標とワールド座標を対応付けるインタフェースを示す図である。
【図8】検知領域やレーン境界を指定するインタフェースを示す図である。
【図9】追跡処理の概要を示す図である。
【図10】信号現示の認識フローを説明する図である。
【図11】計測結果出力フローを説明する図である。
【図12】計測結果出力の一例を説明する図である。
【図13】画像処理装置のハードウエア詳細を示す図である。
【図14】複数の信号機の映像を合成する処理を説明する図である。
【図15】複数の信号機を合成するインタフェースを説明する図である。
【図16】信号機領域設定のインタフェースの一例を示す図である。
【符号の説明】
1…交通流計測用カメラ、2…信号機撮影用カメラ、3…画像処理装置、5…中央処理装置。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a monitoring system using a television camera applied to a road or the like, and more particularly to a traffic measurement device that recognizes a lighting state of a signal with a camera and measures a traffic flow in synchronization with the state.
[0002]
[Prior art]
For conducting traffic flow simulations for investigating the causes of traffic congestion and traffic planning, the Traffic Engineering Study Group H7.5 published a manual on road traffic capacity research manuals, Vol. 2 (PP.14-PP.22), the saturated traffic flow rate at the intersection (the number of stops passing through the blue line per hour), the traffic volume, and the headway time (for the first vehicle The measurement of the transit time from when the head passes the stop line to when the second vehicle passes the stop line) is manually measured at the site, or once VTR shooting is performed at the site, and the playback screen is displayed later. I read the timer and hit it on my PC.
[0003]
In any of the methods, since it is necessary to grasp the passage of the vehicle in conjunction with a change in a traffic light or a stopwatch, a lot of time and labor is required for the measurement work. In addition, there is a possibility that human error may intervene due to the long-time monotonous work. As a result, the reliability of data may be reduced.
[0004]
Recently, a tentative name of Koshi Watcher Proto (http: //www.trpt.cst.nihon-u), which performs a measurement work by pressing a twelve buttons with a built-in timer and in which measurement items are given in advance by a researcher, is used. .Ac.jp / ROADDATA / research / koshi-watcher / koshi-w0.html), an attempt has been made to upgrade the measuring device, but there remains a problem that practice is required until the user fully uses the device, and a mistake is likely to occur due to manual operation.
[0005]
Therefore, it is conceivable to perform measurement by using a system that measures a traffic flow such as an intersection using image processing. The technology for obtaining the number of vehicles, the speed, and the like by image processing has advanced considerably technically, and it is possible to measure in real time with an accuracy of 90% or more. For details of the tracking process of a vehicle or the like, a method using template matching is described in JP-A-6-30417.
[0006]
[Patent Document 1]
JP-A-6-30417 [Non-Patent Document 1]
http: // www. trpt. cst. nihon-u. ac. jp / ROADDATA / research / koshi-watcher / koshi-w0. html
[0007]
[Problems to be solved by the invention]
To measure the saturated traffic flow rate, measure the number of vehicles that can stay through the stop line during the red lighting time of the traffic light and pass during the blue lighting time for each signal cycle, and total the blue lighting time It is necessary to repeatedly measure until the cumulative value corresponds to one hour. In general, it is conceivable that one camera shoots the traffic light and the flow of the vehicle at the same time so that the flow of the traffic light and the vehicle in the video is processed using this video.
[0008]
However, depending on the location, it is often difficult to automatically recognize the lighting state because the flow of the traffic light is far from the traffic signal or the signal is very small even if it is reflected. For this reason, it was difficult to measure traffic data in synchronization with a traffic light.
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the present invention is to input an image of a camera (signal camera) for photographing a traffic light and an image of a camera (traffic flow camera) for measuring a traffic flow to an image processing device, and to convert the image of the traffic flow camera into an image. The image of the traffic light captured by the traffic light camera is pasted, and the result of the image synthesis processing is output as a video, and the recognition of the lighting state of the traffic light and the recognition of the traffic flow are executed. In addition, various data are measured and totaled according to the present state of the traffic light.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of the traffic measurement device. The respective camera images are input from a camera 1 for photographing the traffic flow measurement area and a camera 2 for photographing the traffic signal, and an image processing device 3 for performing image processing is connected to a central processing device 5 via a network 6. .
[0011]
The image processing device 3 includes an image input unit 301 that inputs the images of the cameras 1 and 2 and combines the two images, a signal recognition unit 302 that processes an image of a traffic signal in the image based on the combined image, and , A traffic flow recognition unit 303 that measures an image of a traffic flow in the image, and a communication unit 304 that communicates a recognition result and parameters required for recognition with the central processing unit 5. The image processing device 3 can output an image obtained by synthesizing the images of the cameras 1 and 2, and by connecting this image to a recording device 4 such as a VTR, the synthesized image can be recorded.
[0012]
The central processing unit 5 is used for setting parameters and totalizing the measurement results, but a notebook PC or PDA may be used so that the work can be easily performed outdoors. If the image processing apparatus 3 is provided with a medium for storing the measurement results, it is not always necessary to connect the tally results to the network 6. However, it is necessary to connect a keyboard or a display to the image processing apparatus 3 for parameter setting, but it is desirable to connect a PDA or a notebook PC for portable measurement. This is because the device configuration of the image processing apparatus 3 can be minimized. The network 6 may be a wired or wireless LAN.
[0013]
FIG. 2 is a diagram for explaining the arrangement and the field of view of the camera. The camera 1 has a field of view 8 for measuring a required traffic flow, and the camera 2 has a field of view 7 near a traffic light. Generally, the field of view of a traffic flow measurement camera captures an image at a depth of about 100 m to 150 m. For this reason, the image of the traffic signal is often not displayed at the same time. Therefore, only the traffic signal is photographed by the camera 2. By doing so, the images of the two cameras are combined in advance and recorded on a VTR or the like using the image processing device, and the combined images are processed to measure the traffic flow in accordance with the state of the traffic light. Is no longer necessary.
[0014]
Otherwise, it is necessary to record each video on a VTR or the like, then process each video offline, write the GPS time data to the video in advance, and adjust the time between the videos.
[0015]
FIG. 3 shows a configuration in a case where the distance between the camera 1 (2) and the camera 2 (1) is large and one camera is wirelessly transmitted. The video of the camera 2 (1) is temporarily input to the wireless video transmission device 9, the video from the wireless video transmission device 9 is received by the wireless video reception device 10, and the video is input to the image processing device 3. By doing so, it is possible to create a composite video even when the traffic signal and the traffic flow measurement area are far apart. As the wireless video transmission / reception devices 9 and 10, a commercially available 2.5 GHz simple transmission device or the like can be used.
[0016]
FIG. 4 is a diagram for explaining a composite state of video. The image of the camera 1 is an image of a traffic flow measurement area, and the field of view is relatively wide, about 100 m11. On the other hand, the image of the camera 2 shooting the traffic light is taken so that the traffic light can be seen clearly, and the field of view is relatively narrow 12. A video obtained by synthesizing a signal area image with the measurement image 11 (for example, cutting out and pasting a traffic light portion) becomes a synthesized image 13. The composite image 13 is output from a video output unit of the image processing device 3 or a video output unit connected to the image processing device 3 (any video output unit is not shown), and the traffic flow can be measured in real time. It is. In addition, the video can be recorded on the VTR 4, so that the video can be taken back to an office or the like and processed again off-line.
[0017]
FIG. 5 is a diagram illustrating a processing flow of the entire traffic flow measurement system. First, an initialization process 15 is performed. In this processing, there are a traffic light area, a traffic light writing area setting, a detection area setting for traffic flow measurement, a lane setting, and the like. When the central processing unit 5 is connected, the central processing unit 5 receives the parameters from the central processing unit 5 as parameters.
[0018]
Next, the images of the cameras 1 and 2 are inputted 16 and these inputted images are synthesized (for example, a traffic light area is cut out from a traffic light photographed image and pasted on a measurement image) 17. Output the synthesized video 18. The vehicle detection processing 19 is executed for the detection area, and when the detection is performed, the vehicle is tracked 20. This process is repeated 21 for the number of lanes. Next, the lighting state of the traffic light is recognized 22 and the measurement result is output 23. Step 16 and subsequent steps are repeated until the processing is completed. There may be a case where the processing from the processing 19 to the processing 23 is not performed and only the synthetic image is created.
[0019]
FIG. 6 is an example of a user interface screen for setting a combination parameter when combining images. When the image input button is pressed, the image of the camera connected to the image processing device 3 is obtained via the LAN, and the measurement image is displayed on the upper left and the traffic light image is displayed on the upper right. Using the mouse, specify the signal area on the signal image and press the signal area setting button. Further, a writing area is specified on the measurement screen using a mouse, and a writing area setting button is pressed. When the confirmation button is pressed, the composite image is displayed below. The area is set by such a mechanism.
[0020]
When the display screen is small like a PDA, the measurement image, the traffic light image, and the composite image are simultaneously displayed on the screen, and the enlarged screen is called up and displayed by tapping each screen. By doing so, the operability can be improved.
[0021]
FIG. 7 is an example of a user interface screen for associating camera coordinates (camera parameters) with world coordinates (world parameters), in which camera parameters (depth information) can be set. By specifying in advance four locations whose distances from the camera are known, the relationship between the camera coordinate system and the world coordinate system is defined as perspective transformation.
[0022]
FIG. 8 is an example of an interface screen for setting a detection area and a lane boundary. A vehicle detection area required for traffic flow measurement can be set, and a lane boundary can be set. Image processing is executed according to the contents set on this screen.
[0023]
FIG. 9 is a diagram showing an outline of the tracking processing, and shows a state of vehicle detection and vehicle tracking in the left lane in the figure. Reference numeral 25 denotes a detection area on the left lane in the figure, and reference numeral 26 denotes a detection area on the right lane in the figure. When the vehicle passes through the 25 detection areas, the end of the vehicle is detected, and the video is stored as a template image as 27. Since the vehicle should have moved to the vicinity of the stored template image 27 at the next time, a search area 28 is set, and a place most similar to the template image is searched in that area. As a result, the position of 29 is obtained. At the same time as storing the position 29, the image near this position is updated as a template image. By sequentially repeating such processing, the vehicle tracking processing can be executed. In the case of the right lane, the setting is for traveling from the back to the front in the figure. Similar processing is executed by detecting an image of the front part of the vehicle and registering the image.
[0024]
FIG. 10 is a diagram illustrating a recognition flow of signal presentation. It is determined whether there is a signal area setting, and if so, the area setting is performed 31. First, a projection distribution of density is obtained for the area 32. Among these distributions, the horizontal position of the maximum frequency distribution is determined 33, and the determination is made on the left, middle, and right sides as "blue", "yellow", and "red" 34 to 37. This processing focuses on the fact that the lit lamp is the brightest, instead of the color processing, but may be executed by the color processing.
[0025]
FIG. 11 is a diagram illustrating a measurement result output flow. When the vehicle is tracked, the number of vehicles is counted at a timing when the vehicle has passed a predetermined position. At this timing, the time is first output 39, and if the state of the previous signal has changed from the state of the current signal, the number and the average speed that have passed in the signal cycle up to that time are calculated and output 41. It also outputs the state of the signal 42. After that, the speed of the individual vehicle and the inter-vehicle time with the preceding vehicle are output. FIG. 12 shows an example of this output.
[0026]
FIG. 13 is a diagram illustrating details of the image processing apparatus 3. The image processing device 3 includes A / D converters 52 and 53 for inputting the images of the cameras 1 and 2, a plurality of image memories 54 for storing the images, and a dedicated image processor 55 for image-processing the data in the image memories. A D / A converter 56 for outputting data of the image memory as a video, a CPU 59 for operating these hardware, a RAM 60 for storing a program for describing the operation, and a communication unit 58 for communicating with an external device. It is comprised including. Note that the image memory 54 and the RAM 60 may be a common memory. The A / D converter of the camera input can simultaneously input to the image memory.
[0027]
As described above, a video image of a camera that captures a road with a wide field of view and a video camera that captures a traffic light with a predetermined size is input, and a composite image is created by combining the traffic signal image and the image to be measured, and the video is created. And outputs it to a VTR, etc., measures traffic flow and recognizes traffic signals, and outputs the measurement results in accordance with the status of the traffic signals, making it possible to measure traffic conditions at intersections in a portable manner. .
[0028]
Next, another embodiment will be described.
[0029]
Road traffic parameters include the signal cycle (time when the signal goes from blue to yellow to red to blue), split (main road side and sub road side, time distribution of blue, yellow and red, respectively), offset (two adjacent When calculating the offset of the traffic signal at the intersections, the time difference from the start of the green signal of the upstream signal A to the start of the green signal of the downstream signal B is an important value. In particular, the offset is an important parameter for the traveling vehicle to flow smoothly. Such parameters have setting information in the traffic light itself, but it is not usually possible to obtain this information.
[0030]
For this reason, as shown in FIG. 14, the offset from the signal at the distant intersection is currently measured manually using a stopwatch or the like. However, there is a problem that the error is large and it is difficult to measure for a long time. FIG. 14 is a diagram illustrating a process of synthesizing images of a plurality of traffic signals.
[0031]
Therefore, referring to FIG. 15, which is a diagram for explaining an interface for synthesizing a plurality of traffic lights, a synthesized image 68 obtained by synthesizing the video of the traffic light 1 image 66 and the traffic light 2 image 67 is obtained, and the lighting of each signal is performed. By measuring the state by image processing, the cycle, split, and offset of each signal can be measured.
[0032]
FIG. 16 shows an example of an interface for setting a traffic light area, in which a traffic light area of an image of each camera is designated and synthesized. Although there are various distances at the intersection, when the next signal can be seen from one place, it can be enlarged and photographed by zooming of the camera. When it cannot be seen, the camera 62 and 63 as shown in FIG. What is necessary is to take a picture in the vicinity of the point, send the video by wireless transmission or the like, and combine them.
[0033]
Accordingly, a traffic flow measuring device capable of automatically measuring a vehicle flow such as a saturated traffic flow rate at an intersection or collecting images is provided.
[0034]
As described above, the traffic flow measurement area and the traffic light are photographed by the two camera images, and these are combined, and the images are processed to match the present state of the traffic light, and the traffic flow (saturated traffic flow rate) , Number, inter-vehicle distance, inter-vehicle time, etc.), which is very useful for investigating the causes of traffic congestion. Further, by photographing adjacent traffic signals and synthesizing them, it is possible to easily measure the signal state of the intersection, that is, cycle, split, and offset.
[0035]
【The invention's effect】
According to the present invention, it is easy to measure traffic data in synchronization with a traffic light.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a traffic measurement device.
FIG. 2 is a diagram illustrating a field of view of a camera.
FIG. 3 is a diagram illustrating a configuration in a case where one camera is wirelessly transmitted.
FIG. 4 is a diagram illustrating a state of synthesizing a video.
FIG. 5 is a diagram showing an overall processing flow of the traffic flow measuring device.
FIG. 6 is a diagram showing an interface when synthesizing images.
FIG. 7 is a diagram illustrating an interface that associates camera coordinates with world coordinates.
FIG. 8 is a diagram showing an interface for designating a detection area and a lane boundary.
FIG. 9 is a diagram illustrating an outline of a tracking process.
FIG. 10 is a diagram illustrating a recognition flow of signal presentation.
FIG. 11 is a diagram illustrating a measurement result output flow.
FIG. 12 is a diagram illustrating an example of a measurement result output.
FIG. 13 is a diagram illustrating hardware details of an image processing apparatus.
FIG. 14 is a diagram illustrating a process of synthesizing images of a plurality of traffic signals.
FIG. 15 is a diagram illustrating an interface for combining a plurality of traffic lights.
FIG. 16 is a diagram illustrating an example of an interface for setting a traffic signal area.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Camera for traffic flow measurement, 2 ... Camera for traffic light photography, 3 ... Image processing apparatus, 5 ... Central processing apparatus.

Claims (4)

信号機を撮影する信号機監視カメラと交通流を計測する交通流監視カメラとから、それぞれ映像が入力される画像処理装置とを備え、
前記画像処理装置は、
前記信号機監視カメラ映像を処理して信号機の現示状態を計測する信号認識部と、
前記交通流監視カメラの映像を処理して交通流を計測する交通流計測部と、
前記信号機の現示状態に合わせ、交通流計測結果を出力する通信部とを有する交通計測装置。
From a traffic light monitoring camera that captures a traffic light and a traffic flow monitoring camera that measures traffic flow, an image processing device to which an image is input is provided,
The image processing device includes:
A signal recognition unit that processes the traffic light monitoring camera image and measures the present state of the traffic light,
A traffic flow measuring unit that processes a video of the traffic flow monitoring camera to measure a traffic flow,
A traffic measurement device having a communication unit that outputs a traffic flow measurement result in accordance with the present state of the traffic light.
請求項1に於いて、
前記画像処理装置は、信号機監視カメラの映像から信号機領域を切り出し、交通流計測カメラの映像の所定領域に書き込む画像処理部を有することを特徴とする交通計測装置。
In claim 1,
The traffic measurement device is characterized in that the image processing device includes an image processing unit that cuts out a traffic light area from an image of a traffic light monitoring camera and writes the signal area into a predetermined area of an image of a traffic flow measurement camera.
複数の信号機を撮影する複数の信号機監視カメラと、複数の映像を同時に入力する画像処理装置とを備え、
画像処理装置は、
複数の信号機監視カメラ映像の信号機領域をそれぞれ認識し信号機の現示状態を計測する信号認識部と、
信号機の現示状態から少なくともサイクル,スプリット,オフセットの3つのパラメータを算出する信号パラメータ算出部とを有する交通計測装置。
Equipped with a plurality of traffic light monitoring cameras for shooting a plurality of traffic lights, and an image processing device for simultaneously inputting a plurality of videos,
The image processing device
A signal recognition unit for recognizing a signal area of a plurality of signal monitoring camera images and measuring the present state of the signal,
A traffic measurement device comprising: a signal parameter calculation unit that calculates at least three parameters of a cycle, a split, and an offset from a present state of a traffic signal.
請求項3に於いて、
画像処理装置は、
前記複数の信号機監視カメラ映像の信号機領域をそれぞれ切り出し、1枚の画像に合成する画像合成部を有し、
前記信号認識部は、前記画像合成部によって1枚に合成された画像を画像処理して、信号機の現示状態をそれぞれ計測することを特徴とする交通計測装置。
In claim 3,
The image processing device
An image synthesizing unit that cuts out each of the traffic light areas of the plurality of traffic light monitoring camera images and synthesizes them into one image,
The traffic measuring device, wherein the signal recognizing unit performs image processing on an image synthesized by the image synthesizing unit to measure the present state of the traffic light.
JP2002336841A 2002-11-20 2002-11-20 Road traffic measuring device Expired - Fee Related JP3979272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002336841A JP3979272B2 (en) 2002-11-20 2002-11-20 Road traffic measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002336841A JP3979272B2 (en) 2002-11-20 2002-11-20 Road traffic measuring device

Publications (2)

Publication Number Publication Date
JP2004171289A true JP2004171289A (en) 2004-06-17
JP3979272B2 JP3979272B2 (en) 2007-09-19

Family

ID=32700566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002336841A Expired - Fee Related JP3979272B2 (en) 2002-11-20 2002-11-20 Road traffic measuring device

Country Status (1)

Country Link
JP (1) JP3979272B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048624A (en) * 2004-07-09 2006-02-16 Aisin Aw Co Ltd Method of producing traffic signal information, method of providing traffic signal guidance information and navigation apparatus
JP2009015721A (en) * 2007-07-06 2009-01-22 Pioneer Electronic Corp Image file providing device and image file providing program
JP2010044496A (en) * 2008-08-11 2010-02-25 Ihi Corp Method and device for detecting vehicle
US8155826B2 (en) 2007-03-30 2012-04-10 Aisin Aw Co., Ltd. Vehicle behavior learning apparatuses, methods, and programs
US8184861B2 (en) 2007-03-30 2012-05-22 Aisin Aw Co., Ltd. Feature information management apparatuses, methods, and programs
CN102568210A (en) * 2012-03-10 2012-07-11 山东大学 Traffic overflow control method based on video feedback
CN103383816A (en) * 2013-07-01 2013-11-06 青岛海信网络科技股份有限公司 Method and device for controlling traffic signals of multipurpose electronic police mixed traffic flow detection
US8825353B2 (en) 2007-09-28 2014-09-02 Aisin Aw Co., Ltd. Parking support systems, parking support methods, and parking support programs
US8892517B2 (en) 2006-06-09 2014-11-18 Aisin Aw Co., Ltd. Data updating system, navigation device, server, and method of data updating
CN104537849A (en) * 2014-12-16 2015-04-22 同济大学 Intersection bus stop overflow control method
WO2016147329A1 (en) * 2015-03-18 2016-09-22 住友電気工業株式会社 Information providing device, computer program, storage medium, and information providing method
JP2017169068A (en) * 2016-03-16 2017-09-21 株式会社東芝 Vehicle communication device, road-side communication device, and communication system
CN108986493A (en) * 2018-08-21 2018-12-11 北京深瞐科技有限公司 Traffic lights transit time distribution method and its device
CN111383455A (en) * 2020-03-11 2020-07-07 上海眼控科技股份有限公司 Traffic intersection object flow statistical method, device, computer equipment and medium
CN113053105A (en) * 2021-02-26 2021-06-29 吴江市腾凯通信工程有限公司 Multi-component intelligent monitoring system for urban road

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734275B2 (en) 2004-07-09 2010-06-08 Aisin Aw Co., Ltd. Method of producing traffic signal information, method of providing traffic signal information, and navigation apparatus
JP4507815B2 (en) * 2004-07-09 2010-07-21 アイシン・エィ・ダブリュ株式会社 Signal information creating method, signal guide information providing method, and navigation apparatus
JP2006048624A (en) * 2004-07-09 2006-02-16 Aisin Aw Co Ltd Method of producing traffic signal information, method of providing traffic signal guidance information and navigation apparatus
US8892517B2 (en) 2006-06-09 2014-11-18 Aisin Aw Co., Ltd. Data updating system, navigation device, server, and method of data updating
US8155826B2 (en) 2007-03-30 2012-04-10 Aisin Aw Co., Ltd. Vehicle behavior learning apparatuses, methods, and programs
US8184861B2 (en) 2007-03-30 2012-05-22 Aisin Aw Co., Ltd. Feature information management apparatuses, methods, and programs
JP2009015721A (en) * 2007-07-06 2009-01-22 Pioneer Electronic Corp Image file providing device and image file providing program
US8825353B2 (en) 2007-09-28 2014-09-02 Aisin Aw Co., Ltd. Parking support systems, parking support methods, and parking support programs
JP2010044496A (en) * 2008-08-11 2010-02-25 Ihi Corp Method and device for detecting vehicle
CN102568210A (en) * 2012-03-10 2012-07-11 山东大学 Traffic overflow control method based on video feedback
CN103383816A (en) * 2013-07-01 2013-11-06 青岛海信网络科技股份有限公司 Method and device for controlling traffic signals of multipurpose electronic police mixed traffic flow detection
CN103383816B (en) * 2013-07-01 2015-09-02 青岛海信网络科技股份有限公司 The traffic signal control method that multiplexing electronic police mixed traffic flow detects and device
CN104537849A (en) * 2014-12-16 2015-04-22 同济大学 Intersection bus stop overflow control method
WO2016147329A1 (en) * 2015-03-18 2016-09-22 住友電気工業株式会社 Information providing device, computer program, storage medium, and information providing method
JPWO2016147329A1 (en) * 2015-03-18 2017-12-28 住友電気工業株式会社 Information providing apparatus, computer program, recording medium, and information providing method
JP2017169068A (en) * 2016-03-16 2017-09-21 株式会社東芝 Vehicle communication device, road-side communication device, and communication system
CN108986493A (en) * 2018-08-21 2018-12-11 北京深瞐科技有限公司 Traffic lights transit time distribution method and its device
CN111383455A (en) * 2020-03-11 2020-07-07 上海眼控科技股份有限公司 Traffic intersection object flow statistical method, device, computer equipment and medium
CN113053105A (en) * 2021-02-26 2021-06-29 吴江市腾凯通信工程有限公司 Multi-component intelligent monitoring system for urban road

Also Published As

Publication number Publication date
JP3979272B2 (en) 2007-09-19

Similar Documents

Publication Publication Date Title
JP3979272B2 (en) Road traffic measuring device
US11527071B2 (en) Person search system and person search method
EP2583449B1 (en) Mobile and server-side computational photography
JP4760892B2 (en) Display control apparatus, display control method, and program
CN105917639B (en) Location tags camera focusing system
US20120262484A1 (en) Motion Capture and Analysis at a Portable Computing Device
CN101547311B (en) Imaging device
JP2017538948A (en) Navigation, navigation video generation method and apparatus
US20140086551A1 (en) Information processing apparatus and information processing method
WO1995033334A1 (en) Imaging method and its apparatus
WO2019085945A1 (en) Detection device, detection system, and detection method
JP6396682B2 (en) Surveillance camera system
US10257586B1 (en) System and method for timing events utilizing video playback on a mobile device
JP4307050B2 (en) Highlight scene extraction device
EP1988405A2 (en) Photographic subject tracking method, computer program and photographic subject tracking device
JP2012124553A (en) Photographing system and lens device
JP2013157787A (en) Moving image data generation system
JP2001183383A (en) Imaging apparatus and method for calculating velocity of object to be imaged
KR100442535B1 (en) Shortage of hands image apparatus and system using color tracing, and thereof method
KR101976493B1 (en) Method and Apparatus for Setting Object Area for Use in Video Monitoring Device
JP4262620B2 (en) Imaging apparatus and image reproduction apparatus
JPH10243380A (en) Video monitor system
JP2005123750A (en) Video-map interlocking system and interlocking method thereof
US20230164305A1 (en) Information processing device, information processing method, and program
KR200356464Y1 (en) The Units to an injurer or to make an authentication a fault of traffic accidents in crossroads

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050520

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120706

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130706

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees