[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018055597A - Vehicle type discrimination device and vehicle type discrimination method - Google Patents

Vehicle type discrimination device and vehicle type discrimination method Download PDF

Info

Publication number
JP2018055597A
JP2018055597A JP2016194019A JP2016194019A JP2018055597A JP 2018055597 A JP2018055597 A JP 2018055597A JP 2016194019 A JP2016194019 A JP 2016194019A JP 2016194019 A JP2016194019 A JP 2016194019A JP 2018055597 A JP2018055597 A JP 2018055597A
Authority
JP
Japan
Prior art keywords
vehicle
vehicle type
similarity
captured image
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016194019A
Other languages
Japanese (ja)
Other versions
JP6678552B2 (en
Inventor
青木 泰浩
Yasuhiro Aoki
泰浩 青木
佐藤 俊雄
Toshio Sato
俊雄 佐藤
中村 順一
Junichi Nakamura
順一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2016194019A priority Critical patent/JP6678552B2/en
Publication of JP2018055597A publication Critical patent/JP2018055597A/en
Application granted granted Critical
Publication of JP6678552B2 publication Critical patent/JP6678552B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle type discrimination device and a vehicle type discrimination method, which can provide various services by identifying a specific vehicle type by utilizing existing facilities.SOLUTION: A vehicle type discrimination device 103 comprises a storage unit 95, a detection unit 92, and a discrimination unit 95. The storage unit stores a specific vehicle type in a vehicle type classification of a vehicle in association with a reference image for each face as a discrimination reference for each of the plurality of faces of the vehicle. The detection unit detects a plurality of faces from a captured image captured by an image capturing device of the vehicle. The discrimination unit collates each of the plurality of faces detected by the detection unit with the reference image for each face to obtain a similarity degree indicating the degree of similarity with the reference image for each face, and performs weighting addition by multiplying the degree of similarity of each face by weighting coefficients to obtain a vehicle type similarity which is a degree of similarity for each type of vehicle, and discriminates a model of the captured vehicle based on the vehicle type similarity.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、車種判別装置および車種判別方法に関する。   Embodiments described herein relate generally to a vehicle type identification device and a vehicle type identification method.

従来、撮像された画像から推定した車両の車幅、車長、車高によって、普通車、中型車、大型車等の車種区分を判別する技術が知られている。また、道路を通行する車両のETCカードに登録された情報を使用して、車種区分を判別する技術が知られている。   2. Description of the Related Art Conventionally, a technique for discriminating vehicle types such as ordinary vehicles, medium-sized vehicles, and large-sized vehicles based on the vehicle width, vehicle length, and vehicle height estimated from captured images is known. In addition, a technique for discriminating a vehicle type classification using information registered in an ETC card of a vehicle traveling on a road is known.

また、従来、CCTV(Closed-Circuit Television)カメラ等の解像度の低いカメラによって撮像された画像から、道路を通行する車両の台数を計数する技術が知られている。これらのような従来技術において、具体的な車種を高精度に判別することが求められている。   Conventionally, a technique for counting the number of vehicles traveling on a road from an image captured by a low-resolution camera such as a CCTV (Closed-Circuit Television) camera is known. In the conventional techniques such as these, it is required to discriminate a specific vehicle type with high accuracy.

特開2013−148971号公報JP2013-148971A

しかしながら、車両の車幅、車長、車高の情報からでは、普通車、中型車、大型車等の車種区分までの判別は可能であるが、各車種区分に属する車両の具体的な車種を特定することは困難であった。また、ETCカードには高速道路の料金区分の判別のために車種区分の情報が登録されているが、具体的な車種の情報は登録されていないため、ETCカードの情報から具体的な車種を特定することも困難であった。   However, from the vehicle width, vehicle length, and vehicle height information, it is possible to discriminate up to vehicle types such as ordinary vehicles, medium-sized vehicles, and large vehicles, but the specific vehicle types belonging to each vehicle type category It was difficult to identify. Also, the ETC card contains information on the vehicle type classification for determining the toll class of the expressway, but since specific vehicle type information is not registered, the specific vehicle type is selected from the information on the ETC card. It was also difficult to identify.

また、一般にCCTVカメラ等で撮像された画像は解像度が低く、さらに、それぞれのCCTVカメラ等の設置位置によって車両を撮像する角度が異なるため、具体的な車種を特定するための基準画像と精度良くマッチングすることは困難であった。一方、具体的な車種を判別することを目的とした高解像度のカメラを、新たに設置することもまた困難である場合があった。   In general, an image captured by a CCTV camera or the like has a low resolution, and the angle at which the vehicle is imaged differs depending on the installation position of each CCTV camera or the like. Therefore, the reference image for specifying a specific vehicle type is accurate. It was difficult to match. On the other hand, it may be difficult to newly install a high-resolution camera for the purpose of discriminating a specific vehicle type.

実施形態の車種判別装置は、記憶部と、検出部と、判別部とを備える。記憶部は、車両の車種区分の中の具体的な車種と、車両の複数の面のそれぞれの判定基準となる面ごとの基準画像とを対応付けて記憶する。検出部は、撮像装置が車両を撮像した撮像画像から複数の面を検出する。判別部は、検出部が検出した複数の面のそれぞれと面ごとの基準画像とを照合して面ごとに基準画像との類似度合を示す類似度を求め、面ごとの類似度に対して重み係数を乗じて重み付け加算を行うことにより車種ごとの類似度である車種類似度を求め、車種類似度に基づいて、撮像された車両の車種として判別する。   The vehicle type identification device of the embodiment includes a storage unit, a detection unit, and a determination unit. A memory | storage part matches and memorize | stores the specific vehicle type in the vehicle type classification | category of a vehicle, and the reference | standard image for every surface used as the determination criterion of each of the several surface of a vehicle. The detection unit detects a plurality of surfaces from a captured image obtained by imaging the vehicle by the imaging device. The discriminating unit collates each of the plurality of surfaces detected by the detecting unit with the reference image for each surface, obtains a similarity indicating the degree of similarity with the reference image for each surface, and weights the similarity for each surface By multiplying the coefficient and performing weighted addition, a vehicle type similarity that is a similarity for each vehicle type is obtained, and the vehicle type of the imaged vehicle is determined based on the vehicle type similarity.

図1は、実施形態にかかる車種判別システムの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a vehicle type identification system according to an embodiment. 図2は、実施形態にかかる車種判別装置の機能的構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device according to the embodiment. 図3Aは、実施形態にかかる連続して撮像された撮像画像の一例を示す図である。FIG. 3A is a diagram illustrating an example of captured images continuously captured according to the embodiment. 図3Bは、実施形態にかかる車両の外郭の検出の一例を示す図である。FIG. 3B is a diagram illustrating an example of detection of the outline of the vehicle according to the embodiment. 図4は、実施形態にかかる仮想平面の設定の一例を示す図である。FIG. 4 is a diagram illustrating an example of setting a virtual plane according to the embodiment. 図5Aは、実施形態にかかる撮像画像における車両の形状の一例を示す図である。FIG. 5A is a diagram illustrating an example of a shape of a vehicle in a captured image according to the embodiment. 図5Bは、実施形態にかかる撮像画像における車両の形状の他の一例を示す図である。FIG. 5B is a diagram illustrating another example of the shape of the vehicle in the captured image according to the embodiment. 図5Cは、実施形態にかかる撮像画像における車両の形状の他の一例を示す図である。FIG. 5C is a diagram illustrating another example of the shape of the vehicle in the captured image according to the embodiment. 図5Dは、実施形態にかかる撮像画像における車両の形状の他の一例を示す図である。FIG. 5D is a diagram illustrating another example of the shape of the vehicle in the captured image according to the embodiment. 図6は、実施形態にかかる仮想平面による車両の外郭の正面部分の検出の一例を示す図である。FIG. 6 is a diagram illustrating an example of detection of the front portion of the outline of the vehicle using the virtual plane according to the embodiment. 図7は、実施形態にかかる車幅の計測の一例を示す図である。FIG. 7 is a diagram illustrating an example of vehicle width measurement according to the embodiment. 図8Aは、実施形態にかかる車両の外接直方体の一例を示す図である。FIG. 8A is a diagram illustrating an example of a circumscribed rectangular parallelepiped of the vehicle according to the embodiment. 図8Bは、実施形態にかかる車両の外接直方体を構成する各辺の詳細を説明する図である。FIG. 8B is a diagram for explaining details of each side constituting the circumscribed rectangular parallelepiped of the vehicle according to the embodiment. 図9は、実施形態にかかる車両の各面の形状の変換の一例を示す図である。FIG. 9 is a diagram illustrating an example of conversion of the shape of each surface of the vehicle according to the embodiment. 図10は、実施形態にかかる車種区分データベースの一例を示す図である。FIG. 10 is a diagram illustrating an example of a vehicle type classification database according to the embodiment. 図11は、実施形態にかかる辞書データベースの一例を示す図である。FIG. 11 is a diagram illustrating an example of a dictionary database according to the embodiment. 図12は、実施形態にかかる車種判別処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a flow of a vehicle type determination process according to the embodiment. 図13は、実施形態にかかる車種判別装置の効果の一例を説明する図である。FIG. 13 is a diagram illustrating an example of the effect of the vehicle type identification device according to the embodiment. 図14は、実施形態にかかる車種判別装置の効果の他の一例を説明する図である。FIG. 14 is a diagram illustrating another example of the effect of the vehicle type identification device according to the embodiment. 図15Aは、変形例にかかる正常時における撮像画像の一例を示す図である。FIG. 15A is a diagram illustrating an example of a captured image in a normal state according to a modified example. 図15Bは、変形例にかかる照度が低い場合における撮像画像の一例を示す図である。FIG. 15B is a diagram illustrating an example of a captured image when the illuminance according to the modification is low. 図15Cは、変形例にかかる照度が非常に低い場合における撮像画像の一例を示す図である。FIG. 15C is a diagram illustrating an example of a captured image when the illuminance according to the modification is very low. 図16は、変形例にかかる解像度に応じた複数の基準画像と撮像画像との照合の一例を示す図である。FIG. 16 is a diagram illustrating an example of collation between a plurality of reference images and captured images according to the resolution according to the modification.

図1は、本実施形態にかかる車種判別システム1の構成の一例を示す図である。図1に示すように、本実施形態の車種判別システム1は、撮像装置101と、ETC電波受信機102と、車種判別装置103とを備えている。   FIG. 1 is a diagram illustrating an example of a configuration of a vehicle type identification system 1 according to the present embodiment. As shown in FIG. 1, the vehicle type identification system 1 of this embodiment includes an imaging device 101, an ETC radio wave receiver 102, and a vehicle type identification device 103.

本実施形態の撮像装置101は、道路を通行する車両10を撮像する単眼カメラ等である。撮像装置101としては、例えば、道路を通行する車両群を撮像して車両10の台数を計数するトラフィックカウンター用に設置された既存のCCTVカメラを採用しても良い。撮像装置101が撮像した撮像画像の解像度は高いものでなくとも良く、車両10の台数を計数可能な程度の画素を確保していれば良い。   The imaging device 101 of the present embodiment is a monocular camera or the like that images the vehicle 10 traveling on the road. As the imaging device 101, for example, an existing CCTV camera installed for a traffic counter that images a group of vehicles traveling on a road and counts the number of vehicles 10 may be employed. The resolution of the captured image captured by the image capturing apparatus 101 does not have to be high, and it is only necessary to secure enough pixels to count the number of vehicles 10.

撮像装置101は、例えば道路から7m程度の高さの位置に設置され、車両10を斜め上方から撮像するものとする。また、他の例としては、撮像装置101は、道路を通行する車両10を側面から撮影する位置に設置されるものとしても良く、撮像装置101の設置位置や設置角度、画角等の撮像条件については厳格な制限をするものではない。
撮像装置101は、車両10を撮像した撮像画像を、車種判別装置103に送信する。
The imaging device 101 is installed, for example, at a height of about 7 m from the road, and images the vehicle 10 from obliquely above. As another example, the imaging apparatus 101 may be installed at a position where the vehicle 10 traveling on the road is photographed from the side, and imaging conditions such as an installation position, an installation angle, and an angle of view of the imaging apparatus 101 are provided. There are no strict restrictions on the.
The imaging device 101 transmits a captured image obtained by capturing the vehicle 10 to the vehicle type identification device 103.

ETC電波受信機102は、道路を通行する車両10のETCカードに登録された情報を受信する装置である。ETC電波受信機102は、車両10のETCカードに登録された車両10の車種区分を受信し、車種判別装置103にリアルタイムに送信する。   The ETC radio wave receiver 102 is a device that receives information registered in the ETC card of the vehicle 10 traveling on the road. The ETC radio wave receiver 102 receives the vehicle type classification of the vehicle 10 registered in the ETC card of the vehicle 10 and transmits it to the vehicle type discrimination device 103 in real time.

車種判別装置103は、車種判別処理を実行する電子計算機である。車種判別装置103は、撮像装置101およびETC電波受信機102と、電気的に接続されている。   The vehicle type identification device 103 is an electronic computer that executes vehicle type identification processing. The vehicle type identification device 103 is electrically connected to the imaging device 101 and the ETC radio wave receiver 102.

車種判別装置103は、撮像装置101から、撮像画像を入力する。そして、車種判別装置103は、入力した撮像画像から、車両10の車種区分および具体的な車種をリアルタイムに判別する。また、車種判別装置103は、ETC電波受信機102から、車両10のETCカードに登録された車両10の車種区分を受信して、車種区分の判別の精度を向上させる。   The vehicle type identification device 103 inputs a captured image from the imaging device 101. Then, the vehicle type determination device 103 determines the vehicle type classification and specific vehicle type of the vehicle 10 from the input captured image in real time. Further, the vehicle type identification device 103 receives the vehicle type classification of the vehicle 10 registered in the ETC card of the vehicle 10 from the ETC radio receiver 102, and improves the accuracy of the determination of the vehicle type classification.

ここで、本実施形態における車種区分は、車両10の種別を分類する区分である。例えば、本実施形態における車種区分は、高速道路の料金基準で用いられる区分に準じて、車両10の種別を、軽自動車(二輪自動車を含む)、普通車、中型車、大型車、特大車に分類する。   Here, the vehicle type classification in the present embodiment is a classification for classifying the type of the vehicle 10. For example, according to the classification used in the highway toll standard, the type of vehicle 10 is classified into a light vehicle (including a two-wheeled vehicle), a normal vehicle, a medium-sized vehicle, a large vehicle, and an extra large vehicle. Classify.

また、車種とは、車種区分に含まれる車両10の種別をより具体的に特定する種別名称である。例えば、車種区分「大型車」には、普通トラック、中型バス、トラクタ等の車種が含まれる。また、車種区分「特大車」には、大型バス、セミトレーラ等の車種が含まれる。以下、単に「車種」と称する場合は、この具体的な車種のことをいうものとする。   The vehicle type is a type name that more specifically specifies the type of the vehicle 10 included in the vehicle type division. For example, the vehicle type classification “large vehicle” includes vehicle types such as ordinary trucks, medium-sized buses, and tractors. The vehicle type classification “extra large vehicle” includes vehicle types such as large buses and semi-trailers. Hereinafter, when simply referred to as “vehicle type”, this specific vehicle type is meant.

車種判別装置103は、判別した車種区分および車種を、車両情報を集中管理する管理センター(以下、「センター」という)のコンピュータ等に送信する。本実施形態の車種判別装置103は、図1では道路脇に設置されているが、これに限定されず、センター内に設置される構成を採用しても良い。   The vehicle type discriminating apparatus 103 transmits the discriminated vehicle type classification and the vehicle type to a computer or the like of a management center (hereinafter referred to as “center”) that centrally manages vehicle information. The vehicle type identification device 103 of this embodiment is installed on the side of the road in FIG. 1, but is not limited to this, and a configuration installed in the center may be adopted.

次に、車種判別装置103の機能的構成について説明する。
図2は、本実施形態にかかる車種判別装置103の機能的構成の一例を示すブロック図である。図2に示すように、本実施形態の車種判別装置103は、入力部90と、通信部91と、検出部92と、変換部93と、調整部94と、判別部95と、記憶部96と、を備える。
Next, a functional configuration of the vehicle type identification device 103 will be described.
FIG. 2 is a block diagram illustrating an example of a functional configuration of the vehicle type identification device 103 according to the present embodiment. As shown in FIG. 2, the vehicle type identification device 103 of this embodiment includes an input unit 90, a communication unit 91, a detection unit 92, a conversion unit 93, an adjustment unit 94, a determination unit 95, and a storage unit 96. And comprising.

記憶部96は、図2に示すように、車種区分データベース961(以下、「車種区分DB961」という)と、辞書データベース962(以下、「辞書DB962」という)とを記憶する。各データベースの詳細は後述する。記憶部96は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、メモリなどの記憶媒体である。   As shown in FIG. 2, the storage unit 96 stores a vehicle type classification database 961 (hereinafter referred to as “vehicle type classification DB 961”) and a dictionary database 962 (hereinafter referred to as “dictionary DB 962”). Details of each database will be described later. The storage unit 96 is a storage medium such as a hard disk drive (HDD), a solid state drive (SSD), or a memory.

入力部90は、撮像装置101から、車両10を撮像した撮像画像の入力を受け付ける。また、入力部90は、入力された撮像画像を検出部92へ送出する。   The input unit 90 receives an input of a captured image obtained by capturing the vehicle 10 from the imaging device 101. Further, the input unit 90 sends the input captured image to the detection unit 92.

通信部91は、ETC電波受信機102から、車両10のETCカードに登録された車両10の車種区分を取得する。通信部91は、取得した車種区分を判別部95に送出する。また、通信部91は、後述する判別部95が判別した車両10の車種区分および車種を、インターネット等のネットワークを介してセンターにリアルタイムに送信する。   The communication unit 91 acquires the vehicle type classification of the vehicle 10 registered in the ETC card of the vehicle 10 from the ETC radio wave receiver 102. The communication unit 91 sends the acquired vehicle type classification to the determination unit 95. The communication unit 91 transmits the vehicle type classification and the vehicle type of the vehicle 10 determined by the determination unit 95 described later to the center in real time via a network such as the Internet.

検出部92は、撮像装置101が撮像した撮像画像から、車両10の外郭を検出する。具体的には、まず、検出部92は、撮像画像から車両10の特徴点を抽出する。特徴点とは、例えば撮像画像における車両10のエッジ(角部)とする。   The detection unit 92 detects the outline of the vehicle 10 from the captured image captured by the imaging device 101. Specifically, first, the detection unit 92 extracts a feature point of the vehicle 10 from the captured image. The feature point is, for example, an edge (corner portion) of the vehicle 10 in the captured image.

また、撮像装置101が一度に撮像する範囲に車両10の全景が含まれない場合は、検出部92は、連続して撮像した複数の撮像画像から車両10の外郭を検出する。
図3Aは、本実施形態にかかる連続して撮像された撮像画像の一例を示す図である。図3Aに示す撮像画像301〜304は、移動する車両10を、撮像装置101が連続して撮像したものである。撮像画像301〜304では、時間の経過ともに、車両10の先頭部分から後部までが撮像されている。検出部92は、撮像画像301〜304から車両10の特徴点をそれぞれ検出し、車両10の移動に伴う特徴点の移動を追跡することにより、撮像画像301〜304に含まれる車両10の外郭を繋ぎ合わせて、車両10の全体の外郭を検出する。
Further, when the entire view of the vehicle 10 is not included in the range captured by the imaging device 101 at a time, the detection unit 92 detects the outline of the vehicle 10 from a plurality of captured images that are continuously captured.
FIG. 3A is a diagram illustrating an example of captured images continuously captured according to the present embodiment. The captured images 301 to 304 illustrated in FIG. 3A are images of the moving vehicle 10 continuously captured by the imaging device 101. In the picked-up images 301 to 304, the portion from the head portion to the rear portion of the vehicle 10 is picked up as time passes. The detection unit 92 detects the feature points of the vehicle 10 from the captured images 301 to 304, and tracks the movement of the feature points accompanying the movement of the vehicle 10, thereby identifying the outline of the vehicle 10 included in the captured images 301 to 304. By connecting them, the entire outline of the vehicle 10 is detected.

図3Bは、本実施形態にかかる車両の外郭305の検出の一例を示す図である。検出部92は、撮像画像301〜304から抽出した特徴点から、図3Bに示すように、車両10の外郭305を検出する。   FIG. 3B is a diagram illustrating an example of detection of the outer shell 305 of the vehicle according to the present embodiment. The detection unit 92 detects the outline 305 of the vehicle 10 from the feature points extracted from the captured images 301 to 304 as shown in FIG. 3B.

また、検出部92は、図3Aに示す撮像画像301〜304中の小領域内の輝度値の変化ベクトル(輝度勾配)を検出し、輝度の等高線が閉ループになる位置から車両10の外郭305を検出しても良い。また、撮像装置101の撮像角度が特定されている場合は、検出部92は、予め登録された画像とのパターンマッチングを用いて車両10の外郭305を検出しても良い。
また、図3Aに示す撮像画像301〜304は車両10に対する撮像角度が一定であるが、これに限らず、撮像装置101が車両10の移動に伴って撮像角度を変更して撮像する構成を採用しても良い。
Further, the detection unit 92 detects a change vector (luminance gradient) of the luminance value in the small region in the captured images 301 to 304 shown in FIG. 3A, and detects the outline 305 of the vehicle 10 from the position where the luminance contour line becomes a closed loop. It may be detected. Further, when the imaging angle of the imaging device 101 is specified, the detection unit 92 may detect the outline 305 of the vehicle 10 using pattern matching with a previously registered image.
Further, the captured images 301 to 304 shown in FIG. 3A have a constant imaging angle with respect to the vehicle 10, but the configuration is not limited to this, and the imaging apparatus 101 adopts a configuration in which the imaging angle is changed as the vehicle 10 moves. You may do it.

検出部92は、さらに、車両10の外郭305の検出の精度を高めるために、仮想平面を用いる。本実施形態における撮像装置101が撮像した撮像画像は解像度が低いことが想定されるため、撮像画像から検出した特徴点からでは、車両10の外郭305を明確に特定できない場合がある。この場合に、検出部92は、仮想平面を用いることで、撮像画像から車両10の外郭305をより精度良く検出する。   The detection unit 92 further uses a virtual plane in order to improve the accuracy of detection of the outer shell 305 of the vehicle 10. Since the captured image captured by the image capturing apparatus 101 according to the present embodiment is assumed to have low resolution, the outline 305 of the vehicle 10 may not be clearly identified from the feature points detected from the captured image. In this case, the detection unit 92 uses the virtual plane to detect the outline 305 of the vehicle 10 from the captured image with higher accuracy.

本実施形態において、仮想平面とは、画像処理において道路上の所定の位置に仮想的に設定された平面である。
検出部92は、車両10が通行する道路上に、車両10の進行方向に対して交差する方向に設けられた仮想平面を設定する。検出部92は、仮想平面の底辺と、撮像画像上の車両10の正面部分の底辺の長さを比較することにより、車両10の車幅の実測値を求める。また、検出部92は仮想平面を構成する各辺を平行移動して、撮像画像の中の車両10の外郭305と接する位置座標を求めることにより、車両10の外接直方体を検出する。
In the present embodiment, the virtual plane is a plane virtually set at a predetermined position on the road in image processing.
The detection unit 92 sets a virtual plane provided in a direction intersecting the traveling direction of the vehicle 10 on the road on which the vehicle 10 passes. The detection unit 92 obtains a measured value of the vehicle width of the vehicle 10 by comparing the length of the bottom of the virtual plane and the length of the bottom of the front portion of the vehicle 10 on the captured image. In addition, the detection unit 92 detects the circumscribed cuboid of the vehicle 10 by translating each side constituting the virtual plane and obtaining the position coordinates in contact with the outline 305 of the vehicle 10 in the captured image.

本実施形態における仮想平面の設定について、以下に具体的に説明する。
図4は、本実施形態にかかる仮想平面の設定の一例を示す図である。画像401は、撮像装置101が撮像した撮像画像の一例である。画像401に示すように、撮像画像には、車両10が通行する道路も含まれる。道路の幅は3.5m程度と既知であることと、道路の両端には白線が引いてあることも想定されるので、検出部92は、画像402に示すように、道路の両端を示す線L100およびL101を検出する。また、検出部92は、画像403に示すように、道路を横切る形で、道路の両端を示す線L100およびL01と交差する仮想の横線L1〜L4を一定間隔で設ける。また、検出部92は、画像404に示すように、横線L1〜L4を底辺とし、横線L1〜L4の各両端から道路に対して垂直方向に立つ仮想的な縦線を左右の辺とし、仮想的な2本の縦線の間を接続する横線L1〜L4と平行な線を上辺とする、仮想平面R1〜R4を設定する。画像405に示すように、仮想平面R1〜R4は車両10が通行する道路上に、道路に対して垂直方向に設けられる。ここで、垂直方向は道路に対して交差する方向の一例であり、仮想平面R1〜R4の設置角度はこれに限らない。
The setting of the virtual plane in the present embodiment will be specifically described below.
FIG. 4 is a diagram illustrating an example of setting a virtual plane according to the present embodiment. An image 401 is an example of a captured image captured by the imaging device 101. As shown in an image 401, the captured image includes a road on which the vehicle 10 passes. Since it is assumed that the road width is known to be about 3.5 m and that white lines are drawn at both ends of the road, the detection unit 92 is a line indicating both ends of the road as shown in an image 402. L100 and L101 are detected. Further, as shown in an image 403, the detection unit 92 provides virtual horizontal lines L1 to L4 that intersect with the lines L100 and L01 indicating both ends of the road at regular intervals so as to cross the road. Further, as shown in the image 404, the detection unit 92 uses the horizontal lines L1 to L4 as the bottom sides, and virtual vertical lines standing in the vertical direction with respect to the road from both ends of the horizontal lines L1 to L4 as the left and right sides. Virtual planes R1 to R4 are set with the upper side being a line parallel to the horizontal lines L1 to L4 connecting the two vertical lines. As shown in the image 405, the virtual planes R1 to R4 are provided in a direction perpendicular to the road on the road on which the vehicle 10 passes. Here, the vertical direction is an example of a direction intersecting the road, and the installation angles of the virtual planes R1 to R4 are not limited to this.

車両10の進行方向は、道路の両端を示す線L100およびL101と平行であると想定されるため、仮想平面R1〜R4は車両10の進行方向に対して垂直方向に設けられる。したがって、画像405に示すように、仮想平面R2が車両10の先頭部分に接し、仮想平面R4が車両10の最後部の位置に接する場合は、仮想平面R2とR4によって区切られた道路上の空間が、車両10を囲む直方体の形状となる。このように仮想平面R1〜R4を設定することにより、車両10の進行に伴う撮像画像上の車両10の形状の変形等の幾何情報の変化は、仮想平面R1〜R4の向きを考慮することにより、予測することが可能となる。   Since the traveling direction of the vehicle 10 is assumed to be parallel to the lines L100 and L101 indicating both ends of the road, the virtual planes R1 to R4 are provided in a direction perpendicular to the traveling direction of the vehicle 10. Therefore, as shown in the image 405, when the virtual plane R2 is in contact with the leading portion of the vehicle 10 and the virtual plane R4 is in contact with the position of the rearmost portion of the vehicle 10, the space on the road divided by the virtual planes R2 and R4 However, it becomes the shape of a rectangular parallelepiped surrounding the vehicle 10. By setting the virtual planes R1 to R4 in this way, changes in geometric information such as deformation of the shape of the vehicle 10 on the captured image as the vehicle 10 travels are considered by considering the orientation of the virtual planes R1 to R4. It becomes possible to predict.

仮想平面R1〜R4の設定には、道路上に塗られた白線や、電柱などの情報を利用するのが好ましいが、そのような目印が少ない道路については、コンテナ車両など、幅および高さが規格化された形状の車両10の頂点の、時系列ごとの頂点の移動を追跡させることにより、仮想平面R1〜R4を作成しても良い。   For the setting of the virtual planes R1 to R4, it is preferable to use information such as white lines painted on the roads or utility poles. However, for roads with few such landmarks, the width and height, such as container vehicles, may be used. The virtual planes R <b> 1 to R <b> 4 may be created by tracking the movement of the vertices of the standardized shape of the vehicle 10 for each time series.

また、仮想平面R1〜R4の設置位置は、車両10を車種判別のために撮像するのに最適な道路上の位置を定めるものであっても良い。例えば、連続する複数の撮像画像に、車両10の全景が複数回含まれる場合は、仮想平面R1〜R4のうち、特定の仮想平面R1〜R4に車両10の先頭部分が接した時点の撮像画像を車種判別に使用するものとしても良い。また、図4に示す仮想平面R1〜R4の設置位置および設置数は一例であり、設置数等を限定するものではない。   Further, the installation positions of the virtual planes R1 to R4 may determine the optimal position on the road for imaging the vehicle 10 for vehicle type discrimination. For example, when a plurality of continuous captured images include the entire view of the vehicle 10 multiple times, the captured image at the time when the head portion of the vehicle 10 is in contact with the specific virtual planes R1 to R4 among the virtual planes R1 to R4. May be used for vehicle type discrimination. Moreover, the installation position and the number of installation of virtual plane R1-R4 shown in FIG. 4 are examples, and do not limit the number of installations.

図5A〜Dは、本実施形態にかかる撮像画像501〜504における車両10の形状の一例をそれぞれ示す図である。図5A〜Dに示す撮像画像501〜504は全て同一の車両10を撮像したものであるが、車両10の移動によって、撮像画像内の車両10の形状が変化している。例えば、図5Aに示す撮像画像501では、車両10が撮像装置101から遠いため、車両10の輪郭線は明瞭ではない。一方、図5Dに示す撮像画像504では、車両10が撮像装置101に近接しているため、車両10の輪郭線は明瞭ではあるが、車両10の形状が変形している。図5Cに示す撮像画像503は、車両10の輪郭線が明瞭であり、かつ、車両10の各面の形状の変形が他の撮像画像と比較して少ない。   5A to 5D are diagrams respectively showing examples of the shape of the vehicle 10 in the captured images 501 to 504 according to the present embodiment. The captured images 501 to 504 shown in FIGS. 5A to 5D are all images of the same vehicle 10, but the shape of the vehicle 10 in the captured images changes as the vehicle 10 moves. For example, in the captured image 501 illustrated in FIG. 5A, the contour of the vehicle 10 is not clear because the vehicle 10 is far from the imaging device 101. On the other hand, in the captured image 504 shown in FIG. 5D, since the vehicle 10 is close to the imaging device 101, the outline of the vehicle 10 is clear, but the shape of the vehicle 10 is deformed. A captured image 503 illustrated in FIG. 5C has a clear outline of the vehicle 10 and is less deformed on the shape of each surface of the vehicle 10 than other captured images.

このような場合に、検出部92は、予め設定した仮想平面R1〜R4と、複数の撮像画像501〜504の車両10の特徴点とを比較することで、車種判別のために最適な位置に車両10が到達した撮像画像503を選択する構成を採用しても良い。   In such a case, the detection unit 92 compares the preset virtual planes R1 to R4 with the feature points of the vehicle 10 of the plurality of captured images 501 to 504, so that the optimal position for vehicle type determination is obtained. You may employ | adopt the structure which selects the captured image 503 which the vehicle 10 reached | attained.

次に、上記のように設定した仮想平面R1〜R4のうち、車両10の先頭部分に接する仮想平面R2を用いた、車両10の外郭305の正面部分の検出について説明する。検出部92は、特徴点から検出した車両10の外郭305の正面部分を、仮想平面R2によってより明確に検出する。
図6は、本実施形態にかかる仮想平面R2による車両10の外郭305の正面部分の検出の一例を示す図である。図6に示すように、撮像画像中の車両10の先頭部分は仮想平面R2に接している。検出部92は、仮想平面R2の底辺を平行移動し、撮像画像の中の車両10の外郭305の底面部と接する位置座標を求める。
Next, detection of the front portion of the outer shell 305 of the vehicle 10 using the virtual plane R2 in contact with the head portion of the vehicle 10 among the virtual planes R1 to R4 set as described above will be described. The detection unit 92 detects the front portion of the outer shell 305 of the vehicle 10 detected from the feature points more clearly using the virtual plane R2.
FIG. 6 is a diagram illustrating an example of detection of a front portion of the outer shell 305 of the vehicle 10 by the virtual plane R2 according to the present embodiment. As shown in FIG. 6, the leading portion of the vehicle 10 in the captured image is in contact with the virtual plane R2. The detection unit 92 translates the bottom side of the virtual plane R2, and obtains position coordinates in contact with the bottom surface of the outer shell 305 of the vehicle 10 in the captured image.

具体的には、検出部92は、仮想平面R2の底辺を平行移動し、車両10の特徴点から検出した車両10の外郭305の底面部と接する位置座標を求める。また、他の辺についても同様に、検出部92は、仮想平面R2の各辺を平行移動して、撮像画像の中の車両10の外郭305と接する位置座標を求める。このようにして、検出部92は、仮想平面R2を用いて車両10の正面部分の外郭305をより明確に検出する。   Specifically, the detection unit 92 translates the bottom of the virtual plane R <b> 2 and obtains position coordinates that contact the bottom surface of the outer shell 305 of the vehicle 10 detected from the feature points of the vehicle 10. Similarly, with respect to the other sides, the detection unit 92 translates each side of the virtual plane R <b> 2 and obtains position coordinates in contact with the outline 305 of the vehicle 10 in the captured image. In this way, the detection unit 92 more clearly detects the outline 305 of the front portion of the vehicle 10 using the virtual plane R2.

図6では、説明のために車両10の輪郭線は明瞭であるが、撮像画像の解像度が低い場合は、車両10の特徴点が途切れている等、不明瞭な場合が想定される。このような場合でも、仮想平面R2を用いることによって、特徴点を補間し、車両10の外郭305をより精度良く検出することができる。
また、図6に示すR2´は、撮像画像上の車両10の正面に対して後述の変換部93が形状の変換を施したものであるが、変換については後述する。
In FIG. 6, the outline of the vehicle 10 is clear for the sake of explanation. However, when the resolution of the captured image is low, an unclear case such as a feature point of the vehicle 10 being interrupted is assumed. Even in such a case, by using the virtual plane R2, it is possible to interpolate the feature points and detect the outline 305 of the vehicle 10 with higher accuracy.
Further, R2 ′ shown in FIG. 6 is obtained by converting the shape of the conversion unit 93 described later on the front surface of the vehicle 10 on the captured image. The conversion will be described later.

また、検出部92は、車両10の外郭305の正面部分を検出することで、車両10の車幅実測値を計測する。具体的には、道路の幅が既知であることから、仮想平面R2の底辺の長さは既知である。検出部92は、既知の仮想平面R2の底辺の長さと、検出した外郭305の正面部分の底辺の長さとを比較することで、車両10の車幅の実測値を計測する。   Further, the detection unit 92 measures the vehicle width measurement value of the vehicle 10 by detecting the front portion of the outer shell 305 of the vehicle 10. Specifically, since the width of the road is known, the length of the bottom side of the virtual plane R2 is known. The detection unit 92 measures the measured value of the vehicle width of the vehicle 10 by comparing the length of the bottom of the known virtual plane R2 with the length of the bottom of the detected front portion of the outline 305.

図7は、本実施形態にかかる車幅の計測の一例を示す図である。図7に示すように、検出部92は撮像画像上の車両10a〜10cの正面部分の底辺に相当する線分[1]a〜[1]cの長さを計測して車幅を求め、判別部95に送出する。判別部95は、車幅から、車両10a〜10cの車種区分を判別する。車種区分の判別の詳細については後述する。   FIG. 7 is a diagram illustrating an example of vehicle width measurement according to the present embodiment. As illustrated in FIG. 7, the detection unit 92 obtains the vehicle width by measuring the lengths of the line segments [1] a to [1] c corresponding to the bottom sides of the front portions of the vehicles 10a to 10c on the captured images. The data is sent to the determination unit 95. The determination unit 95 determines the vehicle type classification of the vehicles 10a to 10c from the vehicle width. Details of the discrimination of the vehicle type will be described later.

次に、車両10の外接直方体の検出について説明する。
図8Aは、本実施形態にかかる車両10の外接直方体の一例を示す図である。検出部92は、図8Aに示すように、撮像画像上に車両10の外郭305に外接する外接直方体800を検出する。撮像画像の解像度が低い場合でも、車両10の外郭305に外接する外接直方体800を検出することで、撮像画像全体から、車両10の画像を切り出すことができるためである。特に、図8Aに示すように、車両10がバスである場合には、車体の形状が直方体に近似するため、外接直方体800を検出することで撮像画像から車両10を高精度に切り出すことができる。
Next, detection of the circumscribed cuboid of the vehicle 10 will be described.
FIG. 8A is a diagram illustrating an example of a circumscribed rectangular parallelepiped of the vehicle 10 according to the present embodiment. As shown in FIG. 8A, the detection unit 92 detects a circumscribed cuboid 800 that circumscribes the outer shell 305 of the vehicle 10 on the captured image. This is because even when the resolution of the captured image is low, the image of the vehicle 10 can be cut out from the entire captured image by detecting the circumscribed cuboid 800 that circumscribes the outer shell 305 of the vehicle 10. In particular, as shown in FIG. 8A, when the vehicle 10 is a bus, the shape of the vehicle body approximates a rectangular parallelepiped, and therefore the vehicle 10 can be cut out from the captured image with high accuracy by detecting the circumscribed rectangular parallelepiped 800. .

図8Bは、本実施形態にかかる車両10の外接直方体800を構成する各辺の詳細を説明する図である。本実施形態にかかる画像処理において、検出部92は、外接直方体800を構成する線分[1]〜[9]、および各線分の交点P1〜P7の位置座標を求める。
まず、検出部92は、図6で説明したように、車両10の先頭部分が接する仮想平面R2の底辺を上方向に平行移動し、特徴点から求めた車両10の外郭305に接する位置座標を求めることで、外接直方体800の底辺に相当する線分[1]を検出する。
そして、検出部92は、撮像画像における仮想平面R2の右側の縦の辺を、画面左方向に平行移動して、車両10の外郭305の側面と接する位置座標を求めることで、外接直方体800の正面の車高に相当する線分[2]を検出する。この際、線分[1]と線分[2]との交点P1が決定することで、線分[1]の終点および線分[2]の始点が定まる。
FIG. 8B is a diagram illustrating details of each side constituting the circumscribed rectangular parallelepiped 800 of the vehicle 10 according to the present embodiment. In the image processing according to the present embodiment, the detection unit 92 obtains the position coordinates of the line segments [1] to [9] and the intersection points P1 to P7 constituting the circumscribed rectangular parallelepiped 800.
First, as described with reference to FIG. 6, the detection unit 92 translates the base of the virtual plane R <b> 2 with which the top portion of the vehicle 10 is in contact with the upper direction, and obtains the position coordinates in contact with the outline 305 of the vehicle 10 obtained from the feature points. The line segment [1] corresponding to the bottom side of the circumscribed rectangular parallelepiped 800 is detected.
Then, the detection unit 92 translates the vertical side on the right side of the virtual plane R2 in the captured image in the left direction of the screen, and obtains the position coordinates in contact with the side surface of the outer shell 305 of the vehicle 10, so that the circumscribed cuboid 800 is A line segment [2] corresponding to the front vehicle height is detected. At this time, by determining the intersection P1 between the line segment [1] and the line segment [2], the end point of the line segment [1] and the start point of the line segment [2] are determined.

検出部92は、撮像画像における道路の右端を示す線L101を画面左方向に平行移動し、車両10の外郭305の側面上部と接する位置座標を求めることで、線分[3]を検出する。検出部92が線分[3]を検出することにより、線分[2]と線分[3]との交点P2が決定する。交点P2は線分[2]の終点および線分[3]の始点である。
また、検出部92は、線L101の代わりに、連続する仮想平面R1〜R4の右上の頂点を結ぶ線分を検出して平行移動することで線分[3]を検出しても良い。
The detection unit 92 detects line segment [3] by translating a line L101 indicating the right end of the road in the captured image in the left direction of the screen and obtaining a position coordinate in contact with the upper side surface of the outer surface 305 of the vehicle 10. When the detection unit 92 detects the line segment [3], an intersection point P2 between the line segment [2] and the line segment [3] is determined. The intersection point P2 is the end point of the line segment [2] and the start point of the line segment [3].
Moreover, the detection part 92 may detect line segment [3] by detecting the line segment which connects the vertex of the upper right of continuous virtual plane R1-R4 instead of the line L101, and translating.

また、検出部92は、車両10の後部に接触する仮想平面を検出する。例えば、図4の画像405のように、仮想平面R4が車両10の後部に接触するものとする。検出部92は、仮想平面R4の上辺を下方向に平行移動し、車両10の外郭305の後部の上辺に接する位置座標を求めることで、外接直方体800の後部の上辺に相当する線分[4]を検出する。検出部92は、線分[3]と線分[4]が交わる点を交点P3とする。
あるいは、検出部92は、車両10の特徴点から線分[4]の始点である交点P3の位置座標を求めることができる場合、交点P2と交点P3を結ぶことで、線分[3]を検出しても良い。
Further, the detection unit 92 detects a virtual plane that contacts the rear portion of the vehicle 10. For example, it is assumed that the virtual plane R4 is in contact with the rear portion of the vehicle 10 as an image 405 in FIG. The detection unit 92 translates the upper side of the virtual plane R4 in the downward direction and obtains the position coordinates in contact with the upper side of the rear part of the outer shell 305 of the vehicle 10, thereby obtaining a line segment [4 corresponding to the upper side of the rear part of the circumscribed rectangular parallelepiped 800. ] Is detected. The detection unit 92 sets a point where the line segment [3] and the line segment [4] intersect as an intersection point P3.
Alternatively, when the detection unit 92 can obtain the position coordinates of the intersection point P3 that is the starting point of the line segment [4] from the feature point of the vehicle 10, the line segment [3] is obtained by connecting the intersection point P2 and the intersection point P3. It may be detected.

検出部92は、仮想平面R4の左側の縦の辺を、画面右方向に平行移動して、車両10の外郭305の側面と接する位置座標を求めることで、外接直方体800の後部の車高に相当する線分[5]を検出する。この際、線分[4]と線分[5]との交点P4が決定することで、線分[4]の終点および線分[5]の始点が定まる。
あるいは、検出部92は、先に検出した線分[2]を平行移動して、車両10の外郭305の側面と接する位置座標を求めることで、線分[5]を検出しても良い。
The detection unit 92 translates the vertical side on the left side of the virtual plane R4 in the right direction of the screen, and obtains the position coordinates in contact with the side surface of the outer shell 305 of the vehicle 10, so that the vehicle height at the rear part of the circumscribed rectangular parallelepiped 800 is obtained. Corresponding line segment [5] is detected. At this time, by determining the intersection P4 between the line segment [4] and the line segment [5], the end point of the line segment [4] and the start point of the line segment [5] are determined.
Alternatively, the detection unit 92 may detect the line segment [5] by translating the previously detected line segment [2] and obtaining the position coordinates in contact with the side surface of the outer shell 305 of the vehicle 10.

検出部92は、先に検出した線分[3]を平行移動して、車両10の外郭305の側面の底辺と接する位置座標を求めることで、線分[6]を検出する。この際、線分[5]と線分[6]の交点P5が決定し、線分[5]の終点および線分[6]の始点が定まる。また、線分[1]と線分[6]の交点P6が決定し、線分[1]の始点および線分[6]の終点が定まる。   The detection unit 92 detects the line segment [6] by translating the previously detected line segment [3] and obtaining the position coordinates in contact with the bottom of the side surface of the outer shell 305 of the vehicle 10. At this time, the intersection P5 of the line segment [5] and the line segment [6] is determined, and the end point of the line segment [5] and the start point of the line segment [6] are determined. Further, the intersection point P6 of the line segment [1] and the line segment [6] is determined, and the start point of the line segment [1] and the end point of the line segment [6] are determined.

あるいは、検出部92は、撮像画像における道路の左端を示す線L100を画面右方向に平行移動して、車両10の外郭305の側面の底辺と接する位置座標を求めることで、線分[6]を検出しても良い。また、検出部92は、線L100の代わりに、連続する仮想平面R1〜R4の左下の頂点を結ぶ線分を検出して平行移動することで線分[6]を検出しても良い。   Alternatively, the detection unit 92 translates the line L100 indicating the left end of the road in the captured image in the right direction of the screen and obtains the position coordinates in contact with the bottom side of the side surface of the outer shell 305 of the vehicle 10, thereby obtaining a line segment [6]. May be detected. Moreover, the detection part 92 may detect line segment [6] by detecting the line segment which connects the lower left vertex of continuous virtual plane R1-R4 instead of the line L100, and translating.

線分[7]〜[9]は、撮像画像における車両10の内側に位置するため、線分[1]〜[8]と比較して、車両10の外郭305から精度良く位置座標を求めることがより困難である。線分[7]は車両10の正面の上辺に相当する線分である。また、線分[8]は車両10の側面の上辺に相当する線分である。線分[9]は車両10の正面の高さに相当する線分である。基本的には、線分[7]は線分[1]と、線分[8]は線分[3]と、線分[9]は線分[2]とそれぞれ平行になる線分であるが、撮像装置101の撮像角度や車両10の大きさによっては撮像画像における車両10の形状が変形する場合がある。このような場合、線分[1]〜[3]と平行な線分を求めても、交点P7で線分[7]〜[9]が1点に交わらず、外接直方体800を検出することが困難な場合がある。   Since the line segments [7] to [9] are located inside the vehicle 10 in the captured image, the position coordinates are obtained from the outline 305 of the vehicle 10 with higher accuracy than the line segments [1] to [8]. Is more difficult. The line segment [7] is a line segment corresponding to the upper side of the front surface of the vehicle 10. The line segment [8] is a line segment corresponding to the upper side of the side surface of the vehicle 10. Line [9] is a line corresponding to the height of the front of the vehicle 10. Basically, line [7] is a line [1], line [8] is a line [3], and line [9] is a line that is parallel to line [2]. However, depending on the imaging angle of the imaging device 101 and the size of the vehicle 10, the shape of the vehicle 10 in the captured image may be deformed. In such a case, even if a line segment parallel to the line segments [1] to [3] is obtained, the line segments [7] to [9] do not cross one point at the intersection P7, and the circumscribed rectangular parallelepiped 800 is detected. May be difficult.

そこで、本実施形態では、線分[7]と線分[1]、線分[8]と線分[3]、線分[9]と線分[2]におけるそれぞれの許容される平行スコアの範囲を予め設定する。平行スコアとは、2本の線分の位置関係がどれだけ平行に近いかを示す値である。例えば、2本の線分が完全に平行である場合は平行スコアを“0”とし、2本の線分を伸長した場合に交わる角度が10°の場合は平行スコアを“10”としても良い。検出部92は、この平行スコアが所定の範囲内である2本の線分は、略平行であると判断する。平行スコアの所定の範囲を示す閾値は、記憶部96が記憶する構成を採用しても良い。   Therefore, in the present embodiment, the allowed parallel scores for the line segment [7] and the line segment [1], the line segment [8] and the line segment [3], and the line segment [9] and the line segment [2], respectively. This range is set in advance. The parallel score is a value indicating how close the parallel relationship of the two line segments is. For example, if two line segments are completely parallel, the parallel score may be “0”, and if the angle that intersects when two line segments are expanded is 10 °, the parallel score may be “10”. . The detection unit 92 determines that the two line segments whose parallel scores are within a predetermined range are substantially parallel. The threshold value indicating the predetermined range of the parallel score may be stored in the storage unit 96.

検出部92は、線分[7]と線分[1]の平行スコア、線分[8]と線分[3]の平行スコア、線分[9]と線分[2]の平行スコアが全て所定の範囲内となる交点P7の位置座標を求めることにより、適切な線分[7]〜[9]の位置座標を定める。   The detection unit 92 has a parallel score of the line segment [7] and the line segment [1], a parallel score of the line segment [8] and the line segment [3], and a parallel score of the line segment [9] and the line segment [2]. By determining the position coordinates of the intersection point P7 that are all within the predetermined range, the position coordinates of the appropriate line segments [7] to [9] are determined.

このようにして、検出部92は、撮像画像から外接直方体800を構成する線分[1]〜[9]を検出する。すなわち、検出部92は、車両10が通行する道路上に、車両10の進行方向に対して垂直方向に設けられた仮想平面R1〜R4を設定し、仮想平面R1〜R4を構成する各辺を平行移動して、撮像画像の中の車両10の外郭305と接する位置座標を求めることにより、外接直方体800を検出する。   In this way, the detection unit 92 detects the line segments [1] to [9] constituting the circumscribed rectangular parallelepiped 800 from the captured image. That is, the detection unit 92 sets virtual planes R1 to R4 provided in a direction perpendicular to the traveling direction of the vehicle 10 on the road on which the vehicle 10 passes, and sets each side constituting the virtual planes R1 to R4. The circumscribed cuboid 800 is detected by moving in parallel and obtaining the position coordinates in contact with the outline 305 of the vehicle 10 in the captured image.

上述の線分[1]〜[9]の検出は一例であり、他の方法により撮像画像から車両10の外接直方体800を検出する構成を採用しても良い。   The above-described detection of the line segments [1] to [9] is an example, and a configuration in which the circumscribed rectangular parallelepiped 800 of the vehicle 10 is detected from the captured image by another method may be employed.

次に、検出部92は、撮像画像から外接直方体800の複数の面を切り出す。具体的には、検出部92は、図8Bに示す線分[1]、線分[2]、線分[7]、線分[9]に囲まれた面を、外接直方体800の正面として切り出す。また、検出部92は、線分[3]、線分[4]、線分[7]、線分[8]に囲まれた面を、外接直方体800の上面として切り出す。また、検出部92は、線分[5]、線分[6]、線分[8]、線分[9]に囲まれた面を、外接直方体800の側面として切り出す。道路の情報から、車両10の進行方向は既知であるため、外接直方体800の各面が、車両10のいずれの面にあたるかは推定することができる。   Next, the detection unit 92 cuts out a plurality of surfaces of the circumscribed rectangular parallelepiped 800 from the captured image. Specifically, the detection unit 92 sets the surface surrounded by the line segment [1], the line segment [2], the line segment [7], and the line segment [9] illustrated in FIG. 8B as the front surface of the circumscribed rectangular parallelepiped 800. cut. Further, the detection unit 92 cuts out a surface surrounded by the line segment [3], the line segment [4], the line segment [7], and the line segment [8] as the upper surface of the circumscribed rectangular parallelepiped 800. In addition, the detection unit 92 cuts out a surface surrounded by the line segment [5], the line segment [6], the line segment [8], and the line segment [9] as a side surface of the circumscribed rectangular parallelepiped 800. Since the traveling direction of the vehicle 10 is known from the road information, it can be estimated which surface of the circumscribed cuboid 800 corresponds to which surface of the vehicle 10.

図8Aに示すように、車両10の外接直方体800の正面、側面、上面は、それぞれ撮像画像中の車両10の正面、側面、上面に相当する。すなわち、検出部92は、撮像画像から車両10の外接直方体800を検出し、検出した外接直方体800の正面、側面、上面を切り出すことにより、車両10の正面、側面、上面を検出する。図8Aおよび図8Bでは、車両10の正面、側面、上面を検出しているが、これに限らず、撮像装置101が車両10を背後から撮像する場合は、検出部92は車両10の背面を検出する構成を採用しても良い。   As shown in FIG. 8A, the front, side, and top surfaces of the circumscribed cuboid 800 of the vehicle 10 correspond to the front, side, and top surfaces of the vehicle 10 in the captured image, respectively. That is, the detection unit 92 detects the circumscribed cuboid 800 of the vehicle 10 from the captured image, and detects the front, side, and upper surface of the vehicle 10 by cutting out the front, side, and upper surface of the detected circumscribed cuboid 800. 8A and 8B, the front, side, and top surfaces of the vehicle 10 are detected. However, the present invention is not limited to this, and when the imaging device 101 images the vehicle 10 from behind, the detection unit 92 detects the back surface of the vehicle 10. You may employ | adopt the structure to detect.

検出部92は、車両10の外接直方体800を検出することで、撮像画像の解像度が低く、車両10の外郭305が不明瞭である場合にも、撮像画像から車両10の画像を切り出すことができる。また、検出部92は、外接直方体800の複数の面を切り出すことにより、同一の撮像画像から、車両10の複数の面を検出することができる。   By detecting the circumscribed cuboid 800 of the vehicle 10, the detection unit 92 can cut out the image of the vehicle 10 from the captured image even when the resolution of the captured image is low and the outline 305 of the vehicle 10 is unclear. . Moreover, the detection part 92 can detect the several surface of the vehicle 10 from the same captured image by cutting out the several surface of the circumscribed rectangular parallelepiped 800. FIG.

図2に戻り、検出部92は、検出した車両10の正面、側面、上面を、変換部93に送出する。変換部93は、検出部92が撮像画像から検出した各面の形状を、矩形状に変換する。変換の手法としては、公知の手法を用いる。   Returning to FIG. 2, the detection unit 92 sends the detected front, side, and top surfaces of the vehicle 10 to the conversion unit 93. The conversion unit 93 converts the shape of each surface detected by the detection unit 92 from the captured image into a rectangular shape. As the conversion method, a known method is used.

図9は、本実施形態にかかる車両10の各面の形状の変換の一例を示す図である。本実施形態においては、撮像装置101が車両10の各面をそれぞれ正面から撮像するとは限らない。撮像装置101が車両10を斜めの角度等から撮像した場合、撮像画像における車両10の各面の形状は変形する。例えば、図9に示す車両10の外接直方体800の上面Aは、平行四辺形に近い形状に変形している。このままでは、後述の判別部95が、画像の照合を精度良く行うことが困難である。   FIG. 9 is a diagram illustrating an example of conversion of the shape of each surface of the vehicle 10 according to the present embodiment. In the present embodiment, the imaging device 101 does not always capture each surface of the vehicle 10 from the front. When the imaging device 101 images the vehicle 10 from an oblique angle or the like, the shape of each surface of the vehicle 10 in the captured image is deformed. For example, the upper surface A of the circumscribed rectangular parallelepiped 800 of the vehicle 10 shown in FIG. 9 is deformed to a shape close to a parallelogram. In this state, it is difficult for the determination unit 95 described later to accurately collate images.

そこで、図9に示すように、変換部93は、車両10の外接直方体800の上面A、側面B、正面Cを、それぞれ矩形状の上面A´、側面B´、正面C´に変換する。変換部93は、外接直方体800の各面の形状の変換において、仮想平面R1〜R4を利用しても良い。例えば、図4の画像405に示すように、仮想平面R2が平行四辺形に近い形状である場合、変換部93は、仮想平面R2の内角が全て直角になるように仮想平面R2の形状を変換する。そして、変換部93は、仮想平面R2を構成する線分の位置の変化を計測し、計測した線分の位置の変化を外接直方体800の各線分に当てはめることで、車両10の外接直方体800の正面Cの形状を矩形状に変換する。また、変換部93は、上面Aおよび側面Bの形状を矩形に変換する場合にも、仮想平面R1〜R4を利用する構成を採用しても良い。   Therefore, as illustrated in FIG. 9, the conversion unit 93 converts the upper surface A, the side surface B, and the front surface C of the circumscribed rectangular parallelepiped 800 of the vehicle 10 into a rectangular upper surface A ′, side surface B ′, and front surface C ′, respectively. The conversion unit 93 may use the virtual planes R1 to R4 in converting the shape of each surface of the circumscribed rectangular parallelepiped 800. For example, as shown in an image 405 in FIG. 4, when the virtual plane R2 has a shape close to a parallelogram, the conversion unit 93 converts the shape of the virtual plane R2 so that all the internal angles of the virtual plane R2 are right angles. To do. And the conversion part 93 measures the change of the position of the line segment which comprises virtual plane R2, and applies the change of the position of the measured line segment to each line segment of the circumscribed rectangular parallelepiped 800, and thereby the circumscribed rectangular parallelepiped 800 of the vehicle 10 is changed. The shape of the front C is converted into a rectangular shape. The conversion unit 93 may adopt a configuration using the virtual planes R1 to R4 even when the shapes of the upper surface A and the side surface B are converted into a rectangle.

図2に戻り、変換部93は、変換後の上面A´、側面B´、正面C´を、判別部95に送出する。また、変換部93は、上面A´、側面B´、正面C´の形状変換の度合を、調整部94に送出する。形状変換の度合は、例えば、変換前後の各面の形状の差を表す数値であり、画像を囲む四方の線分の角度や、特徴点の移動量等を数値化した値であっても良い。   Returning to FIG. 2, the conversion unit 93 sends the converted upper surface A ′, side surface B ′, and front surface C ′ to the determination unit 95. Further, the conversion unit 93 sends the degree of shape conversion of the upper surface A ′, the side surface B ′, and the front surface C ′ to the adjustment unit 94. The degree of shape conversion is, for example, a numerical value that represents the difference in shape between the surfaces before and after conversion, and may be a value obtained by quantifying the angle of the four line segments surrounding the image, the amount of movement of the feature points, and the like. .

判別部95は、車両10の車種区分および車種を判別する。
まず、車種区分の判別について説明する。図7で説明したように、判別部95は、検出部92が検出した車両10の車幅を取得する。そして、判別部95は、車種区分DB961から、車両10の車幅に対応付けられた車種区分を検索し、車両10の車種区分を判別する。
The determination unit 95 determines the vehicle type classification and the vehicle type of the vehicle 10.
First, the determination of the vehicle type classification will be described. As described with reference to FIG. 7, the determination unit 95 acquires the vehicle width of the vehicle 10 detected by the detection unit 92. Then, the determination unit 95 searches the vehicle type division DB 961 for the vehicle type division associated with the vehicle width of the vehicle 10 and determines the vehicle type division of the vehicle 10.

図10は、本実施形態にかかる車種区分DB961の一例を示す図である。図10に示すように、車種区分DB961には、車種区分と、当該車種区分の判別条件とが対応付けて記憶される。本実施形態における車種区分の判別条件は、車両10の車幅の長さとする。すなわち、車種区分DB961には、車種区分と、当該車種区分の車両10の車幅の長さの閾値が対応付けて記憶される。例えば、判別部95は、車両10の車幅がn1メートル以下の場合は、車両10の車種区分を「軽自動車(二輪自動車含む)」と判別する。また、判別部95は、車両10の車幅がn3メートルより長く、かつ、n4メートル以下の場合は、車両10の車種区分を「大型車」と判別する。また、判別部95は、車両10の車幅がn4メートルより長い場合は、車両10の車種区分を「特大車」と判別する。判別部95は、車種区分「普通車」および「中型車」についても、車幅の長さに基づいてそれぞれ判別する。   FIG. 10 is a diagram illustrating an example of the vehicle type classification DB 961 according to the present embodiment. As shown in FIG. 10, the vehicle type division DB 961 stores a vehicle type division and a determination condition for the vehicle type division in association with each other. The vehicle type classification determination condition in the present embodiment is the length of the vehicle 10. That is, the vehicle type division DB 961 stores a vehicle type division and a threshold value of the vehicle width of the vehicle 10 in the vehicle type division in association with each other. For example, when the vehicle width of the vehicle 10 is n1 meters or less, the determination unit 95 determines the vehicle type classification of the vehicle 10 as “light vehicle (including a two-wheeled vehicle)”. Further, when the vehicle width of the vehicle 10 is longer than n3 meters and equal to or less than n4 meters, the determination unit 95 determines the vehicle type classification of the vehicle 10 as “large vehicle”. In addition, when the vehicle width of the vehicle 10 is longer than n4 meters, the determination unit 95 determines the vehicle type classification of the vehicle 10 as “extra large vehicle”. The determination unit 95 also determines the vehicle type divisions “ordinary vehicle” and “medium-sized vehicle” based on the length of the vehicle width.

判別部95は、このようにして判別した車種区分を検出部92に送出するものとしても良い。この場合、検出部92は、車両10が特定の車種区分の場合にのみ、上述の外接直方体800の検出を行うものとしても良い。例えば、判別部95が車両10の車種区分を「大型車」または「特大車」と判別した場合にのみ、上述の検出部92が外接直方体800の検出を行う構成を採用しても良い。当該構成を採用した場合、上述した検出部92の外接直方体800の検出による処理負荷を低減することができる。   The determination unit 95 may send the vehicle type classification determined in this way to the detection unit 92. In this case, the detection part 92 is good also as what detects the above-mentioned circumscribed rectangular parallelepiped 800 only when the vehicle 10 is a specific vehicle type division. For example, a configuration in which the detection unit 92 detects the circumscribed cuboid 800 only when the determination unit 95 determines that the vehicle type classification of the vehicle 10 is “large vehicle” or “extra large vehicle” may be adopted. When this configuration is employed, the processing load due to the detection of the circumscribed cuboid 800 of the detection unit 92 described above can be reduced.

また、判別部95は、ETC電波受信機102から、車両10のETCカードに登録された車種区分の情報を取得する。判別部95は、車両10の車幅から判別した車種区分と、ETCカードに登録された車種区分とを突合することで、車種区分の判別の精度を高める。例えば、判別部95が車幅から判別した車種区分と、ETCカードに登録された車種区分の少なくとも一方が「大型車」または「特大車」の場合に、上述の検出部92が外接直方体800の検出を行う構成を採用しても良い。例えば、判別部95が車幅から判別した車種区分が「中型車」の場合でも、ETCカードに登録された車種区分が「大型車」である場合は、検出部92が外接直方体800の検出を行うものとする。撮像画像の解像度が低く、車幅を精度良く検出できない場合でも、ETCカードに登録された車種区分の情報を使用することで、判別部95は、車種区分の判別の精度を向上させることができる。   Further, the determination unit 95 acquires information on the vehicle type classification registered in the ETC card of the vehicle 10 from the ETC radio receiver 102. The determination unit 95 increases the accuracy of determination of the vehicle type classification by matching the vehicle type classification determined from the vehicle width of the vehicle 10 with the vehicle type classification registered in the ETC card. For example, when at least one of the vehicle type classification determined by the determination unit 95 based on the vehicle width and the vehicle type classification registered in the ETC card is “large vehicle” or “extra-large vehicle”, the above-described detection unit 92 includes the circumscribed cuboid 800. A configuration for performing detection may be employed. For example, even if the vehicle type classification determined by the determination unit 95 from the vehicle width is “medium-sized vehicle”, if the vehicle type classification registered in the ETC card is “large vehicle”, the detection unit 92 detects the circumscribed cuboid 800. Assumed to be performed. Even when the resolution of the captured image is low and the vehicle width cannot be detected accurately, the determination unit 95 can improve the accuracy of determination of the vehicle type classification by using the information of the vehicle type classification registered in the ETC card. .

撮像装置101の設置場所によってはETC電波受信機102を併設できない場合も想定される。このような場合でも、判別部95は、車幅から車種区分を判別することができる。判別部95は、判別した車種区分を、通信部91に送出する。   Depending on the installation location of the imaging apparatus 101, there may be a case where the ETC radio wave receiver 102 cannot be installed. Even in such a case, the determination unit 95 can determine the vehicle type classification from the vehicle width. The determination unit 95 sends the determined vehicle type classification to the communication unit 91.

また、判別部95は、変換部93が変換した上面A´、側面B´、正面C´と、辞書DB962に記憶された各面ごとの基準画像とを照合することで、車両10の車種を判別する。
図11は、本実施形態にかかる辞書DB962の一例を示す図である。図11に示すように、辞書DB962には、車種と、当該車種に対応する正面、側面、上面の基準画像が記憶されている。基準画像とは、各車種に該当する車両10の各面を予め撮像した画像であり、車両10の複数の面のそれぞれの判定基準となる。また、基準画像は、マッチングが容易になるよう、予め特徴点を検出した画像でも良い。図11に示す例では、辞書DB962は車種「大型バス」、「セミトレーラ」、「普通トラック」の正面、側面、上面の基準画像をそれぞれ記憶する。各車種ごとの基準画像は複数種類であっても良い。例えば、車種が「大型バス」に対応付けられる正面の基準画像は図11では1画像だが、複数の正面の基準画像が対応付けられて記憶されても良い。
Moreover, the discrimination | determination part 95 collates the upper surface A ', the side surface B', the front C 'which the conversion part 93 converted, and the reference | standard image for every surface memorize | stored in dictionary DB962, and determines the vehicle type of the vehicle 10. Determine.
FIG. 11 is a diagram showing an example of the dictionary DB 962 according to the present embodiment. As shown in FIG. 11, the dictionary DB 962 stores vehicle types and reference images of front, side, and top surfaces corresponding to the vehicle types. The reference image is an image obtained by previously capturing each surface of the vehicle 10 corresponding to each vehicle type, and serves as a determination criterion for each of the plurality of surfaces of the vehicle 10. The reference image may be an image in which feature points are detected in advance so that matching is easy. In the example shown in FIG. 11, the dictionary DB 962 stores reference images of the front, side, and top surfaces of the vehicle types “large bus”, “semi-trailer”, and “normal truck”, respectively. There may be multiple types of reference images for each vehicle type. For example, although the front reference image associated with the vehicle type “large bus” is one image in FIG. 11, a plurality of front reference images may be associated and stored.

判別部95は、上面A´、側面B´、正面C´と辞書DB962に記憶された各面ごとの基準画像とを照合(マッチング)し、各面ごとに基準画像との類似度合を示す類似度を求める。判別部95は、各面ごとの類似度を、テンプレートマッチング等の手法により算出する。例えば、上面A´、側面B´、正面C´と各面ごとの基準画像のそれぞれの特徴点が重なる割合が高いほど、類似度が大きくなるものとしても良い。   The discriminating unit 95 collates (matches) the upper surface A ′, the side surface B ′, the front surface C ′ with the reference image for each surface stored in the dictionary DB 962, and shows the similarity indicating the degree of similarity with the reference image for each surface. Find the degree. The determination unit 95 calculates the similarity for each surface by a technique such as template matching. For example, the similarity may be increased as the ratio of the feature points of the upper surface A ′, the side surface B ′, the front surface C ′ and the reference image for each surface overlaps is higher.

さらに、判別部95は、算出した各面ごとの類似度を重み付け加算して車種ごとの類似度である車種類似度を算出し、求められた車種類似度に基づいて、撮像された車両10の車種を判別する。具体的には、判別部95は、車種類似度が最も大きい車種を、撮像装置101に撮像された車両10の車種として判別する。車種類似度は、(1)式により算出される、各面ごとの類似度の重み付け加算値である。   Furthermore, the determination unit 95 calculates the vehicle type similarity that is the similarity for each vehicle type by weighting and adding the calculated similarity for each surface, and based on the obtained vehicle type similarity, the captured vehicle 10 Identify the vehicle type. Specifically, the determination unit 95 determines the vehicle type having the highest vehicle type similarity as the vehicle type of the vehicle 10 captured by the imaging device 101. The vehicle type similarity is a weighted addition value of the similarity for each surface calculated by the equation (1).

車種類似度=αS1+βS2+γS3 ・・・(1)   Vehicle model similarity = αS1 + βS2 + γS3 (1)

(1)式において、S1は上面A´と上面の基準画像との類似度、S2は側面B´と側面の基準画像との類似度、S1は正面C´と正面の基準画像との類似度である。また、α、β、γは各面ごとの重み係数である。   In equation (1), S1 is the similarity between the upper surface A ′ and the upper reference image, S2 is the similarity between the side B ′ and the side reference image, and S1 is the similarity between the front C ′ and the front reference image. It is. Α, β, and γ are weighting factors for each surface.

重み係数が大きい面ほど、車種の判別における当該面の類似度の影響が大きくなる。例えば、上面A´、側面B´、正面C´と辞書DB962に記憶された車種「大型バス」の上面、側面、正面の基準画像との類似度がそれぞれ“15”、“20”、“10”である、と判別部95が求めたとする。また、上面A´、側面B´、正面C´と辞書DB962に記憶された車種「セミトレーラ」の上面、側面、正面の基準画像との類似度がそれぞれ“10”、“10”、“20”であり、同様に、車種「普通トラック」の上面、側面、正面の基準画像との類似度はそれぞれ“5”、“5”、“20”であるとする。   The greater the weighting factor, the greater the influence of the similarity of the surface on the vehicle type discrimination. For example, the similarity between the upper surface A ′, the side surface B ′, the front surface C ′ and the reference image of the upper surface, the side surface, and the front surface of the vehicle type “large bus” stored in the dictionary DB 962 is “15”, “20”, “10”, respectively. It is assumed that the determination unit 95 obtains “ Further, the similarities between the top surface A ′, the side surface B ′, the front surface C ′, and the reference image of the top surface, the side surface, and the front surface of the vehicle type “semi-trailer” stored in the dictionary DB 962 are “10”, “10”, and “20”, respectively. Similarly, it is assumed that the similarities with the reference images of the top, side, and front of the vehicle type “ordinary truck” are “5”, “5”, and “20”, respectively.

上面の重み係数αが“1”、側面の重み係数βが“2”、正面の重み係数γが“1”である場合、(1)式により算出される車種「大型バス」の車種類似度は“65”、車種「セミトレーラ」の車種類似度は“50”、車種「普通トラック」の車種類似度は“35”となる。この場合、車種類似度が最も大きい車種は「大型バス」なので、判別部95は、撮像された車両10の車種は「大型バス」と判別する。正面C´と照合した類似度は「セミトレーラ」や「普通トラック」の方が大きいが、側面の重み係数βが最大であるため、側面B´と照合した類似度が、他の面よりも車種判別の結果に強く影響して「大型バス」が選択されることとなる。
判別部95は、判別した車種を、通信部91に送出する。
When the top surface weighting factor α is “1”, the side surface weighting factor β is “2”, and the frontal weighting factor γ is “1”, the vehicle type similarity of the vehicle type “large bus” calculated by the equation (1) Is “65”, the vehicle type similarity of the vehicle type “semi-trailer” is “50”, and the vehicle type “normal truck” is “35”. In this case, since the vehicle type having the highest vehicle type similarity is “large bus”, the determination unit 95 determines that the vehicle type of the imaged vehicle 10 is “large bus”. The similarity compared to the front C ′ is larger in the “semi-trailer” and “ordinary truck”, but since the weight coefficient β on the side is the largest, the similarity compared to the side B ′ is higher than that on the other side. The “large bus” is selected with a strong influence on the determination result.
The determination unit 95 sends the determined vehicle type to the communication unit 91.

また、判別部95は、車両10の車種が「セミトレーラ」や「普通トラック」等の、積荷を積載する車種である場合に、さらに積荷の分類を行う構成を採用しても良い。
図11に示すように、辞書DB962には、車種ごとに、複数の種類の積荷の基準画像が記憶されている。例えば、車種「セミトレーラ」には、「積荷1」「積荷2」等の複数の積荷の種類に対応付けられた、積荷の上面の基準画像と、側面の基準画像がそれぞれ記憶されている。判別部95は、車両10の車種が「セミトレーラ」と判別した場合に、変換部93から取得した上面A´と、「セミトレーラ」の「積荷1」に対応付けられた上面の基準画像とを照合し、類似度を求める。また、判別部95は、側面B´と、「セミトレーラ」の「積荷1」に対応付けられた側面の基準画像とを照合し、類似度を求める。そして、判別部95は、上面と側面のそれぞれの類似度を重み付け加算し、重み付け加算値を算出する。この積荷の各面の基準画像との類似度の重み付け加算値を、積荷類似度とする。同様に判別部95は、「積荷2」以降の積荷の基準画像と照合した積荷類似度もそれぞれ算出し、積荷類似度が最大となる積荷の種類を、車両10の積荷と判別する。
判別部95は、判別した車両10の積荷の分類を、通信部91に送出する。
Further, the discriminating unit 95 may adopt a configuration for further classifying the load when the vehicle type of the vehicle 10 is a vehicle type on which a load is loaded such as a “semi-trailer” or a “normal truck”.
As shown in FIG. 11, the dictionary DB 962 stores a plurality of types of reference images for each type of vehicle. For example, in the vehicle type “semi-trailer”, a reference image of the upper surface of the load and a reference image of the side surface associated with a plurality of types of loads such as “load 1” and “load 2” are stored. When the determination unit 95 determines that the vehicle type of the vehicle 10 is “semi-trailer”, the determination unit 95 compares the upper surface A ′ acquired from the conversion unit 93 with the reference image of the upper surface associated with “load 1” of “semi-trailer”. And obtain the similarity. Further, the determination unit 95 collates the side surface B ′ with the reference image of the side surface associated with the “load 1” of the “semi-trailer”, and obtains the similarity. Then, the determination unit 95 weights and adds the similarities of the upper surface and the side surface to calculate a weighted addition value. The weighted addition value of the similarity with the reference image of each surface of the load is defined as the load similarity. Similarly, the determination unit 95 also calculates the load similarity compared with the reference image of the load after “Load 2”, and determines the type of the load having the maximum load similarity as the load of the vehicle 10.
The determination unit 95 sends the determined classification of the load of the vehicle 10 to the communication unit 91.

図11では上面A´と側面B´の両方を積荷の分類に使用しているが、いずれか一面のみを使用する構成を採用しても良い。すなわち、判別部95は、撮像した車両10の車種を判別し、さらに、検出部92が検出した車両10の上面A´または側面B´と、積荷の上面または側面の基準画像とを照合することにより、車両10の積荷の分類を行う。また、車両10の背面を撮像した場合は、背面の画像を用いて積荷の分類を行う構成を採用しても良い。   In FIG. 11, both the upper surface A ′ and the side surface B ′ are used for classification of the load, but a configuration using only one of the surfaces may be adopted. That is, the discriminating unit 95 discriminates the vehicle type of the imaged vehicle 10 and further collates the upper surface A ′ or side surface B ′ of the vehicle 10 detected by the detecting unit 92 with the reference image of the upper surface or side surface of the load. Thus, the load of the vehicle 10 is classified. Moreover, when imaging the back surface of the vehicle 10, you may employ | adopt the structure which classifies a load using the image of a back surface.

また、図11に示す辞書DB962では、車両10の車種の判別のための上面および側面の基準画像とは別に、積荷の上面および側面の基準画像を記憶しているが、これに限らず、各車種ごとの側面および上面の画像を複数種類記憶する構成を採用しても良い。当該構成を採用する場合、例えば、判別部95が車種の判別をした後に、後述の調整部94が上面および側面の重み係数を大きくし、判別部95が判別を再度行うことで積荷の分類をする構成を採用しても良い。
また、積荷の基準画像は、辞書DB962とは別のデータベースに保存される構成を採用しても良い。
In addition, the dictionary DB 962 shown in FIG. 11 stores the upper and side reference images of the load separately from the upper and side reference images for determining the vehicle type of the vehicle 10. You may employ | adopt the structure which memorize | stores multiple types of the image of the side surface and upper surface for every vehicle model. In the case of adopting the configuration, for example, after the determination unit 95 determines the vehicle type, the adjustment unit 94 described later increases the weight coefficient of the upper surface and the side surface, and the determination unit 95 performs the determination again to classify the load. You may employ | adopt the structure to do.
In addition, a configuration may be adopted in which the reference image of the cargo is stored in a database different from the dictionary DB 962.

また車種が「セミトレーラ」や「普通トラック」等の、運転席のある前方部分と、積荷を積載する後方部分からなる場合には、前方部分と後方部分とを分離した上で、判別部95は、後方部分の上面A´、側面B´を基準画像と照合して積荷の分類を行うものとしても良い。   In addition, when the vehicle type is composed of a front part with a driver's seat such as a “semi-trailer” or “ordinary truck” and a rear part on which the load is loaded, the discrimination part 95 is separated from the front part and the rear part. The cargo may be classified by collating the upper surface A ′ and the side surface B ′ of the rear portion with the reference image.

積荷の種類を分類することで、車両10の重量を推定することができる。また、積荷の種類を判別することで、車両10の車種をさらに細分化して判別することができる。例えば、判別部95は、トレーラの一種である、長尺物(ポール)を輸送する車種「ポールトレーラ」を特定することが可能となる。さらに、荷崩れしやすい積荷の種類を予め特定していれば、判別部95は、そのような積荷に分類される積荷を積載した車両10を特定することができる。   By classifying the type of cargo, the weight of the vehicle 10 can be estimated. Further, by determining the type of cargo, the vehicle type of the vehicle 10 can be further divided and determined. For example, the determination unit 95 can identify a vehicle type “pole trailer” that transports a long object (pole), which is a kind of trailer. Furthermore, if the type of the load that is likely to collapse is specified in advance, the determination unit 95 can specify the vehicle 10 loaded with the load classified as such a load.

図2に戻り、調整部94は、重み係数α、β、γの値を調整する。
一例として、調整部94は、車種判別システム1の用途に応じて重み係数α、β、γの値を定める構成を採用しても良い。具体的には、車種判別システム1の用途が、バスを判別することであるとする。図11に示すように、バスの側面には矩形状の窓が並んでいる。バスの側面は、正面や上面よりも特徴が強く、他の車種とバスとを判別するためには側面の類似度が重要となる。この場合、調整部94は、側面に対する重み係数βを、他の面の重み係数αおよびγに比べて大きくする。
Returning to FIG. 2, the adjustment unit 94 adjusts the values of the weighting coefficients α, β, and γ.
As an example, the adjustment unit 94 may adopt a configuration that determines the values of the weighting factors α, β, and γ according to the use of the vehicle type identification system 1. Specifically, it is assumed that the use of the vehicle type discrimination system 1 is to discriminate a bus. As shown in FIG. 11, rectangular windows are arranged on the side of the bus. The side surface of the bus is more characteristic than the front and top surfaces, and the similarity of the side surface is important for discriminating between other vehicle types and the bus. In this case, the adjustment unit 94 increases the weighting coefficient β for the side surface as compared with the weighting factors α and γ of the other surfaces.

また、車種判別システム1の用途が、車両10の積荷を分類することであれば、調整部94は、上面に対する重み係数αおよび側面に対する重み係数βを、正面に対するγに比べて大きくしても良い。特に、荷台の上面が開いているトラックの場合には、上面から見た画像が積荷の分類において重要であるため、調整部94は、上面に対する重み係数αを他の面と比較して大きくしても良い。   If the use of the vehicle type identification system 1 is to classify the load of the vehicle 10, the adjustment unit 94 may increase the weighting coefficient α for the upper surface and the weighting coefficient β for the side surface as compared with γ for the front surface. good. In particular, in the case of a truck with an open upper surface of the loading platform, the image viewed from the upper surface is important in the classification of the load. Therefore, the adjustment unit 94 increases the weight coefficient α for the upper surface as compared with other surfaces. May be.

他の一例として、調整部94は、車両10の外接直方体800から切り出した複数の面のうち、変換部93による形状の変換の度合が小さい面である程、大きい値になるよう重み係数α、β、γを定める構成を採用しても良い。   As another example, the adjustment unit 94 has a weighting coefficient α, a value that increases as the degree of shape conversion by the conversion unit 93 is smaller among a plurality of surfaces cut out from the circumscribed rectangular parallelepiped 800 of the vehicle 10. You may employ | adopt the structure which determines (beta) and (gamma).

図9に示した変換部93による変換の例では、正面Cから正面C´への形状変換の度合が最も小さく、次に、上面Aから上面A´への形状変換の度合が小さい。また、側面Bから側面B´への形状変換は、他の面と比較して度合が大きい。   In the example of conversion by the conversion unit 93 shown in FIG. 9, the degree of shape conversion from the front C to the front C ′ is the smallest, and then the degree of shape conversion from the upper surface A to the upper surface A ′ is small. Moreover, the degree of the shape conversion from the side surface B to the side surface B ′ is larger than that of other surfaces.

変形した面の形状を矩形にする際の形状変換の度合が大きいほど、画像処理による補正量が多くなるため、当該面における類似度の信頼性が低下する。このため、図9に示した例では、正面C´と基準画像とを照合した類似度は、上面A´や側面B´の類似度よりも信頼性が高い。この場合、調整部94は、正面に対する重み係数γが最も大きく、その次に、上面に対する重み係数αが大きくなるように、重み係数の値を調整する。   As the degree of shape conversion when the shape of the deformed surface is changed to a rectangle is larger, the amount of correction by image processing increases, so the reliability of similarity on the surface decreases. For this reason, in the example shown in FIG. 9, the similarity obtained by comparing the front C ′ with the reference image is more reliable than the similarity of the upper surface A ′ and the side surface B ′. In this case, the adjustment unit 94 adjusts the value of the weighting factor so that the weighting factor γ with respect to the front surface is the largest and the weighting factor α with respect to the upper surface is then increased.

既存の撮像装置101を使用して車両10を撮像する場合、撮像装置101の設置位置や設置角度によって、撮像画像の中で車両10が斜めに傾いたり、歪んだりしている場合がある。このような場合に、各面の形状の変換の度合に応じて重み係数α、β、γの値を調整することにより、撮像装置101の設置位置等の撮像条件の違いによる車種の判別への影響を低減し、様々な撮像条件に対応可能となる。   When imaging the vehicle 10 using the existing imaging apparatus 101, the vehicle 10 may be inclined or distorted in the captured image depending on the installation position and installation angle of the imaging apparatus 101. In such a case, by adjusting the values of the weighting factors α, β, and γ according to the degree of conversion of the shape of each surface, it is possible to discriminate the vehicle type due to the difference in imaging conditions such as the installation position of the imaging device 101. The influence can be reduced and various imaging conditions can be handled.

重み係数は、車種判別処理ごとに調整部94が新規に算出するものとしても良いし、記憶部96が重み係数の初期値を記憶し、調整部94が当該初期値を変更する構成を採用しても良い。   The weighting factor may be newly calculated by the adjustment unit 94 for each vehicle type determination process, or the storage unit 96 stores the initial value of the weighting factor, and the adjustment unit 94 changes the initial value. May be.

また、重み係数は予め記憶部96に記憶される固定値とする構成を採用しても良い。例えば、車種判別システム1の用途が予め決まっている場合は、定められた用途に応じた重み係数を、記憶部96が予め記憶するものとする。また、撮像装置101の設置位置や設置角度によって、撮像画像における車両10の各面の形状の変形の度合が予め推定される場合は、各面に対する変換部93による形状の変換の度合が推定できる。このような場合は、推定された形状の変換の度合が小さい面である程大きい値となるように予め設定された重み係数を、記憶部96が記憶する構成を採用しても良い。重み係数を固定値とする構成を採用する場合、車種判別装置103は調整部94を備えなくとも良い。   The weighting factor may be a fixed value stored in advance in the storage unit 96. For example, when the use of the vehicle type identification system 1 is determined in advance, the storage unit 96 stores in advance a weighting factor corresponding to the determined use. Further, when the degree of deformation of the shape of each surface of the vehicle 10 in the captured image is estimated in advance by the installation position and the installation angle of the imaging device 101, the degree of shape conversion by the conversion unit 93 for each surface can be estimated. . In such a case, a configuration may be employed in which the storage unit 96 stores a weighting factor that is set in advance such that the smaller the degree of conversion of the estimated shape is, the larger the value is. When adopting a configuration in which the weighting factor is a fixed value, the vehicle type identification device 103 does not need to include the adjustment unit 94.

次に、以上のように構成された本実施形態の車種判別処理について説明する。
図12は、本実施形態にかかる車種判別処理の流れの一例を示すフローチャートである。まず、入力部90は、撮像装置101から車両10を撮像した撮像画像を取得する(S1)。入力部90は、取得した撮像画像を検出部92へ送出する。
Next, the vehicle type discrimination process according to this embodiment configured as described above will be described.
FIG. 12 is a flowchart illustrating an example of the flow of the vehicle type determination process according to the present embodiment. First, the input unit 90 acquires a captured image obtained by capturing the vehicle 10 from the imaging device 101 (S1). The input unit 90 sends the acquired captured image to the detection unit 92.

次に、検出部92は、撮像画像から車両10の特徴点を抽出する(S2)。検出部92は、抽出した特徴点から車両10の外郭305を検出する。また、検出部92は、撮像画像上に、車両10の進行方向に対して垂直に仮想平面R1〜R4を設定する。   Next, the detection unit 92 extracts feature points of the vehicle 10 from the captured image (S2). The detection unit 92 detects the outline 305 of the vehicle 10 from the extracted feature points. In addition, the detection unit 92 sets virtual planes R1 to R4 perpendicular to the traveling direction of the vehicle 10 on the captured image.

検出部92は、車両10の特徴点から検出した外郭305と、仮想平面R1〜R4の位置関係を検出する。検出部92は、車両10の先頭部分に接する仮想平面R2の各辺を平行移動して、撮像画像の中の車両10の外郭305と接する位置座標を求めることにより、車両10の外郭305の正面部分をより精度良く検出する。検出部92は、既知の仮想平面R2の底辺の長さと、検出した車両10の外郭305の正面部分の底辺の長さとを比較することで、撮像画像から車両10の車幅の実測値を検出する(S3)。検出部92は、検出した車幅を、判別部95に送出する。   The detection unit 92 detects the positional relationship between the outline 305 detected from the feature points of the vehicle 10 and the virtual planes R1 to R4. The detection unit 92 translates each side of the virtual plane R2 in contact with the head portion of the vehicle 10 and obtains position coordinates in contact with the outline 305 of the vehicle 10 in the captured image, whereby the front of the outline 305 of the vehicle 10 is obtained. Detect parts more accurately. The detection unit 92 detects the actual measured value of the vehicle width of the vehicle 10 from the captured image by comparing the length of the bottom of the known virtual plane R2 and the length of the bottom of the front portion of the outline 305 of the vehicle 10 detected. (S3). The detection unit 92 sends the detected vehicle width to the determination unit 95.

判別部95は、検出部92が検出した車両10の車幅を取得する。そして、判別部95は、記憶部96の車種区分DB961から車両10の車幅に対応付けられた車種区分を検索して、車両10の車種区分を判別する(S4)。   The determination unit 95 acquires the vehicle width of the vehicle 10 detected by the detection unit 92. Then, the determination unit 95 searches the vehicle type division associated with the vehicle width of the vehicle 10 from the vehicle type division DB 961 of the storage unit 96 to determine the vehicle type division of the vehicle 10 (S4).

車両10の車幅から判別した車種区分が「大型車」および「特大車」ではない場合(S5“No”)、すなわち、車種区分が「軽自動車」、「普通車」、「中型車」のいずれかであると判別した場合、判別部95は、判別した車種区分をセンターに送信する(S6)。この場合は、車種判別処理は終了する。   When the vehicle type classification determined from the vehicle width of the vehicle 10 is not “Large Car” or “Extra Large Car” (S5 “No”), that is, the vehicle type classification is “light vehicle”, “normal vehicle”, “medium-sized vehicle” If it is determined that the vehicle type is either, the determination unit 95 transmits the determined vehicle type classification to the center (S6). In this case, the vehicle type determination process ends.

一方、車両10の車幅から判別した車種区分が「大型車」または「特大車」である場合(S5“Yes”)、判別部95は、当該判別結果を検出部92に送出する。   On the other hand, when the vehicle type classification determined from the vehicle width of the vehicle 10 is “large vehicle” or “extra-large vehicle” (S5 “Yes”), the determination unit 95 sends the determination result to the detection unit 92.

また、ここで、通信部91は、撮像装置101が撮像した車両10のETCカードに登録された車両10の車種区分をETC電波受信機102から受信して判別部95に送出しても良い。この場合、S5の処理において、判別部95は、ETCカードに登録された車両10の車種区分と、車両10の車幅から判別した車種区分とを照合し、少なくとも一方が「大型車」または「特大車」の場合に、判別部95は、当該判別結果を検出部92に送出しても良い。   Here, the communication unit 91 may receive the vehicle type classification of the vehicle 10 registered in the ETC card of the vehicle 10 captured by the imaging device 101 from the ETC radio wave receiver 102 and send it to the determination unit 95. In this case, in the process of S5, the determination unit 95 collates the vehicle type classification of the vehicle 10 registered in the ETC card with the vehicle type classification determined from the vehicle width of the vehicle 10, and at least one of them is “large vehicle” or “ In the case of an “oversized vehicle”, the determination unit 95 may send the determination result to the detection unit 92.

本実施形態においては、特定の車種区分に範囲を絞って具体的な車種の判別を行うことで、検出部92による外接直方体800の検出、変換部93による変換、判別部95による車種判別の負荷を低減するとともに、照合に用いる基準画像の作成負荷を軽減する。   In the present embodiment, the specific vehicle type is determined by narrowing the range to a specific vehicle type classification, so that the detection of the circumscribed cuboid 800 by the detection unit 92, the conversion by the conversion unit 93, and the vehicle type determination load by the determination unit 95 And reducing the load of creating a reference image used for collation.

車種区分が「大型車」または「特大車」である場合(S5“Yes”)、検出部92は、仮想平面R1〜R4を構成する各辺を平行移動して、撮像画像の中の車両10の外郭と接する位置座標を求めることにより、撮像画像から車両10の外接直方体800を検出する(S7)。検出部92は、外接直方体800から上面A、側面B、正面Cを切り出して、変換部93に送出する。   When the vehicle type classification is “large vehicle” or “extra large vehicle” (S5 “Yes”), the detection unit 92 translates each side constituting the virtual planes R1 to R4, and the vehicle 10 in the captured image. The circumscribed cuboid 800 of the vehicle 10 is detected from the captured image by obtaining the position coordinates in contact with the outer contour (S7). The detection unit 92 cuts out the upper surface A, the side surface B, and the front surface C from the circumscribed cuboid 800 and sends them to the conversion unit 93.

変換部93は、車両10の外接直方体800の上面A、側面B、正面Cを、それぞれ矩形状の上面A´、側面B´、正面C´に変換する(S8)。変換部93は、各面の形状の変換の度合を示す値を、調整部94に送出する。   The conversion unit 93 converts the upper surface A, the side surface B, and the front surface C of the circumscribed cuboid 800 of the vehicle 10 into a rectangular upper surface A ′, side surface B ′, and front surface C ′, respectively (S8). The conversion unit 93 sends a value indicating the degree of conversion of the shape of each surface to the adjustment unit 94.

調整部94は、変換部93から取得した、形状の変換の度合を示す値が小さい面に対する重み係数が大きくなるよう、重み係数の値を調整する(S9)。また、調整部94は、車種判別システム1の用途に応じて重み係数を変更しても良い。調整部94は、調整した重み係数を、判別部95に送出する。   The adjustment unit 94 adjusts the value of the weighting factor so that the weighting factor for the surface having a small value indicating the degree of shape conversion acquired from the conversion unit 93 is increased (S9). The adjustment unit 94 may change the weighting coefficient according to the use of the vehicle type identification system 1. The adjustment unit 94 sends the adjusted weight coefficient to the determination unit 95.

判別部95は、変換部93が変換した上面A´、側面B´、正面C´の画像を、辞書DB962に記憶された車種ごとの各面の基準画像と照合し、各面ごとの類似度を算出する(S10)。   The discriminating unit 95 collates the images of the upper surface A ′, the side surface B ′, and the front surface C ′ converted by the converting unit 93 with the reference image of each surface for each vehicle type stored in the dictionary DB 962, and the similarity for each surface Is calculated (S10).

判別部95は、算出した各面ごとの類似度を、(1)式により重み付け加算して車種類似度を算出する(S11)。変換部93が変換した上面A´、側面B´、正面C´の画像を、辞書DB962に記憶された全ての車種の各面の基準画像と照合するまで(S12“No”)、判別部95は、S10〜S12の処理を繰り返す。   The discriminating unit 95 calculates the vehicle type similarity by weighting and adding the calculated similarity for each surface according to the equation (1) (S11). Until the images of the upper surface A ′, the side surface B ′, and the front surface C ′ converted by the conversion unit 93 are collated with the reference images of all surfaces of all vehicle types stored in the dictionary DB 962 (S12 “No”), the determination unit 95 Repeats the processing of S10 to S12.

変換部93が変換した上面A´、側面B´、正面C´の画像を、辞書DB962に記憶された全ての車種の各面の基準画像と照合した場合(S12“Yes”)、判別部95は、車種類似度が最も大きい車種を、撮像装置101に撮像された車両10の車種として判別する(S13)。   When the images of the upper surface A ′, the side surface B ′, and the front surface C ′ converted by the conversion unit 93 are collated with the reference images of each surface of all vehicle types stored in the dictionary DB 962 (S12 “Yes”), the determination unit 95 Determines the vehicle type having the highest vehicle type similarity as the vehicle type of the vehicle 10 imaged by the imaging device 101 (S13).

判別部95は、判別した車種区分および車種をセンターに送信する(S14)。以上でこのフローチャートの処理は終了する。   The determination unit 95 transmits the determined vehicle type classification and vehicle type to the center (S14). This is the end of the processing of this flowchart.

このように、本実施形態の車種判別装置103によれば、検出部92が撮像画像から車両10の複数の面を検出することにより、一方向から撮像した撮像画像でも、複数の面を基準画像と照合可能となる。また、車両10の複数の面を車種ごとの画像と照合した結果を重み係数によって重み付け加算して車種類似度を求めることにより、複数の面の照合結果を統合して照合の精度を高めることができるため、撮像画像の解像度が低い場合でも車種区分の中の具体的な車種を高精度に判別することができる。   As described above, according to the vehicle type identification device 103 of the present embodiment, the detection unit 92 detects a plurality of surfaces of the vehicle 10 from the captured image, so that even a captured image captured from one direction is used as a reference image. Can be verified. Further, the result of collating a plurality of surfaces of the vehicle 10 with the image for each vehicle type is weighted and added by a weighting coefficient to obtain the vehicle type similarity, thereby integrating the collation results of the plurality of surfaces and improving the accuracy of the collation. Therefore, even when the resolution of the captured image is low, a specific vehicle type in the vehicle type classification can be determined with high accuracy.

従来の車種判別では、車両10を定められた特定の方向から撮像した撮像画像を用いて、基準画像との照合を行っていた。例えば、車両の正面等の特定の一面の画像を用いて車種を判別する技術では、通行する車両を特定の角度から撮像する必要があった。このような撮像画像を撮像するためには、定められた特定の位置や角度で撮像装置101を設置する必要があるため、車種判別を目的とせずに設置された既存のCCTVカメラ等を活用して車種を判別することは困難であった。多様な撮像角度や解像度に対応した基準画像を予め記憶して、撮像画像と照合する技術もあるが、各撮像装置101の設置条件等に個別に対応した基準画像を作成する負荷が高く、汎用的な判別手法として用いることは困難であった。   In conventional vehicle type determination, a reference image is collated using a captured image obtained by capturing the vehicle 10 from a specific direction. For example, in the technique of discriminating the vehicle type using an image of a specific surface such as the front of the vehicle, it is necessary to capture the vehicle traveling from a specific angle. In order to capture such a captured image, it is necessary to install the imaging device 101 at a predetermined specific position and angle. Therefore, an existing CCTV camera or the like that is installed without the purpose of vehicle type discrimination is used. It was difficult to discriminate the vehicle type. Although there is a technique for storing reference images corresponding to various imaging angles and resolutions in advance and collating them with the captured images, the load for creating the reference images individually corresponding to the installation conditions of each imaging device 101 is high, and general-purpose It has been difficult to use as an effective discrimination method.

これに対して、本実施形態の車種判別装置103によれば、検出部92が撮像画像から車両10の複数の面を検出することにより、既存の撮像装置101の設置位置や設置角度によって車両10の撮像角度が異なっても、撮像画像を基準画像と照合することができる。また、撮像画像の解像度が低い場合であっても複数の面を基準画像とそれぞれ照合することにより、車種判別の精度を向上させることができる。   On the other hand, according to the vehicle type identification device 103 of the present embodiment, the detection unit 92 detects a plurality of surfaces of the vehicle 10 from the captured image, so that the vehicle 10 depends on the installation position and the installation angle of the existing imaging device 101. Even if the imaging angles of are different, the captured image can be collated with the reference image. Even if the resolution of the captured image is low, the accuracy of vehicle type discrimination can be improved by collating a plurality of surfaces with the reference image.

さらに、従来は、複数の撮像装置101やレーザスキャナ等を用いて車両10の複数の面を撮像していたが、本実施形態の車種判別装置103によれば、1台の撮像装置101が撮像した撮像画像から車両10の複数の面を検出することができるため、既存のCCTVカメラ等を活用することが容易となる。   Further, conventionally, a plurality of surfaces of the vehicle 10 are imaged using a plurality of imaging devices 101, laser scanners, and the like. However, according to the vehicle type identification device 103 of this embodiment, one imaging device 101 captures images. Since a plurality of surfaces of the vehicle 10 can be detected from the captured image, it is easy to utilize an existing CCTV camera or the like.

本実施形態の車種判別装置103によれば、このように既存の設備を活用して車両10の具体的な車種を特定することにより、種々のサービスを提供することができる。   According to the vehicle type identification device 103 of the present embodiment, various services can be provided by specifying a specific vehicle type of the vehicle 10 by utilizing the existing equipment in this way.

車種判別装置103が車種を特定することにより提供可能となる種々のサービスの一例として、車両10の乗車人数の推定によるサービスの提供がある。
図13は、本実施形態にかかる車種判別装置103の効果の一例を説明する図である。図13に示す高速道路のサービスエリア1002aの駐車場にはトラックが2台駐車している。また、サービスエリア1002bの駐車場にはバスが2台駐車している。サービスエリア1002a、1002bに駐車している車両10は同一の車種区分に分類されるものとする。
As an example of various services that can be provided by the vehicle type identification device 103 specifying the vehicle type, there is a service provided by estimating the number of passengers in the vehicle 10.
FIG. 13 is a diagram illustrating an example of the effect of the vehicle type identification device 103 according to the present embodiment. Two trucks are parked in the parking lot of the highway service area 1002a shown in FIG. In addition, two buses are parked in the parking area of the service area 1002b. The vehicles 10 parked in the service areas 1002a and 1002b are classified into the same vehicle type classification.

しかしながら、車種区分が同じであっても、トラックとバスでは推定される乗車人数の期待値は大きく異なる。従来の、ETCカードに登録された車種区分による判別では、車両10の台数を車種区分ごとに計数することはできたが、車種の情報を得られないため、乗車人数を推定することは困難であった。   However, even if the vehicle type classification is the same, the expected number of passengers estimated for trucks and buses differs greatly. In the conventional discrimination based on the vehicle type registered in the ETC card, the number of vehicles 10 can be counted for each vehicle type, but it is difficult to estimate the number of passengers because the vehicle type information cannot be obtained. there were.

そこで、高速道路の入り口や、サービスエリア1002a、1002bの出入り口に設置されたCCTVカメラ等の撮像装置101が撮像した撮像画像を、本実施形態の車種判別装置103に入力することにより、車両10の車種を判別することができる。車両10の台数と、車種の判別結果をセンター1001で集計することにより、サービスエリア1002a、1002bに対して、利用者人数の推定値を提供するというサービスを行うことができる。   Therefore, by inputting the captured image captured by the imaging device 101 such as a CCTV camera installed at the entrance of the expressway or at the entrance / exit of the service areas 1002a and 1002b to the vehicle type discrimination device 103 of the present embodiment, The vehicle type can be determined. By counting the number of vehicles 10 and the vehicle type discrimination results at the center 1001, a service of providing an estimated value of the number of users to the service areas 1002a and 1002b can be performed.

特に、観光バス等の大型バスを判別することにより、サービスエリア1002a、1002bを利用する利用者の数をより正確に推定することができる。これにより、サービスエリア1002a、1002bは混雑度に応じた人員配置等の対応をすることが可能となる。また、各サービスエリア1002a、1002bにおける利用者の人数を推定することにより、車両10の運転手に対して、利用者の少ないサービスエリア1002aへ誘導するサービスを提供することができる。このようにして、利用者の混雑度を複数のサービスエリア1002a、1002bやパーキングエリアで平均化するための、情報提供サービスも可能となる。   In particular, the number of users using the service areas 1002a and 1002b can be estimated more accurately by determining a large bus such as a sightseeing bus. As a result, the service areas 1002a and 1002b can cope with personnel assignment according to the degree of congestion. Further, by estimating the number of users in each of the service areas 1002a and 1002b, it is possible to provide a service for guiding the driver of the vehicle 10 to the service area 1002a with fewer users. In this way, an information providing service for averaging the degree of congestion of users in a plurality of service areas 1002a, 1002b and parking areas is also possible.

また、図14は、本実施形態にかかる車種判別装置103の効果の他の一例を説明する図である。一般にセミトレーラは重量が重いために道路や橋梁等の道路インフラに対する負荷が高いが、従来は車種の判別が困難であるために、道路に対する重量負荷を正確に推定することが困難であった。   FIG. 14 is a diagram illustrating another example of the effect of the vehicle type identification device 103 according to the present embodiment. In general, semi-trailers are heavy and have a high load on road infrastructure such as roads and bridges. Conventionally, however, it is difficult to accurately determine the weight load on a road because it is difficult to distinguish the type of vehicle.

これに対して、本実施形態にかかる車種判別装置103によれば、図14に示すように、道路に設置された既存の撮像装置101が撮像した撮像画像から、通行する車両10の車種を判別し、その結果をセンター1001に送信することが可能となる。このため、車種を判別した結果をセンター1001のコンピュータで集計して、一定区間内を通過したセミトレーラの台数や通行の頻度を、道路インフラの劣化の進行度合を推定するための参考値として道路管理者等に提供することができる。   On the other hand, according to the vehicle type identification device 103 according to the present embodiment, as shown in FIG. 14, the vehicle type of the vehicle 10 passing through is identified from the captured image captured by the existing imaging device 101 installed on the road. Then, the result can be transmitted to the center 1001. For this reason, the results of discriminating vehicle types are aggregated by the computer of the center 1001, and the number of semi-trailers that have passed through a certain section and the frequency of traffic are used as reference values for estimating the degree of deterioration of road infrastructure. Can be provided.

また、渋滞予測等のための交通流調査として、本実施形態の車種判別装置103が判別した車種判別結果を使用しても良い。
上述の各種のサービスは一例であり、本実施形態の車種判別装置103を適用することで提供可能となるサービスは、これらに限らない。
Further, as a traffic flow survey for traffic jam prediction or the like, the vehicle type discrimination result determined by the vehicle type discrimination device 103 of the present embodiment may be used.
The various services described above are examples, and the services that can be provided by applying the vehicle type identification device 103 of the present embodiment are not limited to these.

このように、本実施形態の車種判別装置103によれば、既に設置された低解像度の撮像装置101を活用して具体的な車種を高精度に判別することにより、新たな撮像装置101を設置することなく、車両10の乗車人数や道路に対する重量負荷の推定による各種のサービスの提供を可能にすることができる。   As described above, according to the vehicle type identification device 103 of the present embodiment, a new imaging device 101 is installed by using the low-resolution imaging device 101 that has already been installed to determine a specific vehicle type with high accuracy. Therefore, it is possible to provide various services by estimating the number of passengers of the vehicle 10 and the weight load on the road.

また、本実施形態の車種判別装置103によれば、撮像画像から車両10の外接直方体800を検出し、検出した外接直方体800の複数の面を切り出すことにより、車両10の複数の面を検出するため、解像度の低い撮像画像からでも、車両10の各面を精度良く検出して基準画像と照合することができる。   Further, according to the vehicle type identification device 103 of the present embodiment, a circumscribed cuboid 800 of the vehicle 10 is detected from the captured image, and a plurality of surfaces of the detected circumscribed cuboid 800 are cut out to detect a plurality of surfaces of the vehicle 10. Therefore, each surface of the vehicle 10 can be accurately detected and collated with the reference image even from a captured image with low resolution.

さらに、本実施形態の車種判別装置103によれば、撮像画像から検出した車両10の複数の面の形状を矩形状に変換するため、撮像装置101の設置条件等により撮像画像中の車両10の画像の形状が変形していたとしても、基準画像と照合することができる。   Furthermore, according to the vehicle type identification device 103 of the present embodiment, the shape of the plurality of surfaces of the vehicle 10 detected from the captured image is converted into a rectangular shape. Even if the shape of the image is deformed, it can be collated with the reference image.

また、本実施形態の車種判別装置103において、重み係数を、車両10の複数の面のうち、変換部93による形状の変換の度合が小さい面である程大きい値にした場合、形状変換による画像の変化がより少ない面と基準画像との類似度を優先して、車種の判別をすることができる。変形した面の形状を矩形にする際の形状変換の度合が大きいほど、画像処理による補正量が多くなるため、当該面における類似度の信頼性が低下する。本実施形態の車種判別装置103では、重み係数によって各面の類似度が車種類似度に影響する度合を調整することができる。このため、車種判別装置103では、形状の変換の度合が少ない面の類似度の重み付け係数をより大きくすることにより、様々な角度で撮像された撮像画像からより精度良く車種を判別することができる。   Further, in the vehicle type identification device 103 according to the present embodiment, when the weighting coefficient is set to a larger value as the surface of the plurality of surfaces of the vehicle 10 with a smaller degree of shape conversion by the conversion unit 93, the image by shape conversion is used. The vehicle type can be discriminated by giving priority to the degree of similarity between the surface with less change in the reference image and the reference image. As the degree of shape conversion when the shape of the deformed surface is changed to a rectangle is larger, the amount of correction by image processing increases, so the reliability of similarity on the surface decreases. In the vehicle type identification device 103 of the present embodiment, the degree to which the similarity of each surface affects the vehicle type similarity can be adjusted by a weighting coefficient. For this reason, the vehicle type discriminating apparatus 103 can discriminate the vehicle type more accurately from the captured images taken at various angles by increasing the weighting coefficient of the similarity degree of the surface with a low degree of shape conversion. .

また、バスとその他の車種との形状の差異が最も大きい面は、側面である。このため、本実施形態の車種判別装置103において、基準画像と照合する複数の面に、車両10の少なくとも側面B´を含み、複数の面のうち車両10の側面B´に対する重み係数が側面B´以外の面に比べて大きい場合、バスとその他の車種とを精度良く判別することができる。   Further, the side with the largest difference in shape between the bus and other vehicle types is the side. For this reason, in the vehicle type identification device 103 according to the present embodiment, the plurality of surfaces to be compared with the reference image include at least the side surface B ′ of the vehicle 10, and the weight coefficient for the side surface B ′ of the vehicle 10 among the plurality of surfaces is the side surface B. When it is larger than the surface other than ', the bus and other vehicle types can be distinguished with high accuracy.

また、本実施形態の車種判別装置103によれば、車両10が通行する道路上に、車両10の進行方向に対して垂直方向に設けられた仮想平面R1〜R4を設定し、仮想平面R1〜R4を構成する各辺を平行移動して、撮像画像の中の車両10の外郭と接する位置座標を求めることにより、外接直方体800を検出する。このため、本実施形態の車種判別装置103によれば、撮像画像の解像度が低く車両10の特徴点を精度良く抽出するのが困難な場合でも、撮像画像から車両10の外接直方体800を検出して、各面を切り出すことができる。また、仮想平面R1〜R4を設定することにより、各仮想平面R1〜R4の形状の変化から、撮像画像中の車両10の角度や向きを推定することができるため、撮像画像中の車両10の角度に関わらず、外接直方体800を検出することができる。   In addition, according to the vehicle type identification device 103 of the present embodiment, virtual planes R1 to R4 provided in a direction perpendicular to the traveling direction of the vehicle 10 are set on the road on which the vehicle 10 passes, and the virtual planes R1 to R1 are set. The circumscribed cuboid 800 is detected by translating each side constituting R4 and obtaining position coordinates in contact with the outline of the vehicle 10 in the captured image. Therefore, according to the vehicle type identification device 103 of the present embodiment, even when the resolution of the captured image is low and it is difficult to accurately extract the feature points of the vehicle 10, the circumscribed cuboid 800 of the vehicle 10 is detected from the captured image. Each face can be cut out. Further, by setting the virtual planes R1 to R4, the angle and direction of the vehicle 10 in the captured image can be estimated from the change in the shape of each virtual plane R1 to R4. The circumscribed cuboid 800 can be detected regardless of the angle.

また、本実施形態の車種判別装置103によれば、基準画像と照合する複数の面は、車両10の少なくとも正面、側面、上面の3面を含むことで、車種判別における一定以上の精度を確保する。本実施形態の車種判別装置103は、撮像画像から検出した車両10の正面、側面、上面のそれぞれと、面ごとの基準画像のそれぞれとを照合して求められる面ごとの類似度に重み係数による重み付け加算を行うことにより車種類似度を求め、車種類似度が最も大きい車種を、撮像された車両10の車種として判別することにより、照合の精度を高めることができる。このため、撮像画像の解像度が低い場合でも、車種区分の中の具体的な車種をより高精度に判別することができる。   Further, according to the vehicle type identification device 103 of the present embodiment, the plurality of surfaces to be collated with the reference image include at least three surfaces of the vehicle 10, the front surface, the side surface, and the upper surface, thereby ensuring a certain level of accuracy in vehicle type identification. To do. The vehicle type discriminating apparatus 103 according to the present embodiment uses a weighting factor to determine the similarity for each surface obtained by comparing each of the front, side, and top surfaces of the vehicle 10 detected from the captured image with each of the reference images for each surface. By performing weighted addition, the vehicle type similarity is obtained, and the vehicle type having the highest vehicle type similarity is discriminated as the vehicle type of the imaged vehicle 10, so that the accuracy of matching can be improved. For this reason, even when the resolution of the captured image is low, the specific vehicle type in the vehicle type classification can be determined with higher accuracy.

さらに、本実施形態の車種判別装置103によれば、検出した車両10の上面または側面と、基準画像とを照合することにより、車両10の積荷の分類を行うため、車両10の重量を推定するための情報を提供することが可能となる。このため、車種判別装置103が分類した積荷の情報をセンターで集計することにより、道路等への重量負荷を推定することが可能となる。また、積荷の種類を判別することで、車両10の車種をさらに細分化して判別することができる。さらに、荷崩れしやすい積荷の種類を予め特定していれば、そのような積荷に分類される積荷を積載した車両10を特定することができるため、車種判別装置103が分類した積荷の情報をセンターで集計することにより、荷崩れの恐れがある車両10の走行する区間や、このような車両10が多く走行する時間帯等を分析することができ、安全対策のための情報を提供することができる。   Furthermore, according to the vehicle type identification device 103 of the present embodiment, the weight of the vehicle 10 is estimated in order to classify the load of the vehicle 10 by collating the detected upper surface or side surface of the vehicle 10 with the reference image. Information can be provided. For this reason, it is possible to estimate the weight load on the road or the like by collecting the information on the cargo classified by the vehicle type discriminating apparatus 103 at the center. Further, by determining the type of cargo, the vehicle type of the vehicle 10 can be further divided and determined. Furthermore, if the type of the load that is likely to collapse is specified in advance, the vehicle 10 loaded with the load classified as such a load can be specified. Therefore, the information on the load classified by the vehicle type identification device 103 is obtained. By summing up at the center, it is possible to analyze the section of the vehicle 10 where there is a risk of cargo collapse, the time zone in which such a vehicle 10 travels a lot, and provide information for safety measures Can do.

なお、本実施形態では1つの撮像画像から車両10の複数の面を検出したが、複数の画像を使用する構成を採用しても良い。例えば、判別部95は、撮像装置101が連続して撮像した複数の撮像画像から検出された車両10の各面から、変換の度合が最も小さいものを選択して、基準画像との照合に使用する構成を採用しても良い。また、撮像装置101が撮像した撮像画像が動画である場合は、検出部92は、動画内の複数のフレームから、車両10の各面を検出しても良い。   In the present embodiment, a plurality of surfaces of the vehicle 10 are detected from one captured image, but a configuration using a plurality of images may be employed. For example, the determination unit 95 selects the one with the smallest degree of conversion from each surface of the vehicle 10 detected from a plurality of captured images continuously captured by the imaging device 101 and uses it for matching with the reference image. You may employ | adopt the structure to do. When the captured image captured by the imaging apparatus 101 is a moving image, the detection unit 92 may detect each surface of the vehicle 10 from a plurality of frames in the moving image.

例えば、図5A〜Dに示す連続して撮像された撮像画像501〜504において、車両10の正面および側面の変形の度合が最も小さいのは撮像画像503、上面の変形の度合が最も小さいのは撮像画像504であるとする。この場合、変換部93による正面および側面の形状の変換の度合が最も小さくなるのは撮像画像503、上面の形状の変換の度合が最も小さくなるのは撮像画像504となる。判別部95は、撮像画像503から切り出された正面C´および側面B´、撮像画像504から切り出された上面A´をそれぞれ基準画像と照合して求めた類似度を(1)式で重み付け加算し、車両の判別を行う構成を採用しても良い。   For example, in the continuously captured images 501 to 504 shown in FIGS. 5A to 5D, the degree of deformation of the front and side surfaces of the vehicle 10 is the smallest, and the degree of deformation of the upper surface is the smallest. It is assumed that the captured image 504. In this case, the degree of conversion of the front and side shapes by the conversion unit 93 is the smallest in the captured image 503, and the degree of conversion in the shape of the upper surface is the smallest in the captured image 504. The discriminating unit 95 weights and adds the similarities obtained by comparing the front C ′ and the side B ′ cut out from the captured image 503 and the top surface A ′ cut out from the captured image 504 with the reference image, respectively, using Equation (1). However, a configuration for discriminating the vehicle may be employed.

また、撮像装置101の撮像範囲から、車両10の正面、側面、上面を撮像するためのそれぞれの最適な位置を、各面の撮像位置として予め設定する構成を採用しても良い。具体的には、車両10の正面をより変形せずに撮像できる撮像位置、側面をより変形せずに撮像できる撮像位置、上面をより変形せずに撮像できる撮像位置を予め設定する。この構成を採用する場合、判別部95は、車両10の上面を最適に撮像した撮像画像から検出された車両10の上面A´、側面を最適に撮像した撮像画像から検出された車両10の側面B´、正面を最適に撮像した撮像画像から検出された車両10の正面C´をそれぞれ各面の基準画像と照合する。判別部95は、このように別々の撮像画像から取得した各面を基準画像とそれぞれ照合して求めた類似度を、(1)式で重み付け加算し、車両の判別を行う構成を採用しても良い。   Further, a configuration may be adopted in which the optimal positions for imaging the front, side, and top surfaces of the vehicle 10 are set in advance as the imaging positions of the respective surfaces from the imaging range of the imaging device 101. Specifically, an imaging position where an image can be captured without further deformation of the front surface of the vehicle 10, an imaging position where an image can be captured without further deformation of a side surface, and an imaging position where an image can be captured without further deformation of the upper surface are set in advance. When adopting this configuration, the determination unit 95 detects the upper surface A ′ of the vehicle 10 detected from the captured image that optimally captures the upper surface of the vehicle 10 and the side surface of the vehicle 10 detected from the captured image that optimally captures the side surface. B ′, the front C ′ of the vehicle 10 detected from the captured image obtained by optimally capturing the front is collated with the reference image of each surface. The discriminating unit 95 employs a configuration in which the similarity obtained by collating each surface acquired from different captured images with the reference image is weighted and added according to equation (1) to discriminate the vehicle. Also good.

(変形例)
上述の実施形態では、車両10の各面の変換の度合の大きさや、車種判別システム1の用途によって重み係数を調整したが、照度条件によって重み係数を調整する構成を採用しても良い。
(Modification)
In the above-described embodiment, the weighting coefficient is adjusted according to the degree of conversion of each surface of the vehicle 10 and the use of the vehicle type identification system 1, but a configuration in which the weighting coefficient is adjusted according to the illuminance condition may be adopted.

例えば、車種判別システム1は、撮像装置101の撮像範囲の照度を計測する不図示の照度センサをさらに備える構成を採用しても良い。   For example, the vehicle type identification system 1 may employ a configuration that further includes an illuminance sensor (not shown) that measures the illuminance of the imaging range of the imaging device 101.

撮像装置101がCCTVカメラである場合、道路の照度条件等の外乱による撮像画像の画質の劣化や解像度の低下等が想定される。照度条件による撮像画像の違いを、図面を用いて具体的に説明する。
図15Aは、本変形例にかかる正常時における撮像画像1501の一例を示す図である。図15Aに示すように、照度条件が適切な範囲内である場合は、上述の実施形態で説明したように、車両10の外接直方体800を検出し、上面A、側面B、正面Cを切り出すことができる。
When the image pickup apparatus 101 is a CCTV camera, it is assumed that the image quality of the picked-up image is deteriorated or the resolution is lowered due to a disturbance such as the illuminance condition of the road. Differences between captured images depending on illuminance conditions will be specifically described with reference to the drawings.
FIG. 15A is a diagram illustrating an example of a captured image 1501 in a normal state according to the present modification. As shown in FIG. 15A, when the illuminance condition is within an appropriate range, as described in the above embodiment, the circumscribed cuboid 800 of the vehicle 10 is detected, and the upper surface A, the side surface B, and the front surface C are cut out. Can do.

図15Bは、本変形例にかかる照度が低い場合における撮像画像1502の一例を示す図である。撮像範囲の道路等における照度が低い場合には、撮像画像1502から車両10の全景を精度良く検出することが困難な場合がある。図15Bに示す例では、撮像画像1502における車両10の正面および側面は比較的明瞭だが、車両10の上面は照度が低いため不明瞭である。このような場合、撮像画像1502において車両10の上部の外郭305を精度良く検出することが困難となる。このため、車両10の外接直方体800の上面Aの検出の精度が低下する。撮像装置101の周囲の照明装置の位置や撮像装置101の撮像角度等から、照度が低い場合に外郭305が不明瞭となる面は、予め推定することができる。   FIG. 15B is a diagram illustrating an example of a captured image 1502 when the illuminance according to this variation is low. When the illuminance on the road or the like in the imaging range is low, it may be difficult to accurately detect the entire view of the vehicle 10 from the captured image 1502. In the example shown in FIG. 15B, the front and side surfaces of the vehicle 10 in the captured image 1502 are relatively clear, but the top surface of the vehicle 10 is unclear because of low illuminance. In such a case, it is difficult to accurately detect the outline 305 at the top of the vehicle 10 in the captured image 1502. For this reason, the accuracy of detection of the upper surface A of the circumscribed rectangular parallelepiped 800 of the vehicle 10 is lowered. From the position of the illumination device around the imaging device 101, the imaging angle of the imaging device 101, and the like, a surface where the outline 305 becomes unclear when the illuminance is low can be estimated in advance.

本変形例における通信部91は、不図示の照度センサから撮像範囲の道路における照度の値を取得する。そして、調整部94は、通信部91が取得した照度が低い場合に、外郭305が不明瞭となる面に対する重み係数を、他の面と比較して小さくする。図15Bに示す例では、調整部94は、通信部91が取得した照度が低い場合に、上面Aに対する重み係数を、側面Bおよび正面Cと比較して小さくする。判別部95は、調整部94が調整した重み係数を使用して、(1)式により各面の類似度の重み付け加算をして求めた車種類似度が最も大きい車種を、車両10の車種として判別する。これにより、車種判別装置103は、照度によって撮像画像上の車両10の一部の面が不明瞭となった場合、車種判別における当該面の影響度を下げることができ、照度の低下による車種の判別の精度の低下を防ぐことができる。   The communication unit 91 in the present modification obtains the illuminance value on the road in the imaging range from an illuminance sensor (not shown). Then, when the illuminance acquired by the communication unit 91 is low, the adjustment unit 94 reduces the weighting coefficient for the surface where the outline 305 is unclear compared to other surfaces. In the example illustrated in FIG. 15B, the adjustment unit 94 decreases the weighting coefficient for the upper surface A compared to the side surface B and the front surface C when the illuminance acquired by the communication unit 91 is low. The discriminating unit 95 uses the weighting coefficient adjusted by the adjusting unit 94 as the vehicle type of the vehicle 10 as the vehicle type of the vehicle 10 with the highest vehicle type similarity obtained by weighted addition of the similarity of each surface according to equation (1). Determine. Thereby, the vehicle type discriminating apparatus 103 can reduce the influence degree of the surface in the vehicle type discrimination when a part of the surface of the vehicle 10 on the captured image becomes unclear due to the illuminance. It is possible to prevent a decrease in the accuracy of discrimination.

図15Cは、本変形例にかかる照度が非常に低い場合における撮像画像1503の一例を示す図である。夜間などの照度が非常に低い場合に、正常時の撮像画像1501と比較して大幅に画質が劣化することが想定される。例えば、図15Cに示す撮像画像1503のように、車両10の上面および側面に対する光源が不足して、車両10の外接直方体800において正面C以外の面の検出が困難な場合がある。このような場合は、調整部94は、正面Cに対する重み係数を大きくし、上面Aおよび側面Bに対する重み係数を小さくする。   FIG. 15C is a diagram illustrating an example of a captured image 1503 when the illuminance according to this modification is very low. When the illuminance is very low at night or the like, it is assumed that the image quality is greatly deteriorated as compared with the captured image 1501 at normal time. For example, as in a captured image 1503 illustrated in FIG. 15C, light sources for the upper surface and the side surface of the vehicle 10 may be insufficient, and it may be difficult to detect a surface other than the front surface C in the circumscribed cuboid 800 of the vehicle 10. In such a case, the adjustment unit 94 increases the weighting coefficient for the front surface C and decreases the weighting coefficient for the upper surface A and the side surface B.

また、照度が低い場合に照合に使用する基準画像を、正常時の基準画像とは別に辞書DB962に予め記憶する構成を採用しても良い。
図16は、本変形例にかかる解像度に応じた複数の基準画像と撮像画像との照合の一例を示す図である。図16に示すように、各面に対して複数の基準画像を辞書DB962に予め記憶し、照度に応じて適切な基準画像との照合を行う構成を採用しても良い。
Further, a configuration may be adopted in which a reference image used for collation when illuminance is low is stored in advance in the dictionary DB 962 separately from the normal reference image.
FIG. 16 is a diagram illustrating an example of collation between a plurality of reference images and captured images according to the resolution according to the present modification. As shown in FIG. 16, a configuration may be adopted in which a plurality of reference images are stored in advance in the dictionary DB 962 for each surface, and collation with an appropriate reference image is performed according to illuminance.

このように、本変形例の車種判別装置103によれば、照度条件によって重み係数を調整することにより、撮像対象の道路等の照度の変化による車種の判別の精度の低下を防ぐことができる。このため、本変形例の車種判別装置103によれば、照度条件が変化する場合でも、車種判別の精度を安定して確保することができる。   As described above, according to the vehicle type identification device 103 of the present modified example, by adjusting the weighting factor according to the illuminance condition, it is possible to prevent a decrease in the accuracy of the vehicle type identification due to a change in illuminance on the imaging target road or the like. For this reason, according to the vehicle type identification device 103 of the present modification, the accuracy of the vehicle type identification can be stably ensured even when the illuminance condition changes.

なお、本変形例では、不図示の照度センサによって照度を計測したが、時間帯によって照度を推定する構成を採用しても良い。例えば、昼間の時間帯は照度が高く、夜間の時間帯は照度が低いものとして照度条件を設定しても良い。また、撮像装置101がCCTVカメラである場合に、夜間は白黒の撮像画像を撮像するナイトモードになる場合があるが、このような白黒画像をカラー化して、基準画像との照合を精度良く行う構成を採用しても良い。   In this modification, the illuminance is measured by an illuminance sensor (not shown), but a configuration in which the illuminance is estimated based on a time zone may be employed. For example, the illuminance condition may be set assuming that the illuminance is high during the daytime and the illuminance is low during the nighttime. Further, when the imaging apparatus 101 is a CCTV camera, there may be a night mode in which a black and white captured image is captured at night. Such a black and white image is colored and collated with a reference image with high accuracy. A configuration may be adopted.

また、不図示の照度センサによって照度を計測するのではなく、撮像した撮像画像の明度等から、照度を推定して重み係数を調整する構成を採用しても良い。また、照度に限らず、雨や霧等の外乱によって撮像画像の解像度が低下した場合にも、調整部94が重み係数の値を調整する構成を採用しても良い。   Further, instead of measuring the illuminance by an illuminance sensor (not shown), a configuration may be adopted in which the illuminance is estimated and the weighting coefficient is adjusted from the brightness of the captured image. Further, not only the illuminance but also a configuration in which the adjustment unit 94 adjusts the value of the weighting coefficient may be adopted when the resolution of the captured image is lowered due to disturbance such as rain or fog.

また、車種判別装置103は車両10の塗装を分類する機能をさらに備えても良い。また、車種判別装置103は判別した車両10の車種、塗装の分類、撮像画像等をセンターに送信する構成を採用しても良い。センターは、同一塗装の車両10をグループ化し、照明および天候条件の違いによる撮像装置101の撮像結果の相違を吸収する目的で撮像画像を収集し、車種や積み荷などの情報を分類して評価パターンとして保存することができる。また、センターが収集した情報を使用してさらに車種判別装置103の車種の判別の精度を向上させる構成を採用しても良い。   In addition, the vehicle type identification device 103 may further include a function of classifying the paint on the vehicle 10. Further, the vehicle type discriminating apparatus 103 may adopt a configuration in which the discriminated vehicle type of the vehicle 10, the classification of painting, the captured image, etc. are transmitted to the center. The center groups vehicles 10 with the same paint, collects captured images for the purpose of absorbing differences in imaging results of the imaging device 101 due to differences in lighting and weather conditions, classifies information such as vehicle type and cargo, and evaluates patterns Can be saved as Moreover, you may employ | adopt the structure which improves the precision of discrimination | determination of the vehicle type of the vehicle type discrimination | determination apparatus 103 further using the information which the center collected.

以上説明したとおり、上述の実施形態および変形例によれば、既存の設備を活用して車両10の具体的な車種を特定することにより、種々のサービスを提供可能にすることができる。   As described above, according to the above-described embodiment and modification, it is possible to provide various services by specifying a specific vehicle type of the vehicle 10 using existing facilities.

実施形態および変形例の車種判別装置103は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。   The vehicle type identification device 103 according to the embodiment and the modification includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, and a display such as a display device. The apparatus includes an input device such as a keyboard and a mouse, and has a hardware configuration using a normal computer.

実施形態および変形例の車種判別装置103で実行される車種判別プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The vehicle type identification program executed by the vehicle type identification device 103 of the embodiment and the modification is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk). And the like recorded on a computer-readable recording medium.

また、実施形態および変形例の車種判別装置103で実行される車種判別プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、実施形態および変形例の車種判別装置103で実行される車種判別プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、実施形態および変形例の車種判別プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
Further, the vehicle type identification program executed by the vehicle type identification device 103 according to the embodiment and the modification may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. good. In addition, the vehicle type identification program executed by the vehicle type identification device 103 according to the embodiment and the modification may be provided or distributed via a network such as the Internet.
Moreover, you may comprise so that the vehicle type discrimination | determination program of embodiment and a modification may be provided by previously incorporating in ROM etc.

実施形態および変形例の車種判別装置103で実行される車種判別プログラムは、上述した各部(入力部、通信部、検出部、変換部、調整部、判別部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から車種判別プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、入力部、通信部、検出部、変換部、調整部、判別部が主記憶装置上に生成されるようになっている。   The vehicle type identification program executed by the vehicle type identification device 103 according to the embodiment and the modified example has a module configuration including the above-described units (input unit, communication unit, detection unit, conversion unit, adjustment unit, determination unit). As actual hardware, a CPU (processor) reads out and executes a vehicle type identification program from the storage medium, so that the respective units are loaded on the main storage device, and an input unit, a communication unit, a detection unit, a conversion unit, and an adjustment unit The discriminating unit is generated on the main storage device.

本発明の実施形態および変形例を説明したが、これらの実施形態等は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態等は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although embodiments and modifications of the present invention have been described, these embodiments and the like are presented as examples and are not intended to limit the scope of the invention. These novel embodiments and the like can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 車種判別システム
10,10a〜10c 車両
90 入力部
91 通信部
92 検出部
93 変換部
94 調整部
95 判別部
96 記憶部
101 撮像装置
102 ETC電波受信機
103 車種判別装置
301〜304,501〜504,1501〜1503 撮像画像
305 外郭
800 外接直方体
961 車種区分データベース(車種区分DB)
962 辞書データベース(辞書DB)
1001 センター
1002a〜1002b サービスエリア
R1〜R4 仮想平面
1 vehicle type discrimination system 10, 10a to 10c vehicle 90 input unit 91 communication unit 92 detection unit 93 conversion unit 94 adjustment unit 95 discrimination unit 96 storage unit 101 imaging device 102 ETC radio wave receiver 103 vehicle type discrimination device 301 to 304, 501 to 504 , 1501 to 1503 Captured image 305 Outer frame 800 circumscribed cuboid 961 Vehicle type classification database (vehicle type classification DB)
962 Dictionary database (Dictionary DB)
1001 Center 1002a to 1002b Service area R1 to R4 Virtual plane

Claims (9)

車両の車種区分の中の具体的な車種と、前記車両の複数の面のそれぞれの判定基準となる面ごとの基準画像とを対応付けて記憶する記憶部と、
撮像装置が前記車両を撮像した撮像画像から前記複数の面を検出する検出部と、
前記検出部が検出した前記複数の面のそれぞれと前記面ごとの基準画像とを照合して前記面ごとに前記基準画像との類似度合を示す類似度を求め、前記面ごとの類似度に対して重み係数を乗じて重み付け加算を行うことにより前記車種ごとの類似度である車種類似度を求め、前記車種類似度に基づいて、前記撮像された前記車両の前記車種として判別する判別部と、
を備える車種判別装置。
A storage unit that associates and stores a specific vehicle type in the vehicle type classification of the vehicle and a reference image for each surface serving as a determination criterion for each of the plurality of surfaces of the vehicle;
A detection unit that detects the plurality of surfaces from a captured image obtained by imaging the vehicle by the imaging device;
Each of the plurality of surfaces detected by the detection unit is compared with a reference image for each surface to obtain a similarity indicating the similarity to the reference image for each surface, and the similarity for each surface is determined. Determining a vehicle type similarity that is a similarity for each vehicle type by multiplying the weight coefficient and performing weighted addition, and determining the vehicle type of the imaged vehicle based on the vehicle type similarity;
A vehicle type identification device.
前記検出部は、前記撮像画像から前記車両の外接直方体を検出し、検出した前記外接直方体の複数の面を切り出すことにより、前記車両の前記複数の面を検出する、
請求項1に記載の車種判別装置。
The detection unit detects a plurality of surfaces of the vehicle by detecting a circumscribed cuboid of the vehicle from the captured image and cutting out a plurality of surfaces of the detected circumscribed cuboid.
The vehicle type identification device according to claim 1.
前記検出部が前記撮像画像から検出した前記複数の面の形状を矩形状に変換する変換部、
を備える請求項2に記載の車種判別装置。
A conversion unit that converts the shape of the plurality of surfaces detected by the detection unit from the captured image into a rectangular shape;
The vehicle type identification device according to claim 2.
前記重み係数は、前記複数の面のうち、前記変換部による前記形状の変換の度合が小さい面である程、大きい値である、
請求項3に記載の車種判別装置。
The weighting factor is a larger value as the surface of the plurality of surfaces has a smaller degree of conversion of the shape by the conversion unit.
The vehicle type identification device according to claim 3.
前記複数の面は、前記車両の少なくとも側面を含み、
前記複数の面のうち車両の側面に対する前記重み係数が前記側面以外の面に比べて大きい、
請求項1〜3のいずれか1項に記載の車種判別装置。
The plurality of surfaces include at least a side surface of the vehicle,
The weight coefficient for the side surface of the vehicle among the plurality of surfaces is larger than the surface other than the side surface,
The vehicle type discrimination device according to any one of claims 1 to 3.
前記検出部は、前記車両が通行する道路上に、前記車両の進行方向に対して交差する方向に設けられた仮想平面を設定し、前記仮想平面を構成する各辺を平行移動して、前記撮像画像の中の前記車両の外郭と接する位置座標を求めることにより、前記外接直方体を検出する、
請求項2〜4のいずれか1項に記載の車種判別装置。
The detection unit sets a virtual plane provided in a direction intersecting the traveling direction of the vehicle on a road on which the vehicle passes, translates each side constituting the virtual plane, Detecting the circumscribed cuboid by obtaining position coordinates in contact with the outline of the vehicle in the captured image;
The vehicle type discrimination device according to any one of claims 2 to 4.
前記複数の面は、前記車両の少なくとも正面、側面、上面を含み、
前記判別部は、前記撮像画像から検出した前記車両の正面、側面、上面のそれぞれと、前記面ごとの基準画像のそれぞれとを照合して求められる前記面ごとの類似度に前記重み係数による重み付け加算を行うことにより前記車種類似度を求め、前記車種類似度が最も大きい前記車種を、前記撮像された前記車両の前記車種として判別する、
請求項1〜6のいずれか1項に記載の車種判別装置。
The plurality of surfaces include at least a front surface, a side surface, and an upper surface of the vehicle,
The discriminating unit weights the similarity for each surface obtained by comparing each of the front, side, and top surfaces of the vehicle detected from the captured image with each of the reference images for each surface by the weighting factor. Obtaining the vehicle type similarity by performing addition, and determining the vehicle type having the largest vehicle type similarity as the vehicle type of the imaged vehicle;
The vehicle type discrimination device according to any one of claims 1 to 6.
前記判別部は、さらに、前記検出部が検出した前記車両の上面または側面と、前記基準画像とを照合することにより、前記車両の積荷の分類を行う、
請求項1〜7のいずれか1項に記載の車種判別装置。
The determination unit further classifies the load of the vehicle by collating the upper surface or side surface of the vehicle detected by the detection unit with the reference image.
The vehicle type discrimination device according to any one of claims 1 to 7.
車種判別装置で実行される車種判別方法であって、
前記車種判別装置は、車両の車種区分の中の具体的な車種と、前記車両の複数の面の画像とを対応付けて記憶する記憶部を備え、
撮像装置が前記車両を撮像した撮像画像から前記複数の面を検出する検出ステップと、
検出した前記複数の面と前記画像とを照合し、照合結果である各面ごとの類似度に重み係数による重み付け加算を行うことにより前記車種ごとの類似度である車種類似度を求め、前記車種類似度に基づいて、前記撮像された前記車両の前記車種として判別する判別ステップと、
を含む車種判別方法。
A vehicle type identification method executed by a vehicle type identification device,
The vehicle type identification device includes a storage unit that stores a specific vehicle type in a vehicle type classification of a vehicle and images of a plurality of surfaces of the vehicle in association with each other,
A detection step in which the imaging device detects the plurality of surfaces from a captured image obtained by imaging the vehicle;
The plurality of detected surfaces and the image are collated, and a vehicle type similarity that is a similarity for each vehicle type is obtained by performing weighted addition using a weighting factor to the similarity for each surface that is a collation result, and the vehicle type A determination step of determining the vehicle type of the imaged vehicle based on the similarity;
Discriminating method including car.
JP2016194019A 2016-09-30 2016-09-30 Vehicle type identification device and vehicle type identification method Active JP6678552B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016194019A JP6678552B2 (en) 2016-09-30 2016-09-30 Vehicle type identification device and vehicle type identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194019A JP6678552B2 (en) 2016-09-30 2016-09-30 Vehicle type identification device and vehicle type identification method

Publications (2)

Publication Number Publication Date
JP2018055597A true JP2018055597A (en) 2018-04-05
JP6678552B2 JP6678552B2 (en) 2020-04-08

Family

ID=61836809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194019A Active JP6678552B2 (en) 2016-09-30 2016-09-30 Vehicle type identification device and vehicle type identification method

Country Status (1)

Country Link
JP (1) JP6678552B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020084582A (en) * 2018-11-26 2020-06-04 コニカミノルタ株式会社 Road damage calculation system, road damage calculation method, and road damage calculation program
CN111652087A (en) * 2020-05-15 2020-09-11 泰康保险集团股份有限公司 Car checking method and device, electronic equipment and storage medium
CN113593219A (en) * 2021-06-30 2021-11-02 北京百度网讯科技有限公司 Traffic flow statistical method and device, electronic equipment and storage medium
JP2022501756A (en) * 2018-09-27 2022-01-06 東軟睿馳汽車技術(瀋陽)有限公司Neusoft Reach Automotive Technology (Shenyang) Company Vehicle feature acquisition method and equipment
US11288791B2 (en) 2019-03-15 2022-03-29 Toyota Jidosha Kabushiki Kaisha Component discrimination apparatus and method for discriminating component

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186185A (en) * 1997-09-03 1999-03-30 Mitsubishi Heavy Ind Ltd Vehicle-type discriminating device
US6198987B1 (en) * 1997-04-18 2001-03-06 Samsung Electronics Co., Ltd. Method and a multi-functional apparatus for determining the class of a vehicle
JP2001067599A (en) * 1999-08-31 2001-03-16 Hitachi Ltd Managing system for parking lot
JP2003035527A (en) * 2001-07-23 2003-02-07 Kajima Corp Embrakation loading volume measurement method and apparatus
JP2005316550A (en) * 2004-04-27 2005-11-10 Fuji Xerox Co Ltd Image processor, image reader, image inspection device and program
JP2008052539A (en) * 2006-08-25 2008-03-06 Ntt Data Corp Vehicle model distinction device, vehicle model distinction system, vehicle model distinction method and vehicle model distinction program
JP2009104232A (en) * 2007-10-19 2009-05-14 Toyota Motor Corp Vehicle model discriminating device
JP2010002976A (en) * 2008-06-18 2010-01-07 Secom Co Ltd Image monitoring device
JP2013182395A (en) * 2012-03-01 2013-09-12 Nissan Motor Co Ltd Object inspection device, object inspection method, and object inspection program
JP2014002534A (en) * 2012-06-18 2014-01-09 Toshiba Corp Vehicle type determination device and vehicle type determination method
JP2014164601A (en) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198987B1 (en) * 1997-04-18 2001-03-06 Samsung Electronics Co., Ltd. Method and a multi-functional apparatus for determining the class of a vehicle
JPH1186185A (en) * 1997-09-03 1999-03-30 Mitsubishi Heavy Ind Ltd Vehicle-type discriminating device
JP2001067599A (en) * 1999-08-31 2001-03-16 Hitachi Ltd Managing system for parking lot
JP2003035527A (en) * 2001-07-23 2003-02-07 Kajima Corp Embrakation loading volume measurement method and apparatus
JP2005316550A (en) * 2004-04-27 2005-11-10 Fuji Xerox Co Ltd Image processor, image reader, image inspection device and program
JP2008052539A (en) * 2006-08-25 2008-03-06 Ntt Data Corp Vehicle model distinction device, vehicle model distinction system, vehicle model distinction method and vehicle model distinction program
JP2009104232A (en) * 2007-10-19 2009-05-14 Toyota Motor Corp Vehicle model discriminating device
JP2010002976A (en) * 2008-06-18 2010-01-07 Secom Co Ltd Image monitoring device
JP2013182395A (en) * 2012-03-01 2013-09-12 Nissan Motor Co Ltd Object inspection device, object inspection method, and object inspection program
JP2014002534A (en) * 2012-06-18 2014-01-09 Toshiba Corp Vehicle type determination device and vehicle type determination method
JP2014164601A (en) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501756A (en) * 2018-09-27 2022-01-06 東軟睿馳汽車技術(瀋陽)有限公司Neusoft Reach Automotive Technology (Shenyang) Company Vehicle feature acquisition method and equipment
JP7190583B2 (en) 2018-09-27 2022-12-15 東軟睿馳汽車技術(瀋陽)有限公司 Vehicle feature acquisition method and device
US12002269B2 (en) 2018-09-27 2024-06-04 Neusoft Reach Automotive Technology (Shenyang) Company Vehicle feature acquisition method and device
JP2020084582A (en) * 2018-11-26 2020-06-04 コニカミノルタ株式会社 Road damage calculation system, road damage calculation method, and road damage calculation program
US11288791B2 (en) 2019-03-15 2022-03-29 Toyota Jidosha Kabushiki Kaisha Component discrimination apparatus and method for discriminating component
CN111652087A (en) * 2020-05-15 2020-09-11 泰康保险集团股份有限公司 Car checking method and device, electronic equipment and storage medium
CN113593219A (en) * 2021-06-30 2021-11-02 北京百度网讯科技有限公司 Traffic flow statistical method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6678552B2 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
CN106652468B (en) The detection and from vehicle violation early warning alarm set and method in violation of rules and regulations of road vehicle front truck
CN103824452B (en) A kind of peccancy parking detector based on panoramic vision of lightweight
US10943131B2 (en) Image based lane marking classification
US8670592B2 (en) Clear path detection using segmentation-based method
US9047518B2 (en) Method for the detection and tracking of lane markings
US8744132B2 (en) Video-based method for detecting parking boundary violations
CN104778444B (en) The appearance features analysis method of vehicle image under road scene
JP6678552B2 (en) Vehicle type identification device and vehicle type identification method
CN103366154B (en) Reconfigurable clear path detection system
US10699567B2 (en) Method of controlling a traffic surveillance system
CN102867417B (en) Taxi anti-forgery system and taxi anti-forgery method
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
JP6750967B2 (en) Vehicle type identification device and vehicle type identification method
CN105825185A (en) Early warning method and device against collision of vehicles
CN103886757A (en) Method For Automatically Classifying Moving Vehicles
CN111898491B (en) Identification method and device for reverse driving of vehicle and electronic equipment
US10846546B2 (en) Traffic signal recognition device
CN113011331B (en) Method and device for detecting whether motor vehicle gives way to pedestrians, electronic equipment and medium
CN114913399A (en) Vehicle track optimization method and intelligent traffic system
JPH0933232A (en) Object observation method and object observation apparatus using this method, as well as traffic-flow measuring apparatus using this apparatus, and parking-lot observation apparatus
Matsuda et al. A system for real-time on-street parking detection and visualization on an edge device
Coronado et al. Detection and classification of road signs for automatic inventory systems using computer vision
CN202887450U (en) Taxi anti-fake system
KR102115792B1 (en) Monitoring System by cameras installed in traffic lights
CN114255452A (en) Target ranging method and device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6678552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150