[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018073135A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2018073135A
JP2018073135A JP2016212269A JP2016212269A JP2018073135A JP 2018073135 A JP2018073135 A JP 2018073135A JP 2016212269 A JP2016212269 A JP 2016212269A JP 2016212269 A JP2016212269 A JP 2016212269A JP 2018073135 A JP2018073135 A JP 2018073135A
Authority
JP
Japan
Prior art keywords
vehicle
moving image
image
specific
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016212269A
Other languages
Japanese (ja)
Other versions
JP6698002B2 (en
Inventor
宇一郎 野澤
Uichiro Nozawa
宇一郎 野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MEISTER CORP
Saxa Inc
Original Assignee
MEISTER CORP
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MEISTER CORP, Saxa Inc filed Critical MEISTER CORP
Priority to JP2016212269A priority Critical patent/JP6698002B2/en
Publication of JP2018073135A publication Critical patent/JP2018073135A/en
Application granted granted Critical
Publication of JP6698002B2 publication Critical patent/JP6698002B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for matching captured time of a video image captured by an in-vehicle camera installed on each of a plurality of vehicles with those of video images captured by in-vehicle cameras of other vehicles.SOLUTION: An image acquisition unit 51 acquires a plurality of video images captured by a plurality of vehicles with in-vehicle cameras. An information reception unit 52 receives input of vehicle information of a search target vehicle. A specific image extraction unit 53 extracts, from the plurality of video images, at least two specific video images containing the vehicle information together with a predetermined structural object within captured image data. A time correction unit 55 correct image-captured time of each of the specific video images based on an image-captured time period of each of the specific video images.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

従来、道路を走行する車両を撮像し、交通状況を監視したり特定の車両を検出したりする技術が提案されている。例えば特許文献1には、複数の自動車にテレビカメラと、該テレビカメラの画像から対向車あるいは先行車の車番を認識するための画像処理を行う車と、登録された特定車番と複数の自動車から送られてくる車番認識データとをサーチにより照合して、一致する車番認識データがある場合には、その時刻、絶対位置座標を用いて、特定車番の自動車の走行経路を追跡する技術が開示されている。   Conventionally, a technique has been proposed in which a vehicle traveling on a road is imaged and a traffic situation is monitored or a specific vehicle is detected. For example, Patent Document 1 discloses a television camera for a plurality of automobiles, a vehicle that performs image processing for recognizing a vehicle number of an oncoming vehicle or a preceding vehicle from images of the television camera, a registered specific vehicle number, and a plurality of vehicles. The car number recognition data sent from the car is collated by a search, and if there is a matching car number recognition data, the time and the absolute position coordinates are used to track the travel route of the car with the specific car number. Techniques to do this are disclosed.

特開平8−30892号公報JP-A-8-30892

しかし、複数の車両に設置された車載カメラが撮像した映像の撮像時刻が必ずしもいつも正しい情報であるという保証はない。そのため、異なる撮像装置で撮像された動画像の撮像時刻を合わせる技術が望まれている。   However, there is no guarantee that the imaging time of the video captured by the in-vehicle cameras installed in a plurality of vehicles is always correct information. For this reason, there is a demand for a technique for adjusting the imaging time of moving images captured by different imaging devices.

本発明はこれらの点に鑑みてなされたものであり、複数の車両に設置された車載カメラが撮像した映像の撮像時刻を合わせる技術を提供することを目的とする。   The present invention has been made in view of these points, and an object of the present invention is to provide a technique for adjusting the image capturing times of images captured by in-vehicle cameras installed in a plurality of vehicles.

本発明の第1の態様は、情報処理装置である。この装置は、車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する画像取得部と、検索対象車両に関する車両情報の入力を受け付ける情報受付部と、前記複数の動画像のうち、撮像データ中において所定の構造物とともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する特定画像抽出部と、前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する時刻補正部と、を備える。   A first aspect of the present invention is an information processing apparatus. The apparatus includes an image acquisition unit that acquires a plurality of moving images captured by a plurality of vehicles each equipped with an in-vehicle camera, an information reception unit that receives input of vehicle information related to a search target vehicle, and the plurality of moving images. , Based on the specific image extraction unit that extracts at least two specific moving images that are the moving images including the vehicle information together with the predetermined structure in the imaging data, and the imaging time zones of the specific moving images, A time correction unit that corrects the imaging time of the specific image.

前記情報処理装置は、前記特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像を抽出する基準画像抽出部をさらに備えてもよく、前記時刻補正部は、前記基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正してもよい。   The information processing apparatus may further include a reference image extraction unit that extracts a reference moving image in which accuracy of an imaging time period is guaranteed from the specific moving image, and the time correction unit includes the reference moving image. You may correct | amend the time of another specific moving image using the time information of an image.

前記情報処理装置は、前記特定動画像に撮像されている自動車ナンバー読み取り装置を抽出する特定装置抽出部をさらに備えてもよく、前記基準画像抽出部は、前記特定動画像のうち、前記自動車ナンバー読み取り装置がナンバーを読み取った車両の車載カメラが撮像した動画像を前記基準動画像として抽出してもよい。   The information processing apparatus may further include a specific device extraction unit that extracts a vehicle number reading device captured in the specific moving image, and the reference image extraction unit includes the vehicle number in the specific moving image. A moving image captured by an in-vehicle camera of a vehicle whose number is read by the reading device may be extracted as the reference moving image.

前記基準画像抽出部は、GPS(Global Positioning System)情報が付帯している特定動画像を、前記基準動画像として抽出してもよい。   The reference image extraction unit may extract a specific moving image accompanied by GPS (Global Positioning System) information as the reference moving image.

前記情報受付部は、前記車両情報として少なくとも自動車登録番号を受け付けてもよい。   The information receiving unit may receive at least an automobile registration number as the vehicle information.

`コンピュータに、車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する機能と、検索対象車両に関する車両情報の入力を受け付ける機能と、前記複数の動画像のうち、撮像データ中において所定の構造物とともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する機能と、前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する機能と、を実現させる。 機能 A function of acquiring a plurality of moving images captured by a plurality of vehicles each equipped with a vehicle-mounted camera in a computer; a function of receiving input of vehicle information related to a search target vehicle; The imaging time of each specific image is corrected based on the function of extracting at least two specific moving images that are moving images including the vehicle information together with the predetermined structure and the imaging time zones of the specific moving images. Function to achieve.

本発明によれば、複数の車両に設置された車載カメラが撮像した映像の撮像時刻を合わせる技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which adjusts the imaging time of the image | video which the vehicle-mounted camera installed in the some vehicle imaged can be provided.

第1の実施の形態に係る情報処理システムの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the information processing apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る通信部が格納する動画像データベースのデータ構造を模式的に示す図である。It is a figure which shows typically the data structure of the moving image database which the communication part which concerns on 1st Embodiment stores. 重複画像抽出部が取得した各特定動画像の車両情報含有時間帯の一例を模式的に示す図である。It is a figure which shows typically an example of the vehicle information containing time slot | zone of each specific moving image which the duplication image extraction part acquired. 動画像のフレームの一例を模式的に示す図である。It is a figure which shows an example of the flame | frame of a moving image typically. 第1の実施の形態に係る類比判定部が類似すると判定したフレームの撮像時刻を示す図である。It is a figure which shows the imaging time of the flame | frame determined that the analogy ratio determination part which concerns on 1st Embodiment is similar. 第1の実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the information processing which the information processing apparatus which concerns on 1st Embodiment performs. 第2の実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the information processing which the information processing apparatus which concerns on 2nd Embodiment performs.

<第1の実施の形態>
本発明の第1の実施の形態の概要を述べる。
図1は、第1の実施の形態に係る情報処理システムSの概要を説明するための図である。情報処理システムSは道路を走行する複数の車両Vに搭載された車載カメラが撮像した動画像を収集してその映像を解析することにより、検索対象の車両に関する情報を抽出する。この情報抽出を実行する情報処理装置1は、情報解析センター2内に設置されている。図1には第1車両V1から第9車両V9までの9台の車両Vが記載されているが、情報処理システムSが解析の対象とする動画像を撮像する車両Vは8台以下でも10台以上であってもよい。
<First Embodiment>
An outline of the first embodiment of the present invention will be described.
FIG. 1 is a diagram for explaining an overview of the information processing system S according to the first embodiment. The information processing system S extracts information related to a search target vehicle by collecting moving images captured by an in-vehicle camera mounted on a plurality of vehicles V traveling on a road and analyzing the video. The information processing apparatus 1 that executes this information extraction is installed in the information analysis center 2. Although FIG. 1 shows nine vehicles V from the first vehicle V1 to the ninth vehicle V9, the information processing system S captures a moving image to be analyzed and can capture 10 or less vehicles V. It may be more than one.

車両Vに搭載された車載カメラが撮像した動画像は、いわゆる「ドライブレコーダ」の動画像である。情報処理装置1は、例えば各車両Vの運転者から匿名等を条件に任意で提供を受けることにより、動画像を収集する。以下、車載カメラが撮像した動画像を単に「動画像」と記載する。   The moving image captured by the in-vehicle camera mounted on the vehicle V is a moving image of a so-called “drive recorder”. For example, the information processing apparatus 1 collects moving images by optionally receiving provision from the driver of each vehicle V on the condition of anonymity or the like. Hereinafter, a moving image captured by the in-vehicle camera is simply referred to as “moving image”.

図1において、符号Aで示す破線は第1車両V1の車載カメラの画角を示す。図1に示す例では、第1車両V1の動画像には、先行車である車両V3の映像、対向車である車両V4及び車両V6の映像、構造物3の映像が含まれる。ここで構造物3が特徴的な構造物であり一意に特定できるような場合には、そのような構造物3の映像が含まれる動画像が撮像された位置を特定するための有用な手がかりとなる。   In FIG. 1, the broken line indicated by the symbol A indicates the angle of view of the in-vehicle camera of the first vehicle V1. In the example illustrated in FIG. 1, the moving image of the first vehicle V <b> 1 includes a video of the vehicle V <b> 3 that is a preceding vehicle, a video of the vehicles V <b> 4 and V <b> 6 that are oncoming vehicles, and a video of the structure 3. Here, when the structure 3 is a characteristic structure and can be uniquely identified, it is useful clues for identifying the position where the moving image including the image of the structure 3 is captured. Become.

また、例えば第8車両V8の動画像には、先行車である第7車両V7の映像の他、案内標識4の映像や信号機5の映像が含まれる。異なる案内標識4にはそれぞれ異なる地名や道路名が表示されているため、動画像に案内標識4の映像が含まれている場合、その動画像が撮像された位置を特定することができる。さらに信号機5の中には交差点名等が記載された標識を備えるものも存在する。そのような信号機5の映像が動画像に含まれている場合も、その動画像が撮像された位置を特定するための有用な手がかりとなる。   For example, the moving image of the eighth vehicle V8 includes the image of the guide sign 4 and the image of the traffic light 5 in addition to the image of the seventh vehicle V7 that is the preceding vehicle. Since different place names and road names are displayed on the different guide signs 4, when the video of the guide sign 4 is included in the moving image, the position where the moving image is captured can be specified. Further, some traffic lights 5 are provided with a sign indicating an intersection name or the like. Even when such a video of the traffic light 5 is included in the moving image, it is a useful clue for specifying the position where the moving image is captured.

さらに、道路によっては自動車ナンバー読取装置6(いわゆる「Nシステム」)が設置されていることがある。自動車ナンバー読取装置6は特定の場所にのみ設置されているため、動画像に自動車ナンバー読取装置6の映像が含まれている場合、その動画像が撮像された位置を特定するための有用な手がかりとなる。また自動車ナンバー読取装置6が車両Vの自動車登録番号(いわゆる「ナンバー」)を取得している場合には、その情報に基づいて車両Vが何時、何処を走行しているかを特定することができる。   Furthermore, an automobile number reading device 6 (so-called “N system”) may be installed depending on the road. Since the automobile number reading device 6 is installed only in a specific place, when the moving image includes the video of the automobile number reading device 6, it is a useful clue for specifying the position where the moving image is captured. It becomes. Further, when the automobile number reading device 6 acquires the automobile registration number (so-called “number”) of the vehicle V, it is possible to specify when and where the vehicle V is traveling based on the information. .

近年のドライブレコーダの中には、GPS(Global Positioning System)をはじめとする衛星測位システム7と連動することができるものも存在する。このようなドライブレコーダの動画像は、撮像された場所及び時間に関する正確な情報が付帯されている。   Some recent drive recorders can be linked to a satellite positioning system 7 such as a GPS (Global Positioning System). Such a moving image of the drive recorder is accompanied with accurate information regarding the location and time when the image was taken.

一方で、衛星測位システム7と連動していないドライブレコーダの動画像は、撮像された時間の精度が保証された映像とは必ずしも言えない。なぜなら、ドライブレコーダの内部時計を正確に合わせるユーザもいれば、初期設定のまま不正確な時刻のままドライブレコーダを使用するユーザもいるからである。また、ドライブレコーダの使用開始時に時計を合わせたとしても、その後の時刻のずれまでは修正しないで使用するユーザもいるであろう。   On the other hand, a moving image of a drive recorder that is not linked to the satellite positioning system 7 is not necessarily an image in which the accuracy of the captured time is guaranteed. This is because there are users who accurately set the internal clock of the drive recorder, and there are users who use the drive recorder at an incorrect time with the initial setting. In addition, even if the clock is set at the start of use of the drive recorder, some users may use it without correcting it until the subsequent time lag.

さらに、動画像に構造物3、案内標識4、又は信号機5のような特徴的なランドマークが含まれていない場合には、その動画像が撮像された場所を特定することが困難となる場合がある。   Furthermore, when the moving image does not include a characteristic landmark such as the structure 3, the guide sign 4, or the traffic light 5, it is difficult to specify the location where the moving image is captured. There is.

このように、情報処理装置1が提供を受けて蓄積する動画像は、付帯されている撮像時間帯及び撮像場所の情報の正確性が高いもの、撮像時間帯の正確性は高いが撮影場所は不確かであるもの、撮影場所の正確性は高いが撮影時間帯に信頼性が欠けるもの、及び撮像時間帯の信頼性が低くかつ撮影場所が不明なもの等が混在しうる。   As described above, the moving images that are provided and stored by the information processing apparatus 1 have high accuracy of the information of the attached imaging time zone and imaging location, and the accuracy of the imaging time zone is high, but the imaging location is Uncertainties, high accuracy of the shooting location but lacking reliability in the shooting time zone, and low reliability in the shooting time zone and unknown shooting location may be mixed.

第1の実施の形態に係る情報処理装置1は、検索対象車両に関する車両情報が含まれる動画像群をまず抽出する。ここで車両情報とは、「検索対象車両の自動車登録番号の全部又は一部」、又は「車種や色等の外観情報」のうち少なくともいずれか一方に関する情報である。   The information processing apparatus 1 according to the first embodiment first extracts a moving image group including vehicle information related to a search target vehicle. Here, the vehicle information is information related to at least one of “all or a part of the automobile registration number of the search target vehicle” or “appearance information such as the vehicle type and color”.

情報処理装置1は、抽出した動画像群に付帯されている情報を利用して、各動画像の時刻情報を修正してその精度を向上させる。これにより、情報処理装置1は、検索対象車両の走行経路及び走行時間に関する情報の精度を向上することができる。
以下、第1の実施の形態に係る情報処理装置1についてより詳細に説明する。
The information processing apparatus 1 uses the information attached to the extracted moving image group to correct the time information of each moving image and improve its accuracy. Thereby, the information processing apparatus 1 can improve the accuracy of information related to the travel route and travel time of the search target vehicle.
Hereinafter, the information processing apparatus 1 according to the first embodiment will be described in more detail.

図2は、第1の実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、通信部10、記憶部20、入力部30、出力部40、及び制御部50を備える。   FIG. 2 is a diagram schematically illustrating a functional configuration of the information processing apparatus 1 according to the first embodiment. The information processing apparatus 1 includes a communication unit 10, a storage unit 20, an input unit 30, an output unit 40, and a control unit 50.

通信部10はインターネット等の情報処理装置1の外部のネットワークと通信するための通信モジュールである。記憶部20はHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置、及びDRAM(Dynamic Random Access Memory)等の高速な揮発性メモリであり、情報処理装置1の記憶装置及び作業メモリとして機能する。   The communication unit 10 is a communication module for communicating with a network outside the information processing apparatus 1 such as the Internet. The storage unit 20 is a high-capacity storage device such as a hard disk drive (HDD) or a solid state drive (SSD), and a high-speed volatile memory such as a dynamic random access memory (DRAM). Functions as a working memory.

入力部30は、キーボードやポインティングデバイス等を介して情報処理装置1のユーザからの入力を受け付ける入力用ユーザインタフェースである。また出力部40は、ディスプレイ等を介して情報処理装置1のユーザに情報を提供する出力用ユーザインタフェースである。   The input unit 30 is an input user interface that receives an input from the user of the information processing apparatus 1 via a keyboard, a pointing device, or the like. The output unit 40 is an output user interface that provides information to the user of the information processing apparatus 1 via a display or the like.

制御部50は情報処理装置1のCPU(Central Processing Unit)であり、記憶部20に格納されたプログラムをメモリに読み出して実行することにより、画像取得部51、情報受付部52、特定画像抽出部53、重複画像抽出部54、時刻補正部55、パターン抽出部56、類比判定部57、及び基準画像抽出部58として機能する。   The control unit 50 is a CPU (Central Processing Unit) of the information processing apparatus 1, and reads out and executes a program stored in the storage unit 20 into a memory, thereby executing an image acquisition unit 51, an information reception unit 52, and a specific image extraction unit. 53, a duplicate image extraction unit 54, a time correction unit 55, a pattern extraction unit 56, an analogy determination unit 57, and a reference image extraction unit 58.

画像取得部51は、車載カメラを搭載した複数の車両Vがそれぞれ撮像した複数の動画像を、通信部10を介して取得する。画像取得部51は、取得した動画像を記憶部20に格納する。情報受付部52は、検索対象車両に関する車両情報の入力をユーザから受け付ける。   The image acquisition unit 51 acquires a plurality of moving images captured by a plurality of vehicles V each equipped with an in-vehicle camera via the communication unit 10. The image acquisition unit 51 stores the acquired moving image in the storage unit 20. The information receiving unit 52 receives input of vehicle information related to the search target vehicle from the user.

特定画像抽出部53は、記憶部20に格納されている複数の動画像のうち、撮像データ中に車両情報を含む動画像である特定動画像を、少なくとも2つ抽出する。例えば情報受付部52がユーザから受け付けた車両情報が特定の自動車登録番号である場合、特定画像抽出部53は、記憶部20に格納されている複数の動画像のうち、ナンバープレートにその自動車登録番号が記載された車両が撮像されている動画像を特定動画像として抽出する。   The specific image extracting unit 53 extracts at least two specific moving images that are moving images including vehicle information in the imaging data from among the plurality of moving images stored in the storage unit 20. For example, when the vehicle information received from the user by the information reception unit 52 is a specific vehicle registration number, the specific image extraction unit 53 registers the vehicle in a license plate among a plurality of moving images stored in the storage unit 20. A moving image in which a vehicle with a number is captured is extracted as a specific moving image.

別の例として、情報受付部52がユーザから受け付けた車両情報が車の車種及び色(例えばX社製の赤いセダン)である場合、特定画像抽出部53は、記憶部20に格納されている複数の動画像のうち、車両情報で特定される車種及び色の車両が撮像されている動画像を特定動画像として抽出する。なお、特定画像抽出部53は、例えば文字列検索やパターンマッチング等の既知の画像処理技術を用いて実現できる。   As another example, the specific image extraction unit 53 is stored in the storage unit 20 when the vehicle information received from the user by the information reception unit 52 is a vehicle type and color (for example, a red sedan manufactured by X company). Among the plurality of moving images, a moving image in which the vehicle of the vehicle type and color specified by the vehicle information is captured is extracted as the specific moving image. The specific image extraction unit 53 can be realized using a known image processing technique such as character string search or pattern matching.

特定画像抽出部53は、動画像中に車両情報が含まれることを基準として動画像を抽出するが、動画像の撮像時間帯は考慮しない。このため、特定画像抽出部53が抽出した動画像の撮像時間帯に大きなギャップがあることも起こりうる。検索対象車両の走行経路及び走行時間に関する情報を取得するという観点から見ると、撮像時間帯に大きなギャップがある動画像ほど有用性が低下する。   The specific image extraction unit 53 extracts a moving image based on the fact that vehicle information is included in the moving image, but does not consider an imaging time zone of the moving image. For this reason, there may be a large gap in the imaging time zone of the moving image extracted by the specific image extraction unit 53. From the viewpoint of obtaining information on the travel route and travel time of the vehicle to be searched, the usefulness of a moving image having a large gap in the imaging time zone decreases.

そこで重複画像抽出部54は、特定画像抽出部53が抽出した特定動画像のうち、車両情報が含まれる時間帯が少なくとも一部において重複する特定動画像の組み合わせを取得する。   Therefore, the overlapping image extraction unit 54 acquires a combination of specific moving images in which the time zone including the vehicle information overlaps at least in part among the specific moving images extracted by the specific image extraction unit 53.

図3は、第1の実施の形態に係る通信部10が格納する動画像データベースのデータ構造を模式的に示す図である。画像取得部51は、取得した動画像のそれぞれを一意に特定するための動画像ID(Identification)を各動画像に割り当てる。図3に示す動画像データベースの例では、動画像IDとしてM000001が割り当てられた動画像に関する情報が格納されている。   FIG. 3 is a diagram schematically illustrating a data structure of a moving image database stored in the communication unit 10 according to the first embodiment. The image acquisition unit 51 assigns a moving image ID (Identification) for uniquely identifying each acquired moving image to each moving image. In the example of the moving image database shown in FIG. 3, information relating to a moving image to which M000001 is assigned as a moving image ID is stored.

動画像データベースは複数のデータフィールドを備えており、動画像の「撮影時間帯」を格納するデータフィールドも存在する。図3には、動画像IDがM000001で特定される動画像は、2016年1月23日午前4時56分12秒から同日の午後9時9分54秒まで撮影されたことが格納されている。また動画像データベースには動画像中に車両情報が含まれている時間帯を示す車両情報含有時間帯データフィールドも含まれる。図3には、動画像IDがM000001で特定される動画像は、2016年1月23日午後12時34分56秒から同日の午後13時6分23秒まで車両情報が含まれていることを示している。
なお、その他のデータフィールドに格納されるデータについては後述する。
The moving image database includes a plurality of data fields, and there is also a data field for storing a “shooting time zone” of the moving image. FIG. 3 stores that the moving image identified by the moving image ID M000001 was shot from 4:56:12 am on January 23, 2016 to 9: 9: 54 pm on the same day. Yes. The moving image database also includes a vehicle information-containing time zone data field indicating a time zone in which the vehicle information is included in the moving image. In FIG. 3, the moving image identified by the moving image ID M000001 includes vehicle information from 12:34:56 pm on January 23, 2016 to 13: 6: 23 pm on the same day. Is shown.
Data stored in other data fields will be described later.

重複画像抽出部54は、特定画像抽出部53が抽出した特定動画像それぞれの動画像IDに基づいて動画像データベースを参照することにより、各特定動画像において車両情報が含まれる時間帯を取得する。   The duplicate image extracting unit 54 refers to the moving image database based on the moving image ID of each specific moving image extracted by the specific image extracting unit 53, thereby acquiring a time zone in which vehicle information is included in each specific moving image. .

図4は、重複画像抽出部54が取得した各特定動画像の車両情報含有時間帯の一例を模式的に示す図である。図4は、特定画像抽出部53が動画像IDとしてそれぞれM00001、M00011、M00067、M00248、M00760、及びM01234で特定される動画像群を抽出した場合の例を示している。   FIG. 4 is a diagram schematically illustrating an example of the vehicle information-containing time zone of each specific moving image acquired by the duplicate image extraction unit 54. FIG. 4 shows an example in which the specific image extraction unit 53 extracts moving image groups specified by M00001, M00011, M00067, M00248, M00760, and M01234 as moving image IDs, respectively.

図4において横軸は時刻を示す。また太い実線は動画像中に車両情報が含まれている時間帯を示す。図4に示す例では、動画像IDがM01234で特定される動画像は、車両情報が含まれている時間帯が他の動画像と重複していない。これは、M01234で特定される動画像が、他の動画像とは全く異なる日時に撮像されたか、あるいはM01234で特定される動画像を生成した車載カメラの内部時計の時刻が不正確であったかのいずれかの場合が考えられる。   In FIG. 4, the horizontal axis indicates time. A thick solid line indicates a time zone in which vehicle information is included in the moving image. In the example shown in FIG. 4, the moving image identified by the moving image ID M01234 does not overlap with other moving images in the time zone in which the vehicle information is included. This is because the moving image specified by M01234 was captured at a date and time completely different from other moving images, or the time of the internal clock of the in-vehicle camera that generated the moving image specified by M01234 was inaccurate Either case is conceivable.

そこで重複画像抽出部54は、特定画像抽出部53が抽出した動画像のうち、動画像IDがM01234で特定される動画像を除いて、それぞれM00001、M00011、M00067、M00248、及びM00760で特定される特定動画像の組み合わせを取得する。   Therefore, the duplicate image extracting unit 54 is specified by M00001, M00011, M00067, M00248, and M00760, respectively, except for the moving image whose moving image ID is specified by M01234 among the moving images extracted by the specific image extracting unit 53. Acquire a specific moving image combination.

図5は、動画像のフレームの一例を模式的に示す図である。動画像は車載カメラが撮像した映像であるため、車載カメラを搭載する車両V自体は含まれない。図5に示す動画像の例では、先行車として第10車両V10及び第11車両V11が撮像されており、対向車として第12車両V12と第13車両V13とが撮像されている。   FIG. 5 is a diagram schematically illustrating an example of a moving image frame. Since the moving image is an image captured by the in-vehicle camera, the vehicle V itself that includes the in-vehicle camera is not included. In the example of the moving image shown in FIG. 5, the tenth vehicle V10 and the eleventh vehicle V11 are imaged as preceding vehicles, and the twelfth vehicle V12 and the thirteenth vehicle V13 are imaged as oncoming vehicles.

ここで、検索対象車両が第11車両V11であると仮定する。この場合、図5に示す動画像を撮像した車載カメラを搭載する車両Vは第11車両V11と同じ車線を走行するため、動画像中に検索対象画像を含む時間は長くなる。これに対し、検索対象車両が第12車両V12であると仮定する。この場合、図5に示す動画像を撮像した車載カメラを搭載する車両Vは第12車両V12の対向車線を走行するため、動画像中に検索対象車両が映る時間はすれ違い時の短時間だけである。   Here, it is assumed that the search target vehicle is the eleventh vehicle V11. In this case, since the vehicle V equipped with the vehicle-mounted camera that captures the moving image shown in FIG. 5 travels in the same lane as the eleventh vehicle V11, the time for including the search target image in the moving image becomes longer. On the other hand, it is assumed that the search target vehicle is the twelfth vehicle V12. In this case, the vehicle V equipped with the in-vehicle camera that captures the moving image shown in FIG. 5 travels on the opposite lane of the twelfth vehicle V12, and therefore the time for which the search target vehicle appears in the moving image is only a short time at the time of passing. is there.

例えば図4に示す例において、動画像IDがM00248で特定される動画像には、他の動画像と比べて、車両情報が含まれる時間が短い。これは、M00248で特定される動画像を撮像した車載カメラを搭載した車両が、検索対象車両の対向車であったことを示唆している。   For example, in the example shown in FIG. 4, the moving image identified by the moving image ID M00248 has a shorter time for including vehicle information than other moving images. This suggests that the vehicle equipped with the in-vehicle camera that captured the moving image specified by M00248 was an oncoming vehicle of the search target vehicle.

時刻補正部55は、組み合わせを構成する特定動画像それぞれの撮像時間帯に基づいて撮像時刻を補正する。より具体的には、まずパターン抽出部56は、特定動画像の各フレームの中から所定のパターンを抽出する。パターン抽出部56が特定動画像から抽出するパターンは、上述した車両情報の他、他の車両Vの情報、案内標識4や信号機5等の特定の構造物である。パターン抽出部56はさらに、特定動画像から車両情報を含む広域のパターンも抽出する。   The time correction unit 55 corrects the imaging time based on the imaging time zones of the specific moving images constituting the combination. More specifically, the pattern extraction unit 56 first extracts a predetermined pattern from each frame of the specific moving image. The pattern extracted from the specific moving image by the pattern extraction unit 56 is specific structures such as information on other vehicles V, information signs 4 and traffic lights 5 in addition to the vehicle information described above. The pattern extraction unit 56 further extracts a wide area pattern including vehicle information from the specific moving image.

例えば図5に示す例において、第10車両V10が検索対象車両であるとする。このときパターン抽出部56は、第10車両V10及び先行車両や対向車両、遠方の山の形状等の風景、第10車両V10が走行する道路の曲がり具合等をパターンとして抽出する。   For example, in the example shown in FIG. 5, it is assumed that the tenth vehicle V10 is a search target vehicle. At this time, the pattern extraction unit 56 extracts, as patterns, the tenth vehicle V10, the preceding vehicle, the oncoming vehicle, the scenery such as the shape of a distant mountain, the degree of bending of the road on which the tenth vehicle V10 travels, and the like.

類比判定部57は、各特定動画像の中に存在する所定のパターンの組み合わせに基づいて、特定画像抽出部53が特定した組み合わせを構成する特定動画像を解析することにより、動画像が類似するか否かを判定する。すなわち、類比判定部57は、各特定動画像の中に存在する所定のパターンの組み合わせに基づいて、動画像が類似するか否かを判定する。   The similarity determination unit 57 analyzes the specific moving images constituting the combination specified by the specific image extraction unit 53 based on the combination of predetermined patterns existing in each specific moving image, so that the moving images are similar to each other. It is determined whether or not. In other words, the analog ratio determination unit 57 determines whether or not the moving images are similar based on a combination of predetermined patterns existing in each specific moving image.

例えばパターン抽出部56が、ある特定動画像において、検索対象車両と他の車両Vとが、山岳地帯を背景として撮像されているフレームを抽出したとする。さらにパターン抽出部56が、別の特定動画像中に、同様の山岳地帯を背景として検索対象車両と他の車両Vとが撮像されているフレームを抽出したとする。この場合、類比判定部57は、両者のフレームが類似していると判定する。フレームが類似することは、そのフレームの撮影場所が同じであることを示唆する。   For example, it is assumed that the pattern extraction unit 56 extracts a frame in which a search target vehicle and another vehicle V are imaged against a mountainous area in a specific moving image. Furthermore, it is assumed that the pattern extraction unit 56 extracts a frame in which the search target vehicle and the other vehicle V are captured in the background of a similar mountainous area in another specific moving image. In this case, the analog ratio determination unit 57 determines that both frames are similar. The similarity of frames suggests that the shooting locations of the frames are the same.

図6は、第1の実施の形態に係る類比判定部57が類似すると判定したフレームの撮像時刻を示す図である。図6に示す例では、類比判定部57は、フレームAからフレームDまでの4つのフレームを類似すると判定している。またフレームAの撮像時刻は2016年1月23日8時00分であり、フレームBの撮像時刻は同日8時3分である。同様に、フレームCの撮像時刻は同日の7時50分であり、フレームDの撮像時刻は同日の8時8分である。   FIG. 6 is a diagram illustrating image capturing times of frames determined to be similar by the similarity determination unit 57 according to the first embodiment. In the example illustrated in FIG. 6, the similarity determination unit 57 determines that the four frames from the frame A to the frame D are similar. The imaging time of frame A is 8:00 on January 23, 2016, and the imaging time of frame B is 8:03 on the same day. Similarly, the imaging time of frame C is 7:50 on the same day, and the imaging time of frame D is 8: 8 on the same day.

時刻補正部55は、類似する特定動画像のフレームの撮像時刻に基づいて、各動画像の撮像時刻を補正する。時刻補正部55は、類比判定部57が類似すると判定した特定動画像のフレームは同時刻に撮像されたと仮定する。例えば図6の例では、フレームAからフレームDまでの4つのフレームは類似するため、時刻補正部55はこれらが同時刻に撮像されたという仮定する。しかしながら、図6に示す例において各フレームを含む特定動画像を撮像した車載カメラの内部時計が合っていないため、各フレームには異なる時刻情報が付帯されている。そこで時刻補正部55は、各フレームに付帯されている時刻情報の平均を、真の時刻と推定する。   The time correction unit 55 corrects the imaging time of each moving image based on the imaging time of a similar specific moving image frame. The time correction unit 55 assumes that the frames of the specific moving image determined to be similar by the analog ratio determination unit 57 are captured at the same time. For example, in the example of FIG. 6, since four frames from frame A to frame D are similar, the time correction unit 55 assumes that these were imaged at the same time. However, in the example shown in FIG. 6, since the internal clock of the in-vehicle camera that captured the specific moving image including each frame does not match, different time information is attached to each frame. Therefore, the time correction unit 55 estimates an average of time information attached to each frame as a true time.

なお、時刻補正部55は、各フレームに付帯されている時刻情報の平均以外の他の統計情報を用いて時刻情報を推定してもよい。例えば時刻補正部55は、各フレームに付帯されている時刻情報の最頻値(モード)や中央値(メジアン)を真の時刻と推定してもよい。また、各フレームに付帯されている時刻情報の平均から最も外れている時刻を除いて、時刻情報を推定してもよい。   The time correction unit 55 may estimate the time information using statistical information other than the average of the time information attached to each frame. For example, the time correction unit 55 may estimate the mode value (mode) or median value (median) of time information attached to each frame as a true time. Further, the time information may be estimated by excluding the time most deviated from the average of the time information attached to each frame.

図6に示す例では、フレームAからフレームDまでの4つのフレームの撮像時刻の平均は2016年1月23日8時2分である。そこで時刻補正部55は、各フレームの撮像時刻が平均時刻となるように、各特定動画像の撮像時刻の修正量を算出する。   In the example shown in FIG. 6, the average of the imaging times of four frames from frame A to frame D is 8:02 on January 23, 2016. Therefore, the time correction unit 55 calculates the correction amount of the imaging time of each specific moving image so that the imaging time of each frame becomes the average time.

図6に示すように、フレームAの撮像時刻は8時0分であるから、時刻補正部55はフレームAを含む特定動画像の時刻修正量を+2分として算出する。時刻補正部55は、同様に、フレームBを含む特定動画像の時刻修正量を−1分として算出する。フレームC及びフレームDについても同様である。これにより、時刻補正部55は、各特定動画像が撮像された場所の絶対座標が不明であっても、各特定画像の時刻を合わせることができる。   As shown in FIG. 6, since the imaging time of the frame A is 8:00:00, the time correction unit 55 calculates the time correction amount of the specific moving image including the frame A as +2 minutes. Similarly, the time correction unit 55 calculates the time correction amount of the specific moving image including the frame B as −1 minute. The same applies to frame C and frame D. Thereby, the time correction unit 55 can adjust the time of each specific image even if the absolute coordinates of the location where each specific moving image is captured are unknown.

ここで情報受付部52は、情報処理装置1のユーザから受け付ける車両情報として少なくとも自動車登録番号を受け付けるようにしてもよい。この場合、パターン抽出部56は、特定動画像の中から所定の構造物に加えて自動車登録番号の文字列を抽出する。これは例えば既知の文字認識技術を用いて実現できる。情報受付部52が車両情報として車種や色等の外観情報を取得する場合と比較して、検索対象車両の特定精度を向上することができる。   Here, the information receiving unit 52 may receive at least an automobile registration number as vehicle information received from the user of the information processing apparatus 1. In this case, the pattern extraction unit 56 extracts the character string of the automobile registration number in addition to the predetermined structure from the specific moving image. This can be realized using, for example, a known character recognition technique. Compared with the case where the information receiving unit 52 acquires appearance information such as the vehicle type and color as vehicle information, the accuracy of specifying the search target vehicle can be improved.

[撮像時間帯の正確性が保証されている場合]
以上、情報処理装置1が各特定動画像の撮像時間帯の正確性が保証されていない場合について主に説明した。しかしながら、動画像の中には、その撮像時間帯の正確性が保証されているものもが存在することもある。以下では、特定画像の中に撮像時間帯の正確性が保証されている動画像が含まれる場合について説明する。
[When the imaging time zone accuracy is guaranteed]
As above, the case where the information processing apparatus 1 does not guarantee the accuracy of the imaging time zone of each specific moving image has been mainly described. However, there are some moving images in which the accuracy of the imaging time zone is guaranteed. Hereinafter, a case will be described in which a specific image includes a moving image in which the accuracy of the imaging time period is guaranteed.

「撮像時間帯の正確性が保証されている動画像」の一例としては、その動画像を撮像した車載カメラが、車両VのGPSと連動している場合である。一般にGPSが衛星測位システム7から受信するデータには正確な時刻情報が含まれている。このため、GPSと連動して動作する車載カメラが撮像した動画像に付帯されている時刻情報はその正確性が保証されている。このような撮像時間帯の正確性が保証されている動画像は、時刻補正部55が各特定動画像の撮影時刻を補正する際の基準動画像とすることができる。   An example of the “moving image in which the accuracy of the imaging time period is guaranteed” is a case where the in-vehicle camera that captures the moving image is interlocked with the GPS of the vehicle V. In general, data received by the GPS from the satellite positioning system 7 includes accurate time information. For this reason, the accuracy of the time information attached to the moving image captured by the in-vehicle camera operating in conjunction with the GPS is guaranteed. Such a moving image in which the accuracy of the imaging time period is guaranteed can be used as a reference moving image when the time correction unit 55 corrects the shooting time of each specific moving image.

そこで基準画像抽出部58は、組み合わせを構成する特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像を抽出する。より具体的には、基準画像抽出部58は、GPS情報が付帯している特定動画像を、基準動画像として抽出する。   Therefore, the reference image extraction unit 58 extracts a reference moving image in which the accuracy of the imaging time period is guaranteed from the specific moving images constituting the combination. More specifically, the reference image extraction unit 58 extracts a specific moving image attached with GPS information as a reference moving image.

図3に示すように、動画像データベースには位置情報を格納するデータフィールドを備えている。図3に示す例では、動画像IDがM000001で特定される動画像にはGPS情報が含まれていることを示している。基準画像抽出部58は、動画像データベースを参照することにより、組み合わせを構成する特定動画像の中から基準動画像を抽出する。   As shown in FIG. 3, the moving image database has a data field for storing position information. In the example illustrated in FIG. 3, the moving image identified by the moving image ID M000001 includes GPS information. The reference image extraction unit 58 extracts a reference moving image from the specific moving images constituting the combination by referring to the moving image database.

時刻補正部55は、基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正する。これにより、時刻補正部55は、各特定動画像の撮像時刻を正確に合わせるための修正量を算出することができる。   The time correction unit 55 corrects the time of another specific moving image using the time information of the reference moving image. Thereby, the time correction unit 55 can calculate a correction amount for accurately adjusting the imaging time of each specific moving image.

なお、図3に示すように、動画像データベースには時刻補正部55が算出した動画像の時刻を修正するための時刻修正情報を格納するデータフィールドも存在する。図3に示す動画像データベースの例では、動画像IDがM000001で特定される動画像にはGPS情報が含まれているため、時刻修正量は±0分が格納されている。すなわち、動画像IDがM000001で特定される動画像の撮像時刻は正確であることを示している。   As shown in FIG. 3, the moving image database also includes a data field that stores time correction information for correcting the time of the moving image calculated by the time correction unit 55. In the example of the moving image database shown in FIG. 3, GPS information is included in the moving image identified by the moving image ID M000001, and therefore the time correction amount is stored as ± 0 minutes. That is, it indicates that the imaging time of the moving image specified by the moving image ID M000001 is accurate.

動画像データベースには他にも、パターン抽出部56が抽出したパターン情報を格納するためのデータフィールドも存在する。パターン抽出部56がひとたび動画像を解析して見つけたパターンを動画像データベースに格納することにより、その後パターン抽出部56によるパターンマッチング処理を省略することができる。   In addition, the moving image database includes a data field for storing pattern information extracted by the pattern extraction unit 56. Once the pattern extraction unit 56 analyzes the moving image and stores the pattern found in the moving image database, the pattern matching processing by the pattern extraction unit 56 can be omitted thereafter.

図7は、第1の実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1を実現するコンピュータが起動したときに開始する。   FIG. 7 is a flowchart for explaining a flow of information processing executed by the information processing apparatus 1 according to the first embodiment. The process in this flowchart starts when a computer that implements the information processing apparatus 1 is started, for example.

画像取得部51は、車載カメラを搭載した複数の車両Vがそれぞれ撮像した複数の動画像を取得する(S2)。画像取得部51は、取得した動画像を記憶部20に格納する(S4)。情報受付部52は、検索対象車両に関する車両情報の入力を受け付ける(S6)。   The image acquisition unit 51 acquires a plurality of moving images respectively captured by a plurality of vehicles V equipped with a vehicle-mounted camera (S2). The image acquisition unit 51 stores the acquired moving image in the storage unit 20 (S4). The information receiving unit 52 receives input of vehicle information related to the search target vehicle (S6).

特定画像抽出部53は、複数の動画像のうち、撮像データ中に車両情報を含む動画像である特定動画像を抽出する(S8)。重複画像抽出部54は、特定動画像のうち、車両情報が含まれる時間帯が少なくとも一部において重複する重複動画像群を取得する(S10)。   The specific image extraction unit 53 extracts a specific moving image that is a moving image including vehicle information in the imaging data from among the plurality of moving images (S8). The duplicate image extraction unit 54 acquires a duplicate movie group in which the time zone including the vehicle information overlaps at least partially among the specific movie images (S10).

類比判定部57は、重複動画像群を構成する動画像のうち、類似するフレームを含む類似動画像群を抽出する(S12)。基準画像抽出部58は、組み合わせを構成する特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像の抽出を試みる。基準動画像がない場合(S14のNo)、時刻補正部55は、類比判定部57が類似すると判定した特定動画像のフレームに付帯されている時刻情報の平均を算出する(S16)。時刻補正部55は、算出した平均時刻に基づいて、時刻情報の修正値を算出する(S18)。   The similarity determination unit 57 extracts a similar moving image group including similar frames from the moving images constituting the overlapping moving image group (S12). The reference image extraction unit 58 tries to extract a reference moving image in which the accuracy of the imaging time period is guaranteed among the specific moving images constituting the combination. When there is no reference moving image (No in S14), the time correction unit 55 calculates the average of the time information attached to the frame of the specific moving image determined to be similar by the similarity determination unit 57 (S16). The time correction unit 55 calculates a correction value of the time information based on the calculated average time (S18).

基準動画像がある場合(S14のYes)、時刻補正部55は、基準動画像の時刻情報を用いて、他の特定動画像の時刻情報の補正値を算出する(S20)。時刻補正部55が特定動画像の時刻情報の補正値を算出すると本フローチャートにおける処理は終了する。   When there is a reference moving image (Yes in S14), the time correction unit 55 calculates a correction value for time information of another specific moving image using the time information of the reference moving image (S20). When the time correction unit 55 calculates the correction value of the time information of the specific moving image, the processing in this flowchart ends.

以上説明したように、第1の実施の形態に係る情報処理装置1によれば、複数の車両に設置された車載カメラが撮像した動画像の撮像時刻を合わせる技術を提供できる。
特に、各動画像に付帯されている撮像時刻が正確でない場合であっても、それら撮像時刻を統計的に処理することによって、撮像時刻の制度を高めることができる。
As described above, according to the information processing apparatus 1 according to the first embodiment, it is possible to provide a technique for adjusting the imaging time of a moving image captured by an in-vehicle camera installed in a plurality of vehicles.
In particular, even when the imaging time attached to each moving image is not accurate, the imaging time system can be enhanced by statistically processing the imaging time.

特に、情報処理装置1は各動画像に共通して映っている被写体に基づいて動画像が同じ場所で撮像されたか否かを判断するので、撮影場所の絶対位置が不明であっても各動画像の位置合わせをすることができる。各動画像の位置合わせをすることができるので、情報処理装置1は各動画像の時刻合わせをすることもできる。また、動画像にGPS情報が付帯されている場合には、GPS情報から得られる時刻情報に基づいて、情報処理装置1は各動画像の時刻を合わせることもできる。   In particular, since the information processing apparatus 1 determines whether or not a moving image has been captured at the same location based on a subject that is common to each moving image, even if the absolute position of the shooting location is unknown, The image can be aligned. Since each moving image can be aligned, the information processing apparatus 1 can also adjust the time of each moving image. In addition, when GPS information is attached to a moving image, the information processing apparatus 1 can adjust the time of each moving image based on time information obtained from the GPS information.

第1の実施の形態に係る情報処理装置1は、各動画像の時刻を合わせることができるが、各動画像の撮像場所を特定するに至らない場合もありうる。しかしながら、情報処理装置1は多数の動画像の中から同一時間帯に検索対象車両が撮像されている動画像群を抽出できる点で、検索対象車両の走行経路を追跡に有用である。ある程度絞られた動画像であれば、情報処理装置1のユーザが目視で観察し、走行場所を特定できる場合もあるからである。   The information processing apparatus 1 according to the first embodiment can synchronize the time of each moving image, but may not be able to specify the imaging location of each moving image. However, the information processing apparatus 1 is useful for tracking the travel route of the search target vehicle in that it can extract a moving image group in which the search target vehicle is captured in the same time zone from a large number of moving images. This is because if the moving image is narrowed down to some extent, the user of the information processing apparatus 1 may visually observe and specify the traveling location.

<第2の実施の形態>
第1の実施の形態に係る情報処理装置1では、各特定動画像を「時刻」を基準として関連付ける場合について説明した。これに対し、第2の実施の形態に係る情報処理装置1は、各特定動画像をその動画像が撮像された場所の「絶対的な位置座標」を基準として関連付ける点で相違する。
以下、第2の実施の形態について説明するが、第1の実施の形態と共通する部分については、適宜省略又は簡略化して説明する。
<Second Embodiment>
In the information processing apparatus 1 according to the first embodiment, the case where each specific moving image is associated with “time” as a reference has been described. On the other hand, the information processing apparatus 1 according to the second embodiment is different in that each specific moving image is associated with “absolute position coordinates” of a place where the moving image is captured as a reference.
In the following, the second embodiment will be described, but portions common to the first embodiment will be omitted or simplified as appropriate.

図8は、第2の実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。第2の実施の形態に係る情報処理装置1は、第1の実施の形態に係る情報処理装置1と比較して、重複画像抽出部54を備えない点、及び特定装置抽出部59を備える点で相違する。また、第1の実施の形態に係る情報処理装置1と同様の構成であっても、第2の実施の形態に係る情報処理装置1においては、異なる動作をする場合もある。   FIG. 8 is a diagram schematically illustrating a functional configuration of the information processing apparatus 1 according to the second embodiment. Compared with the information processing apparatus 1 according to the first embodiment, the information processing apparatus 1 according to the second embodiment does not include the duplicate image extraction unit 54 and includes a specific device extraction unit 59. Is different. Even if the configuration is the same as that of the information processing apparatus 1 according to the first embodiment, the information processing apparatus 1 according to the second embodiment may perform different operations.

特定画像抽出部53は、複数の動画像のうち、撮像データ中において所定の構造物とともに車両情報が含まれる動画像を、特定動画像として少なくとも2つ抽出する。なお、動画像中に含まれる車両情報や所定の構造物の特定は、パターン抽出部56が実行する。   The specific image extraction unit 53 extracts at least two moving images that include vehicle information together with a predetermined structure in the captured image data from among the plurality of moving images as specific moving images. Note that the pattern extraction unit 56 executes identification of vehicle information and a predetermined structure included in the moving image.

ここで「所定の構造物」とは、その構造物が存在する場所の絶対的な位置座標を一意に特定することができる構造物である。所定の構造物の例としては、例えば上述した案内標識4や信号機5、自動車ナンバー読取装置6が挙げられる。また構造物3のうち特徴的な外観を持ち、一意に特定できる構造物3も所定の構造物となり得る。   Here, the “predetermined structure” is a structure that can uniquely specify the absolute position coordinates of the place where the structure exists. Examples of the predetermined structure include the above-described guide sign 4, the traffic light 5, and the automobile number reading device 6. Moreover, the structure 3 which has a characteristic external appearance among the structures 3 and can be specified uniquely can also become a predetermined structure.

類比判定部57は、特定画像抽出部53が抽出した特定画像のそれぞれから、所定の構造物と検索対象画像とが撮像されているフレームを抽出する。ここで所定の構造物は特定の場所に設置されているものであるから、異なる特定動画像のフレーム中に所定の構造物と検索対象画像とが撮像されている場合、それは同時刻に撮像されたと推定することができる。   The similarity determination unit 57 extracts a frame in which a predetermined structure and a search target image are captured from each of the specific images extracted by the specific image extraction unit 53. Here, since the predetermined structure is installed at a specific location, if the predetermined structure and the search target image are captured in frames of different specific moving images, they are captured at the same time. Can be estimated.

そこで時刻補正部55は、所定の構造物と検索対象画像とが撮像されているフレームの撮像時刻に基づいて、各特定画像の撮像時刻を補正するための補正量を算出する。第2の実施の形態に係る類比判定部57は絶対的な位置座標が定まっている構造物を含むフレームを特定することにより、実施の形態に係る情報処理装置1のように風景等のパターンマッチング処理で類似するフレームを特定する場合よりも、特定精度を高めることができる。   Therefore, the time correction unit 55 calculates a correction amount for correcting the imaging time of each specific image based on the imaging time of the frame in which the predetermined structure and the search target image are captured. The similarity determination unit 57 according to the second embodiment specifies a frame including a structure whose absolute position coordinates are determined, thereby pattern matching such as a landscape as in the information processing apparatus 1 according to the embodiment. The identification accuracy can be improved as compared with the case where similar frames are identified by processing.

時刻補正部55は、特定画像抽出部53が抽出した特定動画像に基準動画像が含まれる場合、すなわち、撮像時間帯の正確性が保証されている動画像が含まれる場合には、基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正する。これにより、時刻補正部55は、特定動画像の時刻の修正精度を向上することができる。   When the reference moving image is included in the specific moving image extracted by the specific image extracting unit 53, that is, when the moving image in which the accuracy of the imaging time period is guaranteed is included, the time correction unit 55 Using the time information of the image, the time of another specific moving image is corrected. Thereby, the time correction part 55 can improve the correction accuracy of the time of a specific moving image.

ここで、自動車ナンバー読取装置6がナンバーを読み取った車両Vの車載カメラが撮像した動画像も、基準動画像となり得る。自動車ナンバー読取装置6は、ナンバーを含む車両Vの画像を、時刻情報とともに登録するからである。そこで特定装置抽出部59は、特定動画像に撮像されている自動車ナンバー読取装置6の抽出を試みる。基準画像抽出部58は、自動車ナンバー読取装置6の抽出に成功した特定動画像も基準動画像として抽出する。   Here, the moving image captured by the in-vehicle camera of the vehicle V whose number is read by the automobile number reading device 6 can also be a reference moving image. This is because the automobile number reading device 6 registers the image of the vehicle V including the number together with the time information. Therefore, the specific device extraction unit 59 attempts to extract the automobile number reading device 6 captured in the specific moving image. The reference image extraction unit 58 also extracts a specific moving image that has been successfully extracted by the automobile number reading device 6 as a reference moving image.

これにより、特定画像抽出部53が特定した全ての特定動画像にGPS情報が付帯していない場合であっても、いずれかの特定動画像を撮像した車載カメラを搭載した車両Vが自動車ナンバー読取装置6によって登録されている場合には、各特定動画像の時刻情報を正確に合わせることができる。   Thereby, even if the GPS information is not attached to all the specific moving images specified by the specific image extracting unit 53, the vehicle V equipped with the in-vehicle camera that captures any of the specific moving images can read the vehicle number. When registered by the device 6, the time information of each specific moving image can be accurately adjusted.

図9は、第2の実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1を実現するコンピュータが起動したときに開始する。   FIG. 9 is a flowchart for explaining the flow of information processing executed by the information processing apparatus 1 according to the second embodiment. The process in this flowchart starts when a computer that implements the information processing apparatus 1 is started, for example.

画像取得部51は、車載カメラを搭載した複数の車両Vがそれぞれ撮像した複数の動画像を取得する(S22)。画像取得部51は、取得した動画像を記憶部20に格納する(S24)。情報受付部52は、検索対象車両に関する車両情報の入力を受け付ける(S26)。特定画像抽出部53は、複数の動画像のうち、撮像データ中において所定の構造物とともに車両情報が含まれる動画像である特定動画像を抽出する(S28)。   The image acquisition unit 51 acquires a plurality of moving images respectively captured by a plurality of vehicles V equipped with a vehicle-mounted camera (S22). The image acquisition unit 51 stores the acquired moving image in the storage unit 20 (S24). The information receiving unit 52 receives input of vehicle information related to the search target vehicle (S26). The specific image extraction unit 53 extracts a specific moving image, which is a moving image including vehicle information together with a predetermined structure in the captured data, from the plurality of moving images (S28).

基準画像抽出部58は、組み合わせを構成する特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像の抽出を試みる。基準動画像がない場合(S30のNo)、時刻補正部55は、類比判定部57が類似すると判定した特定動画像のフレームに付帯されている時刻情報の平均を算出する(S32)。時刻補正部55は、算出した平均時刻に基づいて、時刻情報の修正値を算出する(S34)。   The reference image extraction unit 58 tries to extract a reference moving image in which the accuracy of the imaging time period is guaranteed among the specific moving images constituting the combination. When there is no reference moving image (No in S30), the time correction unit 55 calculates the average of the time information attached to the frame of the specific moving image determined to be similar by the similarity determination unit 57 (S32). The time correction unit 55 calculates a correction value of the time information based on the calculated average time (S34).

基準動画像がある場合(S30のYes)、時刻補正部55は、基準動画像の時刻情報を用いて、他の特定動画像の時刻情報の補正値を算出する(S36)。時刻補正部55が特定動画像の時刻情報の補正値を算出すると本フローチャートにおける処理は終了する。   When there is a reference moving image (Yes in S30), the time correction unit 55 calculates a correction value for time information of another specific moving image using the time information of the reference moving image (S36). When the time correction unit 55 calculates the correction value of the time information of the specific moving image, the processing in this flowchart ends.

以上説明したように、本発明の第2の実施の形態に係る情報処理装置1によれば、複数の車両に設置された車載カメラが撮像した映像の撮像時刻を合わせる技術を提供できる。   As described above, according to the information processing apparatus 1 according to the second embodiment of the present invention, it is possible to provide a technique for adjusting the image capturing times of images captured by in-vehicle cameras installed in a plurality of vehicles.

特に、動画像に撮像されている構造物等の位置情報を基準に動画像を集めることにより、情報処理装置1は同一場所で撮像された動画像を精度よく集めることができる。   In particular, the information processing apparatus 1 can collect the moving images captured at the same place with high accuracy by collecting the moving images based on the positional information of the structure or the like captured in the moving image.

以上、本発明を2つの実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using two embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

また、各実施の形態を任意に組み合わせることによって生じる新たな実施の形態も、本発明の技術的範囲に含まれる。例えば第1の実施の形態と第2の実施の形態とを組み合わせ、第1の実施の形態における基準画像の選定に自動車ナンバー読取装置6の情報を用いてもよい。このように、組み合わせによって生じる新たな実施の形態は、組み合わせ元の実施の形態の効果を合わせ持つ。   In addition, new embodiments generated by arbitrarily combining the embodiments are also included in the technical scope of the present invention. For example, the first embodiment may be combined with the second embodiment, and the information of the automobile number reading device 6 may be used for selection of the reference image in the first embodiment. Thus, the new embodiment generated by the combination has the effect of the combination source embodiment.

1・・・情報処理装置
2・・・情報解析センター
3・・・構造物
4・・・案内標識
5・・・信号機
6・・・自動車ナンバー読取装置
7・・・衛星測位システム
10・・・通信部
20・・・記憶部
30・・・入力部
40・・・出力部
50・・・制御部
51・・・画像取得部
52・・・情報受付部
53・・・特定画像抽出部
54・・・重複画像抽出部
55・・・時刻補正部
56・・・パターン抽出部
57・・・類比判定部
58・・・基準画像抽出部
59・・・特定装置抽出部
S・・・情報処理システム
V・・・車両
DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus 2 ... Information analysis center 3 ... Structure 4 ... Information sign 5 ... Traffic light 6 ... Car number reading device 7 ... Satellite positioning system 10 ... Communication unit 20 ... storage unit 30 ... input unit 40 ... output unit 50 ... control unit 51 ... image acquisition unit 52 ... information reception unit 53 ... specific image extraction unit 54 ..Duplicate image extraction unit 55 ... Time correction unit 56 ... Pattern extraction unit 57 ... Similarity determination unit 58 ... Reference image extraction unit 59 ... Specific device extraction unit S ... Information processing system V ... Vehicle

Claims (6)

車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する画像取得部と、
検索対象車両に関する車両情報の入力を受け付ける情報受付部と、
前記複数の動画像のうち、撮像データ中において所定の構造物とともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する特定画像抽出部と、
前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する時刻補正部と、
を備える情報処理装置。
An image acquisition unit for acquiring a plurality of moving images respectively captured by a plurality of vehicles equipped with in-vehicle cameras;
An information receiving unit that receives input of vehicle information related to the search target vehicle;
A specific image extraction unit that extracts at least two specific moving images that are moving images including the vehicle information together with a predetermined structure in the imaging data among the plurality of moving images;
A time correction unit that corrects an imaging time of each specific image based on an imaging time zone of each of the specific moving images;
An information processing apparatus comprising:
前記特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像を抽出する基準画像抽出部をさらに備え、
前記時刻補正部は、前記基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正する、
請求項1に記載の情報処理装置。
A reference image extracting unit that extracts a reference moving image in which accuracy of an imaging time period is guaranteed among the specific moving images;
The time correction unit corrects the time of another specific moving image using the time information of the reference moving image.
The information processing apparatus according to claim 1.
前記特定動画像に撮像されている自動車ナンバー読み取り装置を抽出する特定装置抽出部をさらに備え、
前記基準画像抽出部は、前記特定動画像のうち、前記自動車ナンバー読み取り装置がナンバーを読み取った車両の車載カメラが撮像した動画像を前記基準動画像として抽出する、
請求項2に記載の情報処理装置。
A specific device extraction unit that extracts the vehicle number reading device captured in the specific moving image;
The reference image extraction unit extracts, as the reference moving image, a moving image captured by an in-vehicle camera of a vehicle whose number is read by the vehicle number reading device, among the specific moving images.
The information processing apparatus according to claim 2.
前記基準画像抽出部は、GPS(Global Positioning System)情報が付帯している特定動画像を、前記基準動画像として抽出する、
請求項2又は3に記載の情報処理装置。
The reference image extraction unit extracts a specific moving image accompanied by GPS (Global Positioning System) information as the reference moving image.
The information processing apparatus according to claim 2 or 3.
前記情報受付部は、前記車両情報として少なくとも自動車登録番号を受け付ける、
請求項1から4のいずれか一項に記載の情報処理装置。
The information receiving unit receives at least an automobile registration number as the vehicle information.
The information processing apparatus according to any one of claims 1 to 4.
コンピュータに、車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する機能と、
検索対象車両に関する車両情報の入力を受け付ける機能と、
前記複数の動画像のうち、撮像データ中において所定の構造物とともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する機能と、
前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する機能と、
を実現させるプログラム。
A function of acquiring a plurality of moving images captured by a plurality of vehicles each equipped with a vehicle-mounted camera on a computer,
A function of accepting input of vehicle information related to the search target vehicle;
A function of extracting at least two specific moving images which are moving images including the vehicle information together with a predetermined structure in the imaging data among the plurality of moving images;
A function of correcting the imaging time of each specific image based on the imaging time zone of each of the specific moving images;
A program that realizes
JP2016212269A 2016-10-28 2016-10-28 Information processing device and program Active JP6698002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212269A JP6698002B2 (en) 2016-10-28 2016-10-28 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212269A JP6698002B2 (en) 2016-10-28 2016-10-28 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2018073135A true JP2018073135A (en) 2018-05-10
JP6698002B2 JP6698002B2 (en) 2020-05-27

Family

ID=62115380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212269A Active JP6698002B2 (en) 2016-10-28 2016-10-28 Information processing device and program

Country Status (1)

Country Link
JP (1) JP6698002B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021026457A (en) * 2019-08-02 2021-02-22 株式会社デンソーテン Image distribution device and method, and image distribution system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186785A (en) * 2010-03-09 2011-09-22 Nissin Electric Co Ltd Method for extracting vehicle passing through two or more points
JP2012190399A (en) * 2011-03-14 2012-10-04 Yazaki Corp Drive recorder device and time correction method
JP2013206031A (en) * 2012-03-28 2013-10-07 Nec Corp Driving evaluation system, driving evaluation method, and driving evaluation program
JP2014044692A (en) * 2012-08-29 2014-03-13 Toyoda Gosei Co Ltd Drive recorder system
JP2014191664A (en) * 2013-03-27 2014-10-06 Fujitsu Ltd Vehicle tracking program, image transmission program, server device, information processing apparatus, and vehicle tracking method
US20140376778A1 (en) * 2013-06-25 2014-12-25 Zf Friedrichshafen Ag License plate recognition system and location forecasting
WO2016170934A1 (en) * 2015-04-24 2016-10-27 株式会社パイ・アール Drive recorder

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186785A (en) * 2010-03-09 2011-09-22 Nissin Electric Co Ltd Method for extracting vehicle passing through two or more points
JP2012190399A (en) * 2011-03-14 2012-10-04 Yazaki Corp Drive recorder device and time correction method
JP2013206031A (en) * 2012-03-28 2013-10-07 Nec Corp Driving evaluation system, driving evaluation method, and driving evaluation program
JP2014044692A (en) * 2012-08-29 2014-03-13 Toyoda Gosei Co Ltd Drive recorder system
JP2014191664A (en) * 2013-03-27 2014-10-06 Fujitsu Ltd Vehicle tracking program, image transmission program, server device, information processing apparatus, and vehicle tracking method
US20140376778A1 (en) * 2013-06-25 2014-12-25 Zf Friedrichshafen Ag License plate recognition system and location forecasting
WO2016170934A1 (en) * 2015-04-24 2016-10-27 株式会社パイ・アール Drive recorder

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021026457A (en) * 2019-08-02 2021-02-22 株式会社デンソーテン Image distribution device and method, and image distribution system
JP7254000B2 (en) 2019-08-02 2023-04-07 株式会社デンソーテン Image delivery device and method, and image delivery system

Also Published As

Publication number Publication date
JP6698002B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
JP7326720B2 (en) Mobile position estimation system and mobile position estimation method
Grassi et al. Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments
EP3552388B1 (en) Feature recognition assisted super-resolution method
DE112020004133T5 (en) SYSTEMS AND PROCEDURES FOR IDENTIFICATION OF POSSIBLE COMMUNICATION BARRIERS
JP6307553B2 (en) Cross-spectral feature correlation for navigation adjustment
CN111261016B (en) Road map construction method and device and electronic equipment
CN110073362A (en) System and method for lane markings detection
US20120189162A1 (en) Mobile unit position detecting apparatus and mobile unit position detecting method
CN102447886A (en) Visualizing video within existing still images
JP2012118871A (en) Travel support system, travel support program, and travel support method
CN105608417A (en) Traffic signal lamp detection method and device
JP2009180631A (en) Navigator, navigation method and program
US20210295537A1 (en) System and method for egomotion estimation
Pepperell et al. Towards persistent visual navigation using smart
CN106227732A (en) A kind of method of real-time acquisition mobile video photographed scene position
Wang et al. Automated road sign inventory system based on stereo vision and tracking
CN112862881A (en) Road map construction and fusion method based on crowd-sourced multi-vehicle camera data
Gloudemans et al. So you think you can track?
Nambi et al. ALT: towards automating driver license testing using smartphones
JP2011039974A (en) Image search method and system
KR102463698B1 (en) System and method for building a location information database of road sign, apparatus and method for estimating location of vehicle using the same
CN103733225A (en) Characteristic point coordination system, characteristic point coordination method, and recording medium
JP6698002B2 (en) Information processing device and program
JP2018073134A (en) Information processing device and program
JP5435294B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6698002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371