JP2021131623A - Traffic risk reduction program, information processing device, and method - Google Patents
Traffic risk reduction program, information processing device, and method Download PDFInfo
- Publication number
- JP2021131623A JP2021131623A JP2020025474A JP2020025474A JP2021131623A JP 2021131623 A JP2021131623 A JP 2021131623A JP 2020025474 A JP2020025474 A JP 2020025474A JP 2020025474 A JP2020025474 A JP 2020025474A JP 2021131623 A JP2021131623 A JP 2021131623A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- surveillance camera
- camera
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、交通リスク低減プログラム、情報処理装置及び方法に関する。 The present invention relates to traffic risk reduction programs, information processing devices and methods.
近年、自動運転技術の進展により、自動運転車が普及しつつある。例えば、インフラセンサから見た場合におけるオブジェクトによって生じる死角領域を示す第1死角情報と、車載センサから見た場合におけるオブジェクトによって生じる死角領域を示す第2死角情報とに基づく各々の死角領域に共通する第1共通死角領域を示す共通死角情報を外部装置に出力する技術が知られている。 In recent years, with the development of autonomous driving technology, autonomous vehicles are becoming widespread. For example, it is common to each blind spot area based on the first blind spot information indicating the blind spot area generated by the object when viewed from the infrastructure sensor and the second blind spot information indicating the blind spot area generated by the object when viewed from the in-vehicle sensor. A technique for outputting common blind spot information indicating a first common blind spot region to an external device is known.
しかしながら、上記の従来技術では、所定の条件を満たす移動体を好適に特定することができるとは限らない。例えば、上記の従来技術では、各々の死角領域に共通する第1共通死角領域を示す共通死角情報を外部装置に出力しているに過ぎず、交通事故に巻き込まれる可能性が高い移動体に対して交通事故を回避するための情報を提供する場合に、かかる移動体を特定することができるとは限らない。 However, in the above-mentioned conventional technique, it is not always possible to preferably specify a moving body that satisfies a predetermined condition. For example, in the above-mentioned prior art, only the common blind spot information indicating the first common blind spot area common to each blind spot area is output to an external device, and the moving body having a high possibility of being involved in a traffic accident It is not always possible to identify such a moving object when providing information for avoiding a traffic accident.
本願は、上記に鑑みてなされたものであって、所定の条件を満たす移動体を好適に特定することができる交通リスク低減プログラム、情報処理装置及び方法を提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide a traffic risk reduction program, an information processing device, and a method capable of preferably identifying a moving body satisfying a predetermined condition.
本願に係る情報処理装置は、監視カメラによって撮影された監視カメラ画像に基づいて、前記監視カメラによって撮影された又は前記監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定部と、車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定部とを備えたことを特徴とする。 The information processing apparatus according to the present application estimates an image taken by the surveillance camera or taken by an in-vehicle camera mounted on an automobile existing in the vicinity of the surveillance camera based on the surveillance camera image taken by the surveillance camera. It is characterized in that it is provided with an estimation unit for identifying a vehicle equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to the estimated image among a plurality of vehicles equipped with an in-vehicle camera. ..
実施形態の一態様によれば、所定の条件を満たす移動体を好適に特定することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that a moving body satisfying a predetermined condition can be preferably specified.
以下に、本願に係る交通リスク低減プログラム、情報処理装置及び方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る交通リスク低減プログラム、情報処理装置及び方法が限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing the traffic risk reduction program, information processing device, and method according to the present application (hereinafter, referred to as “implements”) will be described in detail with reference to the drawings. The traffic risk reduction program, information processing device, and method according to the present application are not limited by this embodiment. In addition, each embodiment can be appropriately combined as long as the processing contents do not contradict each other. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
〔1.着想背景〕
近年の自動運転技術の進展により、自動運転車が普及しつつあるが、交通システムの整備が十分とは言えない点がある。例えば、自動運転車が普及しつつある過程では、自動運転車と、運転手によって運転される自動車である手動自動車とが、混在する過程が存在する。この場合、自動運転車のみが交通ルールに従って走行したとしても、手動自動車に起因する交通事故等を防ぐことが難しい。このため、手動自動車の走行を考慮した上で、自動運転車を高精度に制御する必要があった。
[1. Idea background]
With the development of autonomous driving technology in recent years, autonomous vehicles are becoming widespread, but there is a point that the maintenance of the transportation system is not sufficient. For example, in the process in which autonomous vehicles are becoming widespread, there is a process in which autonomous vehicles and manual vehicles, which are vehicles driven by drivers, coexist. In this case, it is difficult to prevent a traffic accident caused by a manual vehicle even if only the autonomous vehicle travels according to the traffic rules. Therefore, it is necessary to control the self-driving car with high accuracy in consideration of the running of the manual car.
しかしながら、自動運転車の走行技術が十分とは限らない。例えば、自動運転車は、カメラ等の撮影装置を有し、自動運転車の周辺を撮影することで、周辺の環境や、状況に基づいて、走行を制御する。この場合、自動運転車は、所定の速度以上で走行した場合に、側面の環境や、状況を認識できない場合がある。例えば、自動運転車は、高速で走行した場合に、側面を撮影するカメラの映像が流れてしまい、他の車両や、物体を認識できない場合がある。この場合、自動運転車は、側面からの情報を取得することが困難になるため、側面からの交通事故等のリスクが高くなる。このように、自動運転車の走行技術に関して、側面からの情報を如何に取得するかが課題であった。 However, the driving technology of autonomous vehicles is not always sufficient. For example, an autonomous vehicle has a photographing device such as a camera, and by photographing the surroundings of the autonomous vehicle, the traveling is controlled based on the surrounding environment and the situation. In this case, the self-driving car may not be able to recognize the side environment and the situation when traveling at a predetermined speed or higher. For example, when the self-driving car travels at a high speed, the image of the camera that captures the side surface may flow, and other vehicles or objects may not be recognized. In this case, it becomes difficult for the self-driving car to acquire information from the side surface, so that the risk of a traffic accident from the side surface increases. In this way, the issue was how to obtain information from the side regarding the driving technology of the autonomous driving vehicle.
そこで、本実施形態では、自動運転車の走行を支援する技術を提供する。本実施形態では、センサ等の外部装置等から取得される情報を活用することで、自動運転車の側面からの情報を補完する。これにより、本実施形態は、自動運転車に対して高精度に制御を行うことを可能とする。 Therefore, in the present embodiment, a technique for supporting the running of an autonomous vehicle is provided. In the present embodiment, the information from the side of the autonomous driving vehicle is complemented by utilizing the information acquired from an external device such as a sensor. As a result, the present embodiment makes it possible to control the autonomous driving vehicle with high accuracy.
〔2.情報処理装置が示す特定処理の一例〕
図1を用いて、実施形態に係る情報処理装置100が実行する特定処理の一例について説明する。図1は、実施形態に係る情報処理装置100が実行する特定処理の一例を示す図である。
[2. An example of specific processing indicated by an information processing device]
An example of the specific processing executed by the
図1に示すように、情報処理システム1は、自動車10と、監視カメラ20と、監視カメラ画像提供装置FISと、車載カメラ画像提供装置SISと、情報処理装置100とを含む。自動車10、監視カメラ20、監視カメラ画像提供装置FIS、車載カメラ画像提供装置SIS及び情報処理装置100は、図示しない無線ネットワークを介して接続される。なお、図1に示す情報処理システム1には、複数台の自動車10や、複数台の監視カメラ20や、複数台の監視カメラ画像提供装置FISや、複数台の車載カメラ画像提供装置SISや、複数台の情報処理装置100が含まれてもよい。
As shown in FIG. 1, the information processing system 1 includes an
実施形態に係る自動車10は、無線ネットワークを介して他の各種装置と通信するコネクテッド車両である。例えば、自動車10は、自動車10に組み込まれた通信モジュール等の車載装置により通信を実行する。
The
また、自動車10は、カメラ機能付きの車載装置を有する。例えば、車載装置は、ドライブレコーダや、カーナビゲーションシステムや、ドライブレコーダ機能を有するカーナビゲーションシステム等である。例えば、各自動車10に組み込まれた車載装置は、所定の角度から撮影された風景等を含む画像(以下、車載カメラ画像と表記する場合がある)と、車載装置が搭載された自動車10を識別するための自動車ID(Identifier)とを常時、車載カメラ画像提供装置SISに送信する。
Further, the
実施形態に係る監視カメラ20は、無線ネットワークを介して他の各種装置と通信可能な機能を有する監視カメラである。例えば、監視カメラ20は、交通信号機又は交通信号機が取り付けられる柱に固定されて設置される。監視カメラ20は、所定の角度から撮影された風景等を含む画像(以下、監視カメラ画像と表記する場合がある)を取得する。なお、以下では、異なる監視カメラ毎に、監視カメラ2Nと表記し、監視カメラ2Nを特に区別しない場合には、監視カメラ20と表記する。 The surveillance camera 20 according to the embodiment is a surveillance camera having a function of being able to communicate with various other devices via a wireless network. For example, the surveillance camera 20 is fixedly installed on a traffic signal or a pillar to which the traffic signal is attached. The surveillance camera 20 acquires an image including a landscape or the like taken from a predetermined angle (hereinafter, may be referred to as a surveillance camera image). In the following, each of the different surveillance cameras will be referred to as a surveillance camera 2N, and when the surveillance camera 2N is not particularly distinguished, it will be referred to as a surveillance camera 20.
実施形態に係る監視カメラ画像提供装置FISは、例えば、サーバ装置又はクラウドシステム等により実現される。具体的には、監視カメラ画像提供装置FISは、監視カメラ20によって撮影された監視カメラ画像を常時、取得する。そして、監視カメラ画像提供装置FISは、情報処理装置100からの要求に応じて、情報処理装置100に監視カメラ画像を提供する。
The surveillance camera image providing device FIS according to the embodiment is realized by, for example, a server device or a cloud system. Specifically, the surveillance camera image providing device FIS constantly acquires the surveillance camera image captured by the surveillance camera 20. Then, the surveillance camera image providing device FIS provides the surveillance camera image to the
実施形態に係る車載カメラ画像提供装置SISは、例えば、サーバ装置又はクラウドシステム等により実現される。具体的には、車載カメラ画像提供装置SISは、自動車10が有する車載装置によって撮影された画像と自動車IDとを常時又は所定の間隔(例えば毎秒30回)毎に取得する。そして、車載カメラ画像提供装置SISは、情報処理装置100からの要求に応じて、情報処理装置100に車載カメラ画像と自動車IDとを提供する。また、情報処理装置100は、自動車10を識別する自動車IDと連絡先とを対応付けて所定の記憶部に記憶する。
The vehicle-mounted camera image providing device SIS according to the embodiment is realized by, for example, a server device or a cloud system. Specifically, the vehicle-mounted camera image providing device SIS acquires an image taken by the vehicle-mounted device of the
実施形態に係る情報処理装置100は、例えば、サーバ装置又はクラウドシステム等により実現される。具体的には、情報処理装置100は、監視カメラによって撮影された監視カメラ画像に基づいて、自動車に搭載された車載カメラによって撮影される画像を推定する。そして、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。
The
以下、図1を用いて、情報処理装置100による特定処理の一例を流れに沿って説明する。
Hereinafter, an example of the specific processing by the
図1の例では、危険な走行を行うコネクテッド車両ではない自動車CA1(以下では、非コネクテッド車両CA1と表記する場合がある)と、コネクテッド車両である自動車10が、交差点に接近している例を示す。
In the example of FIG. 1, an example in which a vehicle CA1 which is not a connected vehicle performing dangerous driving (hereinafter, may be referred to as a non-connected vehicle CA1) and a
ここで、監視カメラ20により撮影された画像を解析した結果、非コネクテッド車両CA1が法定速度を大幅に超えて走行して交差点に進入しようとしており、非コネクテッド車両CA1と、自動車10とが衝突する可能性が高いと推定されたものとする。すなわち、図1に示す例において、自動車10が交通事故に遭う可能性が高いことが監視カメラ20によって検出されているものとする。
Here, as a result of analyzing the image taken by the surveillance camera 20, the unconnected vehicle CA1 is about to enter the intersection by traveling significantly exceeding the legal speed, and the unconnected vehicle CA1 and the
この場合、監視カメラ20から自動車10に対して、交通事故に関する注意喚起等を行いたいが、監視カメラ20によって撮影された画像だけでは、自動車10の通信の宛先を特定することができず、通知を行うことが困難である。この課題に対して、本実施形態では、監視カメラ20によって撮影された自動車10の宛先を以下の手順により特定する。
In this case, the surveillance camera 20 wants to alert the
まず、図1に示すように、情報処理装置100は、監視カメラ21及び22によって撮影された監視カメラ画像を監視カメラ画像提供装置FISから取得する(ステップS1)。
First, as shown in FIG. 1, the
例えば、図1の例では、情報処理装置100は、監視カメラ21によって撮影された非コネクテッド車両CA1を含む監視カメラ画像を取得する。また、図1の例では、情報処理装置100は、監視カメラ22によって撮影された自動車10を含む監視カメラ画像を取得する。この場合、図1の例では、監視カメラ21によって撮影された監視カメラ画像には、法定速度を大幅に超えて走行する非コネクテッド車両CA1が撮影されているものとする。また、監視カメラ22によって撮影された監視カメラ画像には、自動車10を含む監視カメラ画像が撮影されているものとする。なお、情報処理装置100は、監視カメラ画像提供装置FISから予め監視カメラ画像を取得し、車載カメラ画像提供装置SISから予め車載カメラ画像を取得していてもよい。このとき、情報処理装置100は、任意の順序で、車載カメラ画像や。監視カメラ画像を取得して良い。
For example, in the example of FIG. 1, the
ここで、情報処理装置100は、監視カメラ画像に基づいて、交通事故に巻き込まれる可能性が高い自動車を対象自動車として特定する(ステップS2)。例えば、情報処理装置100は、監視カメラ画像に撮影された自動車が交通事故を起こす可能性が高い危険自動車であるか否かを判定する。具体的な例を挙げると、監視カメラ21によって撮影された監視カメラ画像には、法定速度を大幅に超えて走行する非コネクテッド車両CA1が撮影されているものとする。この場合、情報処理装置100は、非コネクテッド車両CA1が交通事故を起こす可能性が高い危険自動車であると判定する。
Here, the
そして、情報処理装置100は、危険自動車が撮影された場合、監視カメラ画像から、交通事故に巻き込まれる可能性が高い自動車を対象自動車として特定する。例えば、自動車10の死角を走行している非コネクテッド車両CA1が危険自動車であるものとする。この場合、情報処理装置100は、監視カメラ21と監視カメラ22との位置関係に基づいて、自動車10を対象自動車として特定する。
Then, when a dangerous vehicle is photographed, the
なお、情報処理装置100は、監視カメラ画像から推定される自動車10の向きや、危険自動車である非コネクテッド車両CA1の向きや、自動車10及び非コネクテッド車両CA1の速度や、監視カメラ20が設置された道路に存在する建物や道路の位置関係等を考慮して、対象自動車の特定を行ってもよい。このような対象自動車の特定については、画像解析により交通事故の発生を推定する各種の公知技術が採用可能である。
The
ここで、監視カメラ画像から自動車10を対象自動車として特定したとしても、監視カメラ画像からは、自動車10の宛先を特定するのが困難となる。そこで、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、対象自動車である自動車10の車載装置によって撮影されると予測される車載カメラ画像を推定する(ステップS3)。
Here, even if the
また、情報処理装置100は、推定された車載カメラ画像(以下、推定画像と表記する場合がある)を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索する(ステップS4)。そして、情報処理装置100は、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20により撮影された対象自動車として特定する(ステップS5)。すなわち、情報処理装置100は、推定画像と車載カメラ画像とのマッチング結果に基づいて、宛先が既知となるコネクテッド車両のうち、推定画像と対応する車載カメラ画像を撮影したコネクテッド車両を、監視カメラ画像に撮影された対象自動車に紐付ける。
Further, the
ここで、図2を用いて推定画像と車載カメラ画像とのマッチングを行う処理について説明する。図2は、実施形態に係る情報処理装置が実行する特定処理の具体例を示す図である。なお、図2に示す処理は、図1に示すステップS1〜S5に相当する。 Here, a process of matching the estimated image and the vehicle-mounted camera image will be described with reference to FIG. FIG. 2 is a diagram showing a specific example of specific processing executed by the information processing apparatus according to the embodiment. The process shown in FIG. 2 corresponds to steps S1 to S5 shown in FIG.
図2の例では、情報処理装置100は、監視カメラ画像として、自動車TC10及び建造物TO1を含む画像が示す画像FIM1を監視カメラ22から取得する(ステップS21)。このとき、情報処理装置100は、画像解析等の従来技術を用いることで、自動車TC10及び建造物TO1を特定する。
In the example of FIG. 2, the
このような場合、情報処理装置100は、監視カメラ22によって撮影された監視カメラ画像に含まれる自動車TC10を対象自動車TC10とする。そして、情報処理装置100は、監視カメラ22によって撮影された画像から、対象自動車TC10の車載装置によって撮影されると予測される推定画像PIM1を生成する(ステップS22)。例えば、情報処理装置100は、監視カメラ22によって継続的に撮影された各種監視カメラ画像や、監視カメラ22の近傍に設置された他の監視カメラ20によって撮影された各種監視カメラ画像を用いて、推定画像PIM1を生成する。なお、このような推定画像の生成処理は、ある視点から撮影された画像から、他の視点から撮影された画像を推定する各種推定技術等により実現可能である。
In such a case, the
一方、情報処理装置100は、自動車10の車載装置によって撮影された車載カメラ画像SIM1を取得する(ステップS23)。ここで、自動車10が対象自動車TC10である場合、自動車10の車載装置が撮影する車載カメラ画像SIM1は、推定画像PIM1と類似すると考えられる。そこで、情報処理装置100は、車載カメラ画像SIM1と推定画像PIM1のマッチングを行う(ステップS24)。例えば、情報処理装置100は、推定画像PIM1と、車載カメラ画像SIM1との画像の類似性を示す度合いである類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
On the other hand, the
この場合、情報処理装置100は、車載カメラ画像SIM1と推定画像PIM1とに既知の建造物TO1が含まれる場合、車載カメラ画像SIM1に含まれる建造物TO1と、推定画像PIM1に含まれる建造物TO1とを比較することで類似度を算出する。
In this case, when the in-vehicle camera image SIM1 and the estimated image PIM1 include the known building TO1, the
例えば、情報処理装置100は、車載カメラ画像SIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置等と、推定画像PIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置等とから、類似度を算出する。なお、このような類似度を算出する算出処理は、画像解析や、画像マッチング等の従来技術により実現可能である。また、情報処理装置100は、車載カメラ画像SIM1から抽出された特徴量と、推定画像PIM1から抽出された特徴量との比較を行うことで、類似度を算出してもよい。そして、情報処理装置100は、算出された類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
For example, the
そして、情報処理装置100は、車載カメラ画像SIM1と推定画像PIM1とが対応する(類似する)と判定した場合、対象自動車TC10と、車載カメラ画像SIM1を撮影した車載装置が搭載された自動車10とを紐付ける。このような処理を行うことで、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車10を特定することができる。これにより、情報処理装置100は、監視カメラ画像に撮影された対象自動車TC10と、特定した自動車10の自動車IDとを紐付けることで、対象自動車TC10と自動車10との紐付けを実現する。そして、情報処理装置100は、特定した自動車IDと対応付けられた宛先を、対象自動車TC10の宛先として特定する。このように、情報処理装置100は、交通事故に巻き込まれる可能性が高い自動車10に対して情報を送信する際に、適切な情報の宛先を特定することができる。
Then, when the
図1に戻り、説明を続ける。情報処理装置100は、特定された自動車10に非コネクテッド車両CA1に関する注意喚起の情報を通知する(ステップS6)。このような処理の結果、自動車10は、通知された非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、各種運転制御を行うこととなる。例えば、自動車10は、非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、所定の速度以下に減速してもよく、徐々に減速することで、停車してもよい。
Returning to FIG. 1, the explanation will be continued. The
また、例えば、自動車10は、非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、非コネクテッド車両CA1から回避するような走行を行ってもよい。例えば、自動車10は、非コネクテッド車両CA1と離れる位置に移動するように運転操作を制御して走行してもよい。
Further, for example, the
このように、実施形態に係る情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像から、危険な走行を行う非コネクテッド車両CA1との交通事故に巻き込まれる可能性が高い自動車10に対して、交通事故に関する注意喚起等を行いたい場合に対して解決方法を提供する。従来、監視カメラ20によって撮影された監視カメラ画像だけでは、自動車10の宛先を特定できなかった。この課題に対して、情報処理装置100は、推定画像を検索クエリとし、車載カメラ画像提供装置SISに対して推定画像と対応する車載カメラ画像を検索することで、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20により撮影された対象自動車として特定する。そして、情報処理装置100は、非コネクテッド車両CA1に起因する交通事故等の危険情報を自動車10に通知する。このように、情報処理装置100は、非コネクテッド車両CA1に起因する交通事故等の危険情報を特定された自動車10に好適に通知することができる。例えば、自動車10は、車載カメラによって撮影できない領域(死角)に位置する物体に関する情報を取得することが困難であった。しかしながら、情報処理装置100は、監視カメラ20によって撮影される監視カメラ画像を活用することで、自動車10の死角から非コネクテッド車両CA1が突然、飛び出した場合であっても、非コネクテッド車両CA1に起因する交通事故等の危険情報を自動車10に通知することができる。
As described above, the
上述した処理の結果、自動車10は、情報処理装置100によって通知される情報に基づいて、各種運転制御を行うことができる。例えば、自動車10は、情報処理装置100によって通知される非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、所定の速度以下に減速することや、徐々に減速することで、停車することといった制御を行うことができる。これにより、自動車10は、各種交通状況や、危険な状況等に応じた各種運転制御を行うため、より安全性の高い走行を実現することができる。したがって、自動車10は、側面の環境や、状況を認識できない場合であっても、情報処理装置100によって通知される情報に基づいて、適切な走行を実現することができる。
As a result of the above-mentioned processing, the
〔3.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[3. Information processing device configuration]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、無線ネットワークを介して、自動車10と、監視カメラ20と、監視カメラ画像提供装置FISと、車載カメラ画像提供装置SISとの間で情報の送受信を行う。より具体的には、通信部110は、監視カメラ画像提供装置FISが有する監視カメラ画像記憶部FISMに登録された情報と、車載カメラ画像提供装置SISが有する車載カメラ画像記憶部SISMに登録された情報とを取得する。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 transmits / receives information between the
なお、図3に示す例では、監視カメラ画像記憶部FISMと車載カメラ画像記憶部SISMが情報処理装置100の外部に設けられている例について記載したが、実施形態は、これに限定されるものではない。例えば、情報処理装置100は、監視カメラ画像記憶部FISMと車載カメラ画像記憶部SISMとを監視カメラ画像提供装置FIS及び車載カメラ画像提供装置SISから取得し、記憶部120内に記憶してもよい。
In the example shown in FIG. 3, an example in which the surveillance camera image storage unit FISM and the in-vehicle camera image storage unit SISM are provided outside the
(監視カメラ画像記憶部FISMについて)
ここで、図4に、実施形態に係る実施形態に係る監視カメラ画像記憶部FISMの一例を示す。図4は、実施形態に係る実施形態に係る監視カメラ画像記憶部FISMの一例を示す図である。図4に示した例では、実施形態に係る監視カメラ画像記憶部FISMは、「カメラID」、「監視カメラ画像」、「時刻情報」といった項目を有する。
(About the surveillance camera image storage unit FISM)
Here, FIG. 4 shows an example of the surveillance camera image storage unit FISM according to the embodiment according to the embodiment. FIG. 4 is a diagram showing an example of the surveillance camera image storage unit FISM according to the embodiment according to the embodiment. In the example shown in FIG. 4, the surveillance camera image storage unit FISM according to the embodiment has items such as “camera ID”, “surveillance camera image”, and “time information”.
「カメラID」は、監視カメラ20を識別する識別子である。「監視カメラ画像」は、「カメラID」に対応付けられた監視カメラ画像に関する情報である。「時刻情報」は、「監視カメラ画像」に対応付けられた監視カメラ20によって撮影された時刻に関する情報である。 The "camera ID" is an identifier that identifies the surveillance camera 20. The “surveillance camera image” is information related to the surveillance camera image associated with the “camera ID”. The "time information" is information regarding the time taken by the surveillance camera 20 associated with the "surveillance camera image".
例えば、図4では、カメラIDによって識別された「SC1」は、監視カメラ画像が「FIM1」であり、時刻情報が「DA1」である。なお、図4に示した例では、監視カメラ画像及び時刻情報を「FIM1」及び「DA1」といった抽象的な符号で表現したが、監視カメラ画像及び時刻情報は、画像に関する具体的なファイル形式や、日時を示す数値等であってもよい。 For example, in FIG. 4, the surveillance camera image of "SC1" identified by the camera ID is "FIM1" and the time information is "DA1". In the example shown in FIG. 4, the surveillance camera image and the time information are represented by abstract codes such as "FIM1" and "DA1", but the surveillance camera image and the time information have a specific file format related to the image and the time information. , A numerical value indicating the date and time, or the like.
(車載カメラ画像記憶部SISMについて)
続いて、図5に、実施形態に係る車載カメラ画像記憶部SISMの一例を示す。図5は、実施形態に係る車載カメラ画像記憶部SISMの一例を示す図である。図5に示した例では、車載カメラ画像記憶部SISMは、「自動車ID」、「車載カメラ画像」、「時刻情報」といった項目を有する。
(About in-vehicle camera image storage SISM)
Subsequently, FIG. 5 shows an example of the vehicle-mounted camera image storage unit SISM according to the embodiment. FIG. 5 is a diagram showing an example of the vehicle-mounted camera image storage unit SISM according to the embodiment. In the example shown in FIG. 5, the vehicle-mounted camera image storage unit SISM has items such as "vehicle ID", "vehicle-mounted camera image", and "time information".
「自動車ID」は、自動車10を識別する識別子である。「車載カメラ画像」は、「自動車ID」に対応付けられた車載カメラ画像に関する情報である。「時刻情報」は、「車載カメラ画像」に対応付けられた自動車10が有する車載装置によって撮影された時刻に関する情報である。
The "vehicle ID" is an identifier that identifies the
例えば、図5では、自動車IDによって識別された「MO1」は、車載カメラ画像が「SIM1」であり、時刻情報が「DA1」である。なお、図5に示した例では、車載カメラ画像及び時刻情報を「SIM1」及び「DA1」といった抽象的な符号で表現したが、車載カメラ画像及び時刻情報は、画像に関する具体的なファイル形式や、日時を示す数値等であってもよい。 For example, in FIG. 5, the vehicle-mounted camera image of the “MO1” identified by the vehicle ID is “SIM1” and the time information is “DA1”. In the example shown in FIG. 5, the in-vehicle camera image and time information are represented by abstract codes such as “SIM1” and “DA1”, but the in-vehicle camera image and time information may have a specific file format related to the image or the time information. , A numerical value indicating the date and time, or the like.
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、推定画像記憶部121と、宛先記憶部122を有する。
(About storage unit 120)
The
(推定画像記憶部121について)
実施形態に係る推定画像記憶部121は、監視カメラ画像に基づいて推定された推定画像を記憶する。ここで、図6に、実施形態に係る推定画像記憶部121の一例を示す。図6に示した例では、推定画像記憶部121は、「推定画像ID」、「推定画像」、「時刻情報」といった項目を有する。
(About the estimated image storage unit 121)
The estimated
「推定画像ID」は、推定画像を識別する識別子である。「推定画像」は、「推定画像ID」に対応付けられた推定画像に関する情報である。「時刻情報」は、「推定画像」に対応付けられた推定画像が撮影されたと推定された時刻に関する情報である。 The "estimated image ID" is an identifier that identifies the estimated image. The "estimated image" is information about the estimated image associated with the "estimated image ID". The "time information" is information related to the estimated time when the estimated image associated with the "estimated image" was taken.
例えば、図6では、推定画像IDによって識別された「CA1」は、推定画像が「PIM1」であり、時刻情報が「DA1」である。なお、図6に示した例では、推定画像及び時刻情報を「PIM1」及び「DA1」といった抽象的な符号で表現したが、推定画像及び時刻情報は、画像に関する具体的なファイル形式や、日時を示す数値等であってもよい。 For example, in FIG. 6, the estimated image of “CA1” identified by the estimated image ID is “PIM1” and the time information is “DA1”. In the example shown in FIG. 6, the estimated image and time information are represented by abstract codes such as "PIM1" and "DA1", but the estimated image and time information are represented by a specific file format related to the image and the date and time. It may be a numerical value or the like indicating.
(宛先記憶部122について)
実施形態に係る宛先記憶部122では、自動車の自動車IDと連絡先といった宛先とが対応付けて記憶される。ここで、図7は、実施形態に係る宛先記憶部122の一例を示す図である。図7に示した例では、宛先記憶部122は、「自動車ID」と「宛先」といった項目を有する。「自動車ID」は、自動車10を識別する識別子である。「宛先」は、「自動車ID」に対応付けられた宛先であり、例えば、メールアドレス等である。
(About destination storage unit 122)
In the
例えば、図7では、宛先記憶部122は、自動車ID「MO1」が示す自動車の宛先が「AD1」である。なお、図6では、宛先を「AD1」等の抽象的な符号で表現したが、宛先は、メールアドレスや、IPアドレス等の通知先を示すための各種情報である。
For example, in FIG. 7, in the
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(交通リスク低減プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The control unit 130 is a controller, and for example, various programs (traffic risk reduction programs) stored in a storage device inside the
図3に示すように、制御部130は、取得部131と、判定部132と、推定部133と、特定部134と、通知部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 3, the control unit 130 includes an
(取得部131について)
取得部131は、各種情報を取得する。具体的には、取得部131は、自動車10の車載装置によって撮影された車載カメラ画像と、監視カメラ20によって撮影された監視カメラ画像とを取得する。より具体的な例を挙げると、取得部131は、監視カメラ画像提供装置FISから、監視カメラ画像記憶部FISMに登録された各種情報を取得し、車載カメラ画像提供装置SISから、車載カメラ画像記憶部SISMに登録された各種情報を取得する。
(About acquisition unit 131)
The
例えば、図1の例では、取得部131は、監視カメラ21によって撮影された非コネクテッド車両CA1を含む監視カメラ画像を取得する。また、図1の例では、取得部131は、監視カメラ22によって撮影された自動車10を含む監視カメラ画像を取得する。この場合、図1の例では、監視カメラ21によって撮影された監視カメラ画像には、法定速度を大幅に超えて走行する非コネクテッド車両CA1が撮影されているものとする。また、監視カメラ22によって撮影された監視カメラ画像には、自動車10を含む監視カメラ画像が撮影されているものとする。そして、取得部131は、取得された各種情報を記憶部120に登録する。
For example, in the example of FIG. 1, the
また、取得部131は、監視カメラ画像とともに、監視カメラ画像が撮影された角度に関する情報である監視カメラの角度情報を取得する。また、取得部131は、車載カメラ画像とともに、車載カメラ画像が撮影されたと推定される車載カメラの角度情報を取得する。
In addition, the
(判定部132について)
判定部132は、監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車であるか否かを判定する。また、判定部132は、監視カメラによって撮影された自動車が交通ルールを所定の回数以上違反している自動車である場合は、自動車を危険自動車と判定する。
(About judgment unit 132)
The
判定部132は、監視カメラ20によって撮影された監視カメラ画像を参照し、監視カメラ画像に移る自動車が交通事故を起こす可能性が高い危険自動車であるか否かを判定する。例えば、判定部132は、取得部131が監視カメラ画像記憶部ISMから取得した監視カメラ画像を受付けると、撮影された自動車10が所定の条件を満たすか否かに基づいて、自動車10が危険自動車であるか否かを判定する。
The
例えば、判定部132は、撮影された自動車10が所定の運転操作で走行する場合、所定の閾値以上の速度で走行する場合、又は、所定の回数以上の交通ルールに違反していた場合の少なくともいずれか1つである場合に、危険自動車であると判定する。
For example, the
なお、判定部132は、自動車10が蛇行運転を繰り返す場合に、自動車10を危険自動車と判定してもよい。すなわち、判定部132は、監視カメラ20から取得した監視カメラ画像において、非コネクテッド車両CA1が蛇行運転を繰り返している場合は、非コネクテッド車両CA1が交通事故を起こす可能性が高い所定の運転操作で走行しているため、非コネクテッド車両CA1を危険自動車と判定する。
The
一方、判定部132は、監視カメラ20から取得した監視カメラ画像において、非コネクテッド車両CA1が交通ルールを遵守した走行を行っている場合に、非コネクテッド車両CA1が交通事故を起こす可能性が低い所定の運転操作で走行しているため、非コネクテッド車両CA1を危険自動車と判定しない。
On the other hand, in the surveillance camera image acquired from the surveillance camera 20, the
また、例えば、判定部132は、監視カメラ20から取得した監視カメラ画像において、非コネクテッド車両CA1が法定速度以上の速度で走行している場合に、非コネクテッド車両CA1を危険自動車と判定し、非コネクテッド車両CA1が法定速度未満の速度で走行している場合に、非コネクテッド車両CA1を危険自動車と判定せずともよい。
Further, for example, in the surveillance camera image acquired from the surveillance camera 20, the
また、例えば、非コネクテッド車両CA1を含む監視カメラ画像を画像解析技術等の従来技術を用いることで、非コネクテッド車両CA1のナンバープレートを特定したものとする。この場合、判定部132は、ナンバープレートに対応付けられた非コネクテッド車両CA1の交通ルールに違反した違反履歴を取得し、所定の回数以上の交通ルールに違反しているときに、非コネクテッド車両CA1を危険自動車と判定してもよい。一方、判定部132は、非コネクテッド車両CA1が所定の回数未満しか交通ルールに違反していなかったときに、非コネクテッド車両CA1を危険移動体と判定せずともよい。
Further, for example, it is assumed that the license plate of the non-connected vehicle CA1 is specified by using a conventional technique such as an image analysis technique for a surveillance camera image including the unconnected vehicle CA1. In this case, the
また、判定部132は、監視カメラ画像に含まれる自動車が交通事故に巻き込まれる可能性が高い自動車であるか否かを判定する。例えば、判定部132は、監視カメラ画像に像が含まれる自動車10のいずれかを危険移動体と判定した場合に、監視カメラ画像に像が含まれる他の自動車10であって、交通事故に巻き込まれる可能性が高い他の自動車10を対象自動車と判定する。また、判定部132は、監視カメラ画像に像が含まれる自動車10のいずれかを危険移動体と判定した場合に、監視カメラ画像に像が含まれる他の自動車10であって、交通事故に巻き込まれる可能性が高い他の自動車10を対象自動車と判定する。
In addition, the
例えば、危険自動車が撮影された監視カメラ21と、他の自動車10が撮影された監視カメラ22との位置関係が既知であり、監視カメラ21と、監視カメラ22との距離が所定の距離未満であるものとする。この場合、判定部132は、危険自動車と、自動車10とが所定の距離未満であるため、監視カメラ画像に像が含まれる自動車10が交通事故に巻き込まれる可能性が高い対象自動車であると判定する。なお、判定部132は、危険自動車と同じ監視カメラ画像に像が含まれる自動車10や、所定の時間内に危険自動車と同じ監視カメラ20により撮影された他の自動車10を交通事故に巻き込まれる可能性が高い対象自動車であると判定してもよい。
For example, the positional relationship between the
また、例えば、判定部132は、判定された危険自動車が自動車10の死角近傍に位置する場合に、監視カメラ画像に含まれる自動車10が交通事故に巻き込まれる可能性が高い自動車であると判定し、かかる自動車10を対象自動車と判定する。ここで、自動車10の死角は、危険自動車の向き及び速度と、自動車10の向き及び速度とに基づいて推定される。例えば、自動車10の死角は、自動車10の側面等である。
Further, for example, the
(推定部133について)
推定部133は、各種情報を推定する。具体的には、推定部133は、監視カメラ20によって撮影された監視カメラ画像に基づいて、監視カメラ20によって撮影された又は監視カメラ20近傍に存在する自動車10に搭載された車載カメラによって撮影される画像を推定する。また、推定部133は、判定部132によって判定された危険自動車と所定の位置関係に所在する自動車を対象自動車として、推定画像を推定する。例えば、推定部133は、取得部131によって取得された監視カメラ画像から、対象自動車の車載装置によって撮影されると予測される推定画像を生成する。
(About estimation unit 133)
The
ここで、一の監視カメラ画像だけでは、取得される情報に限りがあり、一の監視カメラ画像に基づいて推定画像を生成してしまうと、精度の低い推定画像が生成される恐れがある。そのため、推定部133は、複数の監視カメラから取得された監視カメラ画像を用いて、推定画像を生成する。具体的には、推定部133は、第1監視カメラが撮影した第1監視カメラ画像と、第1監視カメラとは異なる第2監視カメラが撮影した第2監視カメラ画像とに基づいて、推定画像を推定する。例えば、推定部133は、監視カメラ20によって継続的に撮影された各種監視カメラ画像や、監視カメラ20の近傍に設置された他の監視カメラ20によって撮影された各種監視カメラ画像を用いて、推定画像を生成する。この場合、推定部133は、対象自動車の向きや、速度や、大きさ及び車高等に基づいて、推定画像を生成する。そして、推定部133は、かかる推定画像を推定画像記憶部121に記憶する。
Here, the information that can be acquired is limited only by one surveillance camera image, and if an estimated image is generated based on one surveillance camera image, an estimated image with low accuracy may be generated. Therefore, the
また、監視カメラ毎に設置される向きや、監視カメラ毎に位置する地形等が異なる場合がある。この場合、監視カメラ画像毎に設置される向きや、位置する地形に基づく補正処理を行わないで、推定画像を生成してしまうと、精度の低い推定画像が生成される恐れがある。そのため、推定部133は、監視カメラ画像毎に設置される向きや、位置する地形に基づく補正処理を行う。具体的には、推定部133は、監視カメラ画像と、監視カメラ20が撮影された際の監視カメラの向きと、監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定する。
In addition, the orientation installed for each surveillance camera and the terrain located for each surveillance camera may differ. In this case, if the estimated image is generated without performing the correction process based on the orientation installed for each surveillance camera image or the terrain in which it is located, an estimated image with low accuracy may be generated. Therefore, the
例えば、推定部133は、取得部131によって取得された監視カメラの角度情報に基づいて、推定画像を生成し、かかる推定画像を推定画像記憶部121に記憶する。例えば、監視カメラの角度情報には、監視カメラ20の撮影角度として、監視カメラ20が設置された地形に基づいて、各方位に対する座標から算出された角度等が含まれる。なお、このような推定画像の生成処理は、ある視点から撮影された画像から、他の視点から撮影された画像を推定する各種推定技術等により実現可能である。
For example, the
(特定部134について)
特定部134は、各種情報を特定する。具体的には、特定部134は、推定画像記憶部121を参照して、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。そして、特定部134は、特定した自動車と、監視カメラ画像に撮影された対象自動車とを紐付けることで、監視カメラ画像に撮影された対象自動車への通知を実現する。
(About specific part 134)
The
例えば、特定部134は、推定画像記憶部121に記憶される推定画像を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索する。そして、特定部134は、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20により撮影された対象自動車として特定する。すなわち、特定部134は、推定画像と車載カメラ画像とのマッチング結果に基づいて、宛先が既知となるコネクテッド車両のうち、推定画像と対応する車載カメラ画像を撮影したコネクテッド車両を、監視カメラ画像に撮影された対象自動車に紐付ける。
For example, the
特定処理についてより具体的な例を挙げると、図2の例では、特定部134は、推定部133によって生成された推定画像PIM1と、車載カメラ画像SIM1とのマッチングを行う。例えば、特定部134は、推定画像PIM1と、車載カメラ画像SIM1との画像の類似性を示す度合いである類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
To give a more specific example of the specific processing, in the example of FIG. 2, the
この場合、特定部134は、車載カメラ画像SIM1と推定画像PIM1とに既知の建造物TO1が含まれる場合、車載カメラ画像SIM1に含まれる建造物TO1と、推定画像PIM1に含まれる建造物TO1とを比較することで類似度を算出する。
In this case, when the vehicle-mounted camera image SIM1 and the estimated image PIM1 include the known building TO1, the
例えば、特定部134は、車載カメラ画像SIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置と、推定画像PIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置とから、類似度を算出する。なお、このような類似度を算出する算出処理は、画像解析や、画像マッチング等の従来技術により実現可能である。また、特定部134は、車載カメラ画像SIM1から抽出された特徴量と、推定画像PIM1から抽出された特徴量との比較を行うことで、類似度を算出してもよい。そして、特定部134は、算出された類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
For example, the
そして、特定部134は、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定した場合、対象自動車TC10と、車載カメラ画像SIM1を撮影した車載装置が搭載された自動車10とを紐付ける。このような処理を行うことで、特定部134は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車10を特定することができる。これにより、特定部134は、監視カメラ画像に撮影された対象自動車TC10と、特定した自動車10の自動車IDとを紐付けることで、対象自動車TC10と自動車10との紐付けを実現する。そして、特定部134は、特定した自動車IDと対応付けられた宛先を、対象自動車TC10の宛先として特定する。
Then, when it is determined that the vehicle-mounted camera image SIM1 and the estimated image PIM1 correspond to each other, the
なお、特定部134は、監視カメラ20によって監視カメラ画像が撮影された日時と、自動車10の車載装置によって車載カメラ画像が撮影された日時との同一性に基づく特定処理を行ってもよい。例えば、特定部134は、車載カメラ画像と推定画像とに基づいて算出された類似度が所定の閾値以上であり、かつ、車載カメラ画像が撮影された日時と、推定画像が撮影されると予測される日時とが同時刻(例えば、数秒以内)に収まる場合は、対象自動車と、車載カメラ画像を撮影した車載装置が搭載された自動車10とを紐付けてもよい。
In addition, the
(通知部135について)
通知部135は、各種情報を通知する。具体的には、通知部135は、特定部134により特定された自動車に対し、対象自動車に対して通知すべき情報を通知する。ここで、通知すべき情報は、監視カメラが撮影した映像を分析することにより決定される。
(About notification unit 135)
The
例えば、通知部135は、特定部134により特定された自動車10の自動車IDを特定する。そして、通知部135は、特定された自動車IDと対応付けられた宛先を対象自動車の宛先として、各種の通知を行う。例えば、通知部135は、危険移動体となる車両の色や形状、車種名といった車両の特徴に関する情報を通知してもよい。また、通知部135は、危険移動体となる車両の速度に関する情報を通知してもよい。また、通知部135は、画像から推定される危険移動体となる車両の位置を通知してもよい。
For example, the
例えば、特定部134は、対象自動車に対し、自動車ID「MO1」により識別される自動車10を紐付けたものとする。このような場合、通知部135は、対象自動車の宛先として、特定された自動車10の宛先「AD1」を宛先記憶部122から特定する。そして、通知部135は、宛先「AD1」を対象自動車の宛先として、各種の通知を行う。例えば、通知部135は、非コネクテッド車両CA1が危険移動体である旨を通知する。このような処理の結果、対象自動車は、通知部135によって通知された非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、各種運転制御を行うことができる。
For example, it is assumed that the
〔4.処理手順〕
次に、図8を用いて、実施形態に係る情報処理装置100が実行する紐付処理の手順について説明する。図8は、実施形態に係る情報処理装置100が実行する紐付処理の流れの一例を示すフローチャートである。
[4. Processing procedure]
Next, the procedure of the linking process executed by the
図8に示すように、取得部131は、監視カメラ画像提供装置FISから監視カメラ画像を取得する(ステップS101)。そして、判定部132は、監視カメラ画像から、危険自動車と対象自動車とを判定する(ステップS102)。判定部132は、監視カメラ画像から、危険自動車と対象自動車とを判定しない場合(ステップS102;No)、ステップS101の前まで戻る。
As shown in FIG. 8, the
一方、推定部133は、判定部132が監視カメラ画像から、危険自動車と対象自動車とを判定した場合(ステップS102;Yes)、対象自動車の車載装置によって撮影されると予測される推定画像を推定する(ステップS103)。そして、特定部134は、車載カメラ画像のうち、推定部133によって推定された推定画像と類似する画像を検索する(ステップS104)。また、特定部134は、推定画像と類似する車載カメラ画像の送信元となる自動車を特定する(ステップS105)。そして、通知部135は、特定した自動車の宛先を対象自動車の宛先とし、注意喚起の情報を通知する(ステップS106)。
On the other hand, when the
〔5.変形例〕
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[5. Modification example]
The
〔5−1.移動体〕
上記実施形態では、自動車を例に挙げて説明してきたが、自動車の代わりに、如何なる移動体に対して適用してもよい。例えば、移動体は、自転車、ドローン、バス又は電車等である。また、移動体は、非コネクテッド車両が後付の通信装置や情報処理装置等搭載することによりコネクテッド車両になった場合の自動車や、自動運転車等でもよい。すなわち、コネクテッド車両とは、前方や後方を含む360°を撮影する撮影機能と、撮影した画像(すなわち、車載カメラ画像)を情報処理装置100へと送信する通信機能とを有していればよく、自動運転を実現可能な車両であるか否かは、問わない概念である。
[5-1. Mobile]
In the above embodiment, the automobile has been described as an example, but the present invention may be applied to any moving body instead of the automobile. For example, the moving body is a bicycle, a drone, a bus, a train, or the like. Further, the moving body may be a vehicle in which a non-connected vehicle becomes a connected vehicle by mounting a communication device, an information processing device, or the like attached later, or an autonomous driving vehicle or the like. That is, the connected vehicle may have a photographing function of photographing 360 ° including the front and the rear and a communication function of transmitting the photographed image (that is, an in-vehicle camera image) to the
〔5−2.カメラ〕
上記実施形態では、監視カメラを例に挙げて説明してきたが、監視カメラは、如何なるカメラであってもよい。例えば、典型的には、監視カメラは、車外に設置されているカメラである。例えば、監視カメラは、路側に固定されているカメラや、建築物に固定されているカメラであってもよい。また、例えば、監視カメラは、交差点上空に停留するドローンに搭載されているカメラであってもよい。例えば、カメラは、深度カメラ又は赤外線カメラ等であってもよい。また、情報処理装置100は、各種画素や画像の領域が現実世界の位置に対応するような画像を取得するカメラ以外にも、例えば、赤外線センサや各種電波センサ等が測定した対象自動車までの距離と、センサが設置された位置や向き等から、対象自動車の存在を判定し、対象自動車の各種センサが取得しうるセンサ情報を推定し、各自動車10から取得されたセンサ情報のうち、推定したセンサ情報と類似するセンサ情報の取得元となる自動車を対象自動車と紐付けてもよい。
[5-2. camera〕
In the above embodiment, the surveillance camera has been described as an example, but the surveillance camera may be any camera. For example, a surveillance camera is typically a camera installed outside the vehicle. For example, the surveillance camera may be a camera fixed to the roadside or a camera fixed to a building. Further, for example, the surveillance camera may be a camera mounted on a drone parked above the intersection. For example, the camera may be a depth camera, an infrared camera, or the like. Further, the
〔5−3.車載装置〕
上記実施形態では、車載装置を例に挙げて説明してきたが、車載装置の代わりに、如何なる端末装置に対して適用してもよい。具体的には、端末装置は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される端末装置等であってもよい。例えば、端末装置は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)、スマートウォッチ、ウェアラブルデバイス(Wearable Device)等であってもよい。
[5-3. In-vehicle device]
In the above embodiment, the vehicle-mounted device has been described as an example, but the vehicle-mounted device may be applied to any terminal device instead of the vehicle-mounted device. Specifically, the terminal device may be a terminal device or the like used by a user who accesses content such as a web page displayed on a browser or content for an application. For example, the terminal device may be a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), a smart watch, a wearable device, or the like. ..
また、例えば、車載装置は、GPS(Global Positioning System)センサ等の機能を有し、自動車の位置情報を検知し、所定の間隔(例えば毎秒1回以上)毎に取得するものとする。例えば、位置情報は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いて推定された自動車10等であってもよい。
Further, for example, the in-vehicle device has a function such as a GPS (Global Positioning System) sensor, detects the position information of the automobile, and acquires it at predetermined intervals (for example, once or more per second). For example, the location information may be the location information of the base station communicating with the vehicle, the
〔5−4.判定処理 緊急車両〕
上記実施形態では、情報処理装置100は、非コネクテッド車両CA1が、監視カメラ画像から交通事故を起こす可能性が高い自動車であるか否かを判定する判定処理の一例を説明したが、上記判定処理に限定されない。具体的には、情報処理装置100は、監視カメラ画像に含まれる非コネクテッド車両CA1が、救急車等の緊急車両か否かを判定してもよい。
[5-4. Judgment processing Emergency vehicle]
In the above embodiment, the
例えば、情報処理装置100は、画像解析等の従来技術によって監視カメラ画像を解析することで、車種や、ナンバープレート、車両の外形等から、監視カメラ画像に含まれる非コネクテッド車両CA1が、緊急車両か否かを判定する。そして、情報処理装置100は、監視カメラ画像から緊急車両の障害になりえる自動車を対象自動車と判定し、判定した対象自動車と紐付られた自動車10に通知を行ってもよい。このように、情報処理装置100は、各種状況に応じて、各種状況において特徴的な非コネクテッド車両CA1を判定することができる。これにより、情報処理装置100は、例えば、救急車が急病人を乗せ、病院に向かう場合に、自動車10が救急車の障害にならないような通知を行うことができる。
For example, the
〔5−5.推定処理 位置や、進行方向から推定画像を生成〕
上記実施形態では、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、監視カメラ20によって撮影された又は監視カメラ20近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定処理の一例を説明したが、上記推定処理に限定されない。例えば、情報処理装置100は、監視カメラ画像から対象自動車の推定画像を生成する際に、対象自動車の位置や向きに基づく推定画像を生成してもよい。
[5-5. Estimate processing Generate an estimated image from the position and the direction of travel]
In the above embodiment, the
例えば、情報処理装置100は、監視カメラ画像から対象自動車の位置と向きとを推定する。そして、情報処理装置100は、推定した位置を視点とし、推定した向きを注視点の方向とすることで、対象自動車の車載装置が撮影すると予測される画像を推定画像として生成してもよい。このように、実施形態に係る情報処理装置100は、対象自動車の位置や向きに基づく推定画像を生成するため、推定画像の精度を向上させることができる。
For example, the
〔5−6.特定処理(1)自動車の属性情報〕
上記実施形態では、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、車載カメラ画像提供装置SISに、自動車IDと、車載カメラ画像と、自動車の属性に関する情報である属性情報とが対応付けられて記憶されているものとする。この場合、情報処理装置100は、監視カメラ20によって撮影された対象自動車の属性情報を推定し、推定された対象自動車の属性情報と、車載カメラ画像提供装置SISから取得された自動車10の属性情報とが類似する場合に、自動車10を対象自動車として特定してもよい。
[5-6. Specific processing (1) Automobile attribute information]
In the above embodiment, the
例えば、自動車10の属性情報として、車両の外形、車両の色、車両の種別又は速度等に関する情報を車載カメラ画像提供装置SISから予め取得しているものとする。この場合、情報処理装置100は、推定画像を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索する。このとき、情報処理装置100は、推定画像に含まれる対象自動車の属性情報と対応する属性情報を示す自動車10が含まれる車載カメラ画像を特定する。
For example, it is assumed that information on the outer shape of the vehicle, the color of the vehicle, the type of the vehicle, the speed, and the like is acquired in advance from the vehicle-mounted camera image providing device SIS as the attribute information of the
例えば、情報処理装置100は、推定画像に含まれる対象自動車の属性情報と、車載カメラ画像に含まれる自動車10の属性情報とが同一である場合又は類似する場合に、対象自動車と、車載カメラ画像を撮影した車載装置が搭載された自動車10とを紐付ける。これにより、情報処理装置100は、高精度に特定処理を行うことができる。
For example, when the attribute information of the target vehicle included in the estimated image and the attribute information of the
〔5−7.特定処理(2)自動車以外の危険行為〕
上記実施形態では、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、自転車や、子供や、動物等と、対象自動車とが所定の距離未満であるものとして説明する。この場合、情報処理装置100は、画像解析等の従来技術を用いることで、監視カメラ20から取得された監視カメラ画像から、自転車や、子供や、動物等を特定したものとする。この場合、情報処理装置100は、監視カメラ20から取得された監視カメラ画像から、自転車や、子供や、動物等が死角に存在すると推定される自動車を対象自動車として特定し、特定した対象自動車と紐付られた自動車10の宛先を対象自動車の宛先として特定する。
[5-7. Specific processing (2) Dangerous acts other than automobiles]
In the above embodiment, the
このように、実施形態に係る情報処理装置100は、自転車や、子供や、動物等が飛び出した場合でも対象自動車の宛先を特定することで、交通事故を未然に防ぐことができる。従来、自動車10が車載カメラを有する場合でも、自動車以外の自転車や、子供や、動物等が車載カメラで把握できない死角に入りこみ、車載カメラから自転車や、子供や、動物等を認識できない場合があった。この場合、自動車10の死角から、自転車や、子供や、動物等が飛び出してきた場合に交通事故に遭遇してしまう。この課題に対して、情報処理装置100は、自転車や、子供や、動物等が飛び出した場合でも対象自動車の宛先を特定することができる。これにより、自動車10は、交通事故を未然に防ぐことができる。
As described above, the
〔5−8.特定処理(3)違反車両〕
上記実施形態では、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車10を特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、停車禁止違反である対象自動車を特定する。また、情報処理装置100は、かかる特定された対象自動車であって、停車禁止違反である対象自動車に対して、上述した特定処理を行うことで、停車禁止違反である対象自動車に対応する自動車10の自動車IDや、宛先を特定してもよい。
[5-8. Specific processing (3) Violating vehicle]
In the above embodiment, the
そして、情報処理装置100は、特定された自動車IDから、所定の期間後に、罰金等の請求に関する情報を警察等に提供してもよい。また、情報処理装置100は、特定された自動車IDに対応付けて、違反を繰り返す危険自動車であるといったフラグを所定の記憶部に記憶してもよい。このような処理を行う場合、情報処理装置100は、特定結果を用いた通知を行わずともよい。
Then, the
なお、上記変形例は、停車禁止違反である自動車の代わりに、如何なる違反をした自動車に適用可能である。例えば、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、追越し禁止違反である対象自動車を特定する。また、情報処理装置100は、かかる特定された対象自動車であって、追越し禁止違反である対象自動車に対して、特定処理を行うことで、追越し禁止違反である対象自動車に対応する自動車10の自動車IDや、宛先を特定してもよい。
It should be noted that the above modification can be applied to a vehicle that violates any kind of vehicle instead of a vehicle that violates the prohibition of stopping. For example, the
〔5−9.特定処理(4)危険走行を行う非コネクテッド車両を特定〕
上記実施形態では、情報処理装置100は、車載カメラ画像に含まれる建造物の外形や、他の物体及び風景等から推定される建造物の相対的な位置と、推定画像に含まれる建造物の外形や、他の物体及び風景等から推定される建造物の相対的な位置とから、類似度を算出する処理の一例を説明したが、建造物の代わりに、如何なる物体に対して上記特定処理を適用してもよい。例えば、物体は、危険自動車等であってもよい。
[5-9. Specific processing (4) Identify unconnected vehicles that drive dangerously]
In the above embodiment, the
ここで、図9を用いて特定処理について説明する。図9は、変形例に係る情報処理装置が実行する特定処理の具体例を示す図である。情報処理装置100は、監視カメラ画像に含まれる危険自動車と、車載カメラ画像に含まれる危険自動車とを対応付けることで、車載カメラ画像が取得された自動車10の宛先を特定する(ステップS31)。
Here, the specific process will be described with reference to FIG. FIG. 9 is a diagram showing a specific example of the specific processing executed by the information processing apparatus according to the modified example. The
例えば、図9の例では、情報処理装置100は、監視カメラ画像として、自動車CA2を含む監視カメラ画像FIM2を監視カメラ画像提供装置FISから取得する。このとき、情報処理装置100は、画像解析等の従来技術を用いることで、自動車CA2を特定する。なお、監視カメラ画像FIM2に含まれる自動車CA2が危険自動車であるものとする。
For example, in the example of FIG. 9, the
また、情報処理装置100は、車載カメラ画像として、自動車CA2を含む載カメラ画像SIM2を車載カメラ画像提供装置SISから取得する。このとき、情報処理装置100は、画像解析等の従来技術を用いることで、自動車CA2を特定する。なお、車載カメラ画像SIM2に含まれる自動車CA2が危険自動車であるものとする。
Further, the
そして、情報処理装置100は、画像解析等の従来技術を用いて、ナンバープレートや、車両の種別、車両の外形や、車両の色等の情報の類似性から、監視カメラ画像FIM2に含まれる自動車CA2と、車載カメラ画像SIM2に含まれる自動車CA2とが同一であると判定する。例えば、情報処理装置100は、監視カメラ画像FIM2に含まれる自動車CA2と、車載カメラ画像SIM2に含まれる自動車CA2との類似度を算出する。
Then, the
例えば、情報処理装置100は、監視カメラ画像FIM2に含まれる自動車CA2と、車載カメラ画像SIM2に含まれる自動車CA2とのナンバープレートや、車両の種別、車両の外形や、車両の色等の情報に基づいて、類似度を算出する。なお、このような類似度を算出する算出処理は、画像解析や、画像マッチング等の従来技術により実現可能である。また、情報処理装置100は、監視カメラ画像FIM2に含まれる自動車CA1の像から抽出された特徴量と、車載カメラ画像SIM2に含まれる自動車CA1の像から抽出された特徴量との比較を行うことで、類似度を算出してもよい。そして、情報処理装置100は、算出された類似度が所定の閾値以上である場合に、監視カメラ画像FIM2と車載カメラ画像SIM2とが対応すると判定する。
For example, the
そして、情報処理装置100は、監視カメラ画像FIM2と車載カメラ画像SIM2とが対応すると判定した場合、車載カメラ画像SIM2を撮影した車載カメラが搭載された自動車10を特定することができる。これにより、情報処理装置100は、監視カメラ画像FIM2と、車載カメラ画像SIM2とを紐付けることで特定した自動車10の自動車IDを特定することを実現する。
Then, when the
〔5−10.特定処理(5)常時特定〕
上記実施形態では、情報処理装置100は、自動車10が交通事故に遭う可能性が高いことが監視カメラ20によって検出された場合に、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車10を、監視カメラ20により撮影された対象自動車として特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、情報処理装置100は、自動車10が交通事故に遭う可能性が高いことが監視カメラ20によって検出された場合に限らず、推定画像を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索し、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20によって撮影された対象自動車として常時、特定してもよい。これにより、情報処理装置100は、予め適切な宛先を迅速に特定することができるため、交通事故等を未然に防ぐことができる。
[5-10. Specific processing (5) Always specific]
In the above embodiment, the
〔5−11.通知処理(1)通知内容〕
上記実施形態では、情報処理装置100は、非コネクテッド車両に関する注意喚起を示す情報として、如何なる情報を通知してもよい。例えば、非コネクテッド車両に関する注意喚起を示す情報は、ナンバープレートや、車両の種別、車両の外形や、車両の色等の非コネクテッド車両の特徴や、非コネクテッド車両の推定運行速度や、非コネクテッド車両の位置情報等を含む。また、非コネクテッド車両に関する注意喚起を示す情報は、自動車10に対する走行に関する制御情報等を含む。
[5-11. Notification processing (1) Notification content]
In the above embodiment, the
〔5−12.通知処理(2)通知態様〕
上記実施形態では、非コネクテッド車両に関する注意喚起を示す情報の通知態様は、如何なる態様であってもよい。例えば、通知態様は、自動車10のみが取得する通知態様であってもよい。また、通知態様は、自動車10の搭乗者に理解できる態様であってもよい。
[5-12. Notification processing (2) Notification mode]
In the above embodiment, the notification mode of the information indicating the alert regarding the unconnected vehicle may be any mode. For example, the notification mode may be a notification mode acquired only by the
〔5−13.通知処理(3)違反車両〕
上記実施形態では、情報処理装置100は、非コネクテッド車両に関する注意喚起を示す情報を通知する通知処理の一例を説明したが、上記通知処理に限定されない。例えば、情報処理装置100は、停車禁止違反である自動車10に対して、紐付処理を行うことで、停車禁止違反である自動車10の自動車IDや、宛先を特定した場合に、停車禁止違反を止めるようにといった旨の内容を、かかる自動車10に通知してもよい。
[5-13. Notification processing (3) Violating vehicle]
In the above embodiment, the
なお、上記変形例は、停車禁止違反である自動車10の代わりに、如何なる違反をした自動車10に適用可能である。例えば、情報処理装置100は、追越し禁止違反である自動車10に対して、紐付処理を行うことで、追越し禁止違反である自動車10の自動車IDや、宛先を特定した場合に、追越し禁止違反を止めるようにといった旨の内容を、かかる自動車10に通知してもよい。
It should be noted that the above modification can be applied to the
〔6.他の実施形態〕
また、他の実施形態について説明する。上述してきた実施形態では、情報処理装置100が、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する処理の一例を説明した。他の実施形態では、情報処理装置100が、画像に交通事故に巻き込まれる可能性が高い自動車10が含まれる場合に、画像に含まれる自動車10のナンバープレートに基づいて、自動車10を特定する処理の例を示す。
[6. Other embodiments]
In addition, other embodiments will be described. In the above-described embodiment, the
他の実施形態では、自動車10のナンバープレートと、自動車10の宛先とが対応付けられて記憶部に記憶されているものとする。この場合、情報処理装置100は、監視カメラ画像に交通事故に巻き込まれる可能性が高い自動車10が含まれる場合に、監視カメラ画像に含まれる自動車10のナンバープレートに基づいて、自動車10を特定する。
In another embodiment, it is assumed that the license plate of the
例えば、情報処理装置100は、監視カメラ画像に交通事故に巻き込まれる可能性が高い自動車10が含まれる場合に、画像解析等の従来技術を用いて監視カメラ画像を解析することで特定された自動車10のナンバープレートと、記憶部に記憶される自動車10のナンバープレートとが一致するか否かを判定する。そして、情報処理装置100は、監視カメラ画像を解析することで特定された自動車10のナンバープレートと、記憶部に記憶される自動車10のナンバープレートとが一致すると判定した場合に、ナンバープレートに対応付けられて記憶される自動車10の宛先を特定する。
For example, when the surveillance camera image includes a
このように、他の実施形態に係る情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像から、交通事故に巻き込まれる可能性が高い自動車10に対して、交通事故に関する注意喚起等を行いたい場合に対して解決方法を提供する。例えば、情報処理装置100は、監視カメラ画像を解析することで特定された自動車10のナンバープレートと、記憶部に記憶される自動車10のナンバープレートとが一致すると判定した場合に、ナンバープレートに対応付けられて記憶される自動車10の宛先を特定する。これにより、情報処理装置100は、所定の条件を満たす移動体を好適に特定することができる。
As described above, the
また、実施形態と、他の実施形態との関係性について以下に説明する。実施形態に係る情報処理装置100は、監視カメラ20と、自動車10との角度の関係から、自動車10のナンバープレートが監視カメラ画像から特定できない場合に、優位な効果を奏する。例えば、実施形態に係る情報処理装置100は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定することで、自動車の宛先を好適に特定することができる。このように、実施形態に係る情報処理装置100は、自動車10のナンバープレートが特定できない場合でも、自動車10の宛先を特定することができる。すなわち、実施形態に係る情報処理装置100は、他の実施形態に係る情報処理装置100によって行われる処理を補足する情報を提供することができる。
In addition, the relationship between the embodiment and other embodiments will be described below. The
〔7.ハードウェア構成〕
また、上述してきた実施形態に係る自動車10の車載装置、監視カメラ20、監視カメラ画像提供装置FIS、車載カメラ画像提供装置SIS及び情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration]
Further, the in-vehicle device, the surveillance camera 20, the surveillance camera image providing device FIS, the in-vehicle camera image providing device SIS, and the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係るウェアラブルデバイス200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置100と、監視カメラ画像提供装置FISと、車載カメラ画像提供装置SISとを統合して一つの情報処理装置としてもよい。この場合、かかる情報処理装置は、監視カメラ20から撮影された監視カメラ画像を取得し、自動車10が有する車載装置によって撮影された車載カメラ画像を取得する。
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured. For example, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、特定部は、特定手段や特定回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the specific unit can be read as a specific means or a specific circuit.
〔9.効果〕
上述してきたように、実施形態に係る情報処理装置100は、推定部133と、特定部134とを有する。推定部133は、監視カメラによって撮影された監視カメラ画像に基づいて、監視カメラによって撮影された又は監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する。特定部134は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。
[9. effect〕
As described above, the
このように、実施形態に係る情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定するため、所定の条件を満たす移動体を好適に特定することができる。
As described above, the
また、実施形態に係る情報処理装置100において、推定部133は、監視カメラによって撮影された対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定し、特定部134は、複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車と、対象自動車とを紐付ける。
Further, in the
これにより、実施形態に係る情報処理装置100は、複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車と、対象自動車とを紐付けるため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、車載カメラが撮影した画像と、車載カメラが搭載された自動車を識別可能な情報とが関連付けて蓄積される車載カメラ画像記憶部SISMにアクセス可能に接続され、特定部134は、推定画像に基づいて車載カメラ画像記憶部SISMを検索し、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、推定画像に基づいて車載カメラ画像記憶部SISMを検索し、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定するため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、推定部133は、監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車である場合に、危険自動車と所定の位置関係に所在する自動車を対象自動車として、推定画像を推定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車である場合に、危険自動車と所定の位置関係に所在する自動車を対象自動車として、推定画像を推定するため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、推定部133は、監視カメラによって撮影された自動車が交通ルール違反を行っていると判断された場合に、自動車を対象自動車として推定画像を推定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、監視カメラによって撮影された自動車が交通ルール違反を行っていると判断された場合に、自動車を対象自動車として推定画像を推定するため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、推定部133は、監視カメラ画像と、監視カメラが撮影された際の監視カメラの向きと、監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、監視カメラ画像と、監視カメラが撮影された際の監視カメラの向きと、監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定するため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、監視カメラにランドマークが映っている場合に、推定部133は、車載カメラから見てランドマークがどのように映るかに基づいて推定画像を推定し、特定部134は、複数の自動車のうち、推定画像におけるランドマークの映り方と対応するようにランドマークを映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付ける。
Further, in the
これにより、実施形態に係る情報処理装置100は、複数の自動車のうち、推定画像におけるランドマークの映り方と対応するようにランドマークを映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付けるため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、監視カメラに自動車が映っている場合に、推定部133は、車載カメラから見て危険自動車がどのように映るかに基づいて推定画像を推定し、特定部134は、複数の自動車のうち、推定画像における自動車の映り方と対応するように自動車を映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付ける。
Further, in the
これにより、実施形態に係る情報処理装置100は、複数の自動車のうち、推定画像における危険自動車の映り方と対応するように危険自動車を映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付けるため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、特定部134により特定された自動車に対し、対象自動車に対して通知すべき情報を通知する通知部135をさらに備え、通知すべき情報は、監視カメラが撮影した映像を分析することにより決定される。
Further, the
これにより、実施形態に係る情報処理装置100は、特定された自動車に対し、対象自動車に対して通知すべき情報であって、監視カメラが撮影した映像を分析することにより決定される通知すべき情報を通知するため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
また、実施形態に係る情報処理装置100において、通知部135は、交通事故を起こす可能性が高い自動車に関する注意喚起を示す情報又は自動車の走行に関する制御情報を含む情報を自動車に通知する。
Further, in the
これにより、実施形態に係る情報処理装置100は、交通事故を起こす可能性が高い自動車に関する注意喚起を示す情報又は自動車の走行に関する制御情報を含む情報を自動車に通知するため、所定の条件を満たす移動体を好適に特定することができる。
As a result, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.
N ネットワーク
1 情報処理システム
10 自動車
20、21、22 監視カメラ
100 情報処理装置
110 通信部
120 記憶部
121 推定画像記憶部
122 宛先記憶部
130 制御部
131 取得部
132 判定部
133 推定部
134 特定部
135 通知部
FIS 監視カメラ画像提供装置
FISM 監視カメラ画像記憶部
SIS 車載カメラ画像提供装置
SISM 車載カメラ画像記憶部
N network 1
Claims (14)
車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定部と
を備えたことを特徴とする情報処理装置。 An estimation unit that estimates an image taken by the surveillance camera or an image taken by an in-vehicle camera mounted on a vehicle existing in the vicinity of the surveillance camera based on the surveillance camera image taken by the surveillance camera.
An information processing device including a specific unit that identifies a vehicle equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to the estimated image among a plurality of vehicles equipped with an in-vehicle camera.
前記監視カメラによって撮影された対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定し、
前記特定部は、
前記複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車と、前記対象自動車とを紐付ける
ことを特徴とする請求項1に記載の情報処理装置。 The estimation unit
An image taken by the in-vehicle camera mounted on the target vehicle taken by the surveillance camera is estimated as an estimated image, and is estimated.
The specific part is
The information processing device according to claim 1, wherein among the plurality of automobiles, an automobile equipped with an in-vehicle camera that has captured an in-vehicle camera image corresponding to the estimated image is associated with the target automobile.
前記特定部は、前記推定画像に基づいて前記記憶部を検索し、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する
ことを特徴とする請求項2に記載の情報処理装置。 An image taken by the in-vehicle camera and information that can identify the vehicle in which the in-vehicle camera is mounted are associated and stored in a storage unit that is accessible and connected.
The second aspect of claim 2, wherein the specific unit searches the storage unit based on the estimated image and identifies an automobile equipped with an in-vehicle camera that has taken an in-vehicle camera image corresponding to the estimated image. Information processing equipment.
前記監視カメラによって撮影された自動車のうち、交通事故に巻き込まれる可能性が高い自動車を前記対象自動車として、前記推定画像を推定する
ことを特徴とする請求項2に記載の情報処理装置。 The estimation unit
The information processing device according to claim 2, wherein among the automobiles photographed by the surveillance camera, the automobile having a high possibility of being involved in a traffic accident is regarded as the target automobile, and the estimated image is estimated.
前記監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車である場合に、前記危険自動車と所定の位置関係に所在する自動車を前記対象自動車として、前記推定画像を推定する
ことを特徴とする請求項4に記載の情報処理装置。 The estimation unit
When the other vehicle photographed by the surveillance camera is a dangerous vehicle having a high possibility of causing a traffic accident, the estimated image is estimated with the vehicle located in a predetermined positional relationship with the dangerous vehicle as the target vehicle. The information processing apparatus according to claim 4, wherein the information processing device is characterized by the above.
前記監視カメラによって撮影された自動車が交通ルール違反を行っていると判断された場合に、当該自動車を前記対象自動車として前記推定画像を推定する
ことを特徴とする請求項2に記載の情報処理装置。 The estimation unit
The information processing apparatus according to claim 2, wherein when it is determined that the vehicle photographed by the surveillance camera violates the traffic rules, the estimated image is estimated with the vehicle as the target vehicle. ..
前記監視カメラ画像と、当該監視カメラが撮影された際の前記監視カメラの向きと、前記監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、当該対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定する
ことを特徴とする請求項2〜6のいずれか1つに記載の情報処理装置。 The estimation unit
An in-vehicle camera mounted on the target vehicle based on the surveillance camera image, the orientation of the surveillance camera when the surveillance camera was taken, and the orientation of the in-vehicle camera of the target vehicle captured by the surveillance camera. The information processing apparatus according to any one of claims 2 to 6, wherein the image captured by the camera is estimated as an estimated image.
前記推定部は、
前記車載カメラから見て前記ランドマークがどのように映るかに基づいて前記推定画像を推定し、
前記特定部は、
前記複数の自動車のうち、前記推定画像における前記ランドマークの映り方と対応するように前記ランドマークを映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と前記対象自動車とを紐付ける
ことを特徴とする請求項2に記載の情報処理装置。 When a landmark is shown on the surveillance camera,
The estimation unit
The estimated image is estimated based on how the landmark appears when viewed from the vehicle-mounted camera.
The specific part is
Among the plurality of automobiles, the automobile equipped with the in-vehicle camera that has taken the in-vehicle camera image showing the landmark so as to correspond to the appearance of the landmark in the estimated image is specified, and the identified automobile and the vehicle. The information processing device according to claim 2, wherein the information processing device is associated with the target vehicle.
前記推定部は、前記車載カメラから見て前記自動車がどのように映るかに基づいて前記推定画像を推定し、
前記特定部は、前記複数の自動車のうち、前記推定画像における前記自動車の映り方と対応するように前記自動車を映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と前記対象自動車とを紐付ける
ことを特徴とする請求項4に記載の情報処理装置。 When the car is seen in the surveillance camera
The estimation unit estimates the estimated image based on how the vehicle looks when viewed from the vehicle-mounted camera.
Among the plurality of automobiles, the specific unit identifies and identifies an automobile equipped with an in-vehicle camera that captures an in-vehicle camera image showing the automobile so as to correspond to how the automobile is reflected in the estimated image. The information processing apparatus according to claim 4, wherein the vehicle is linked to the target vehicle.
第1監視カメラが撮影した第1監視カメラ画像と、当該第1監視カメラとは異なる第2監視カメラが撮影した第2監視カメラ画像とに基づいて、推定画像を推定する
ことを特徴とする請求項1〜9のいずれか1つに記載の情報処理装置。 The estimation unit
A claim characterized in that an estimated image is estimated based on a first surveillance camera image taken by the first surveillance camera and a second surveillance camera image taken by a second surveillance camera different from the first surveillance camera. Item 4. The information processing apparatus according to any one of Items 1 to 9.
前記通知すべき情報は、前記監視カメラが撮影した映像を分析することにより決定される
ことを特徴とする請求項1〜10のいずれか1つに記載の情報処理装置。 A notification unit for notifying the vehicle specified by the specific unit of information to be notified to the target vehicle is further provided.
The information processing apparatus according to any one of claims 1 to 10, wherein the information to be notified is determined by analyzing an image captured by the surveillance camera.
交通事故を起こす可能性が高い自動車に関する注意喚起を示す情報又は前記自動車の走行に関する制御情報を含む情報を前記自動車に通知する
ことを特徴とする請求項11に記載の情報処理装置。 The notification unit
The information processing device according to claim 11, further comprising notifying the automobile of information including alerting information regarding an automobile having a high possibility of causing a traffic accident or control information regarding the running of the automobile.
監視カメラによって撮影された監視カメラ画像に基づいて、前記監視カメラによって撮影された又は前記監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定工程と、
車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定する特定工程と
を含むことを特徴とする方法。 The way the computer does
Based on the surveillance camera image taken by the surveillance camera, an estimation step of estimating an image taken by the surveillance camera or taken by an in-vehicle camera mounted on an automobile existing in the vicinity of the surveillance camera, and an estimation process.
A method characterized by including a specific step of identifying a vehicle equipped with an in-vehicle camera that has taken an in-vehicle camera image corresponding to the estimated image among a plurality of vehicles equipped with an in-vehicle camera.
車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定する特定手順と
をコンピュータに実行させることを特徴とする交通リスク低減プログラム。 An estimation procedure for estimating an image taken by the surveillance camera or an image taken by an in-vehicle camera mounted on a vehicle existing in the vicinity of the surveillance camera based on the surveillance camera image taken by the surveillance camera, and an estimation procedure.
Traffic characterized by having a computer execute a specific procedure for identifying a vehicle equipped with an in-vehicle camera that has taken an in-vehicle camera image corresponding to the estimated image among a plurality of vehicles equipped with an in-vehicle camera. Risk reduction program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020025474A JP7047001B2 (en) | 2020-02-18 | 2020-02-18 | Traffic risk reduction programs, information processing equipment and methods |
PCT/JP2021/001720 WO2021166525A1 (en) | 2020-02-18 | 2021-01-19 | Transportation risk-reducing recording medium, information processing device, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020025474A JP7047001B2 (en) | 2020-02-18 | 2020-02-18 | Traffic risk reduction programs, information processing equipment and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021131623A true JP2021131623A (en) | 2021-09-09 |
JP7047001B2 JP7047001B2 (en) | 2022-04-04 |
Family
ID=77392123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020025474A Active JP7047001B2 (en) | 2020-02-18 | 2020-02-18 | Traffic risk reduction programs, information processing equipment and methods |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7047001B2 (en) |
WO (1) | WO2021166525A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023058142A1 (en) * | 2021-10-06 | 2023-04-13 | 三菱電機株式会社 | Information processing device, program, and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017055177A (en) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | Image processing apparatus, image processing program, and image processing system |
WO2018138980A1 (en) * | 2017-01-30 | 2018-08-02 | 日本電気株式会社 | Control system, control method, and program |
JP2019125234A (en) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | Service management apparatus and service management method |
JP2019185756A (en) * | 2018-04-05 | 2019-10-24 | トヨタ自動車株式会社 | Real-time traffic monitoring method using connected car and real-time traffic monitoring system |
JP2019196981A (en) * | 2018-05-10 | 2019-11-14 | 株式会社Soken | Travelling assist device |
-
2020
- 2020-02-18 JP JP2020025474A patent/JP7047001B2/en active Active
-
2021
- 2021-01-19 WO PCT/JP2021/001720 patent/WO2021166525A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017055177A (en) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | Image processing apparatus, image processing program, and image processing system |
WO2018138980A1 (en) * | 2017-01-30 | 2018-08-02 | 日本電気株式会社 | Control system, control method, and program |
JP2019125234A (en) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | Service management apparatus and service management method |
JP2019185756A (en) * | 2018-04-05 | 2019-10-24 | トヨタ自動車株式会社 | Real-time traffic monitoring method using connected car and real-time traffic monitoring system |
JP2019196981A (en) * | 2018-05-10 | 2019-11-14 | 株式会社Soken | Travelling assist device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023058142A1 (en) * | 2021-10-06 | 2023-04-13 | 三菱電機株式会社 | Information processing device, program, and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP7047001B2 (en) | 2022-04-04 |
WO2021166525A1 (en) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6894471B2 (en) | Patrol car patrol by self-driving car (ADV) subsystem | |
US10509414B1 (en) | Using emergency response system (EMS) vehicle telematics data to reduce accident risk | |
EP3324556B1 (en) | Visual communication system for autonomous driving vehicles (adv) | |
US10290210B2 (en) | Distracted driver notification system | |
US9786171B2 (en) | Systems and methods for detecting and distributing hazard data by a vehicle | |
US20220013008A1 (en) | System and method for using v2x and sensor data | |
JP6459220B2 (en) | Accident prevention system, accident prevention device, accident prevention method | |
WO2017029847A1 (en) | Information processing device, information processing method, and program | |
CN111919211A (en) | Turn path visualization for improved spatial and situational awareness in turn maneuvers | |
JP2020109655A (en) | Method, device, apparatus, and medium for early warning of transportation hazards | |
CN112534487B (en) | Information processing apparatus, moving body, information processing method, and program | |
US11537128B2 (en) | Detecting and responding to processions for autonomous vehicles | |
JP7537787B2 (en) | Collision prevention method, device, server and computer program | |
JP7362733B2 (en) | Automated crowdsourcing of road environment information | |
JP2022048339A (en) | Information processing device | |
WO2021010083A1 (en) | Information processing device, information processing method, and information processing program | |
JP2017111498A (en) | Driving support device | |
CN111052193B (en) | Anti-theft technique for autonomous vehicles for transporting goods | |
WO2023179494A1 (en) | Danger early warning method and apparatus, and vehicle | |
JP2020098578A (en) | Apparatus, systems, and methods for detecting, alerting, and responding to emergency vehicle | |
JP6903598B2 (en) | Information processing equipment, information processing methods, information processing programs, and mobiles | |
US11235783B2 (en) | Information processing apparatus and information processing method | |
WO2021161741A1 (en) | Information processing device, method, and recording medium, and traffic risk reduction device | |
WO2021166525A1 (en) | Transportation risk-reducing recording medium, information processing device, and method | |
JP2017126213A (en) | Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7047001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |