[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6571974B2 - DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM - Google Patents

DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6571974B2
JP6571974B2 JP2015090286A JP2015090286A JP6571974B2 JP 6571974 B2 JP6571974 B2 JP 6571974B2 JP 2015090286 A JP2015090286 A JP 2015090286A JP 2015090286 A JP2015090286 A JP 2015090286A JP 6571974 B2 JP6571974 B2 JP 6571974B2
Authority
JP
Japan
Prior art keywords
image
vehicle
situation
detection system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015090286A
Other languages
Japanese (ja)
Other versions
JP2016203886A (en
Inventor
卓己 吉本
卓己 吉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015090286A priority Critical patent/JP6571974B2/en
Publication of JP2016203886A publication Critical patent/JP2016203886A/en
Application granted granted Critical
Publication of JP6571974B2 publication Critical patent/JP6571974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)

Description

本発明は、車両の周辺の状況を検出する技術に関する。   The present invention relates to a technique for detecting a situation around a vehicle.

従来より、自動車等の車両周辺を車両に搭載した単一のカメラで撮影し、撮影画像をユーザへ送信する技術が知られている(例えば、特許文献1)。これにより、ユーザは車両から遠隔地に所在しても車両周辺の様子を把握できる。   2. Description of the Related Art Conventionally, a technique is known in which a periphery of a vehicle such as an automobile is photographed with a single camera mounted on the vehicle and a photographed image is transmitted to a user (for example, Patent Document 1). Thereby, even if the user is located in a remote place from the vehicle, the user can grasp the situation around the vehicle.

特開2003−279661号公報JP 2003-279661 A

しかし、提案された技術は、車両に単一のカメラしか搭載されず、ユーザは必ずしも車両の周囲を把握できない。また、車両に複数のカメラを搭載すると、ユーザに多くの撮影画像を送信することとなり、通信量が膨大となる。さらに、多くの撮影画像を送信されるユーザは、受信処理が煩雑となり問題となる。   However, in the proposed technique, only a single camera is mounted on the vehicle, and the user cannot always grasp the surroundings of the vehicle. If a plurality of cameras are mounted on the vehicle, a large number of captured images are transmitted to the user, resulting in a huge amount of communication. Furthermore, a user who transmits many photographed images becomes a problem because the reception process becomes complicated.

本発明は、上記課題に鑑み、車両周辺の撮影画像を車両から遠隔地に所在するユーザに送信する場合、ユーザが車両周辺の様子を明確に把握しつつも通信量を低減する技術の提供を目的とする。   In view of the above problems, the present invention provides a technique for reducing the amount of communication while the user clearly understands the state of the vehicle periphery when transmitting a captured image of the vehicle periphery to a user located in a remote location. Objective.

上記課題を解決するため、請求項1の発明は、検出装置とサーバとにより車両の周辺の状況を検出する検出システムであって、前記検出装置は、前記車両の駐車中に、該車両の周辺を撮影する複数のカメラの撮影画像を取得する取得手段と、前記複数の撮影画像を前記サーバに送信する第1送信手段と、を備え、前記サーバは、前記複数の撮影画像に基づき、前記車両の周辺の状況変化を検出する検出手段と、前記複数の撮影画像のうち、前記状況変化を示す撮影画像を選択する選択手段と、前記選択手段に選択された撮影画像を前記車両のユーザの所有する表示装置へ送信する第2送信手段と、を備える。
In order to solve the above-mentioned problem, the invention of claim 1 is a detection system for detecting a situation around a vehicle by a detection device and a server, and the detection device is arranged around the vehicle while the vehicle is parked. Acquisition means for acquiring captured images of a plurality of cameras that capture the image, and first transmission means for transmitting the plurality of captured images to the server, the server based on the plurality of captured images, the vehicle A detection unit that detects a change in the surroundings of the vehicle, a selection unit that selects a photographed image that indicates the change in situation among the plurality of photographed images, and a captured image selected by the selection unit owned by the user of the vehicle Second transmission means for transmitting to the display device .

また、請求項2の発明は、請求項1に記載の検出システムにおいて、前記検出装置は、前記複数のカメラを前記取得手段に順次に接続する接続手段、をさらに備え、前記取得手段は、接続されたカメラから前記撮影画像を取得する。
The detection system according to claim 2 is the detection system according to claim 1, wherein the detection device further includes connection means for sequentially connecting the plurality of cameras to the acquisition means. The photographed image is acquired from the captured camera.

また、請求項3の発明は、請求項1又は2に記載の検出システムにおいて、前記取得手段は、前記撮影画像を周期的に取得する。また、請求項4の発明は、請求項1ないし3のいずれかに記載の検出システムにおいて、前記サーバは、物体の形状を示すパターンデータを記憶する記憶手段、をさらに備え、前記検出手段は、前記撮影画像と前記パターンデータとの比較に基づき、前記車両の周辺の状況変化を検出する。
According to a third aspect of the present invention, in the detection system according to the first or second aspect, the acquisition unit acquires the captured image periodically. According to a fourth aspect of the present invention, in the detection system according to any one of the first to third aspects, the server further includes storage means for storing pattern data indicating the shape of the object, and the detection means includes: Based on a comparison between the captured image and the pattern data, a change in the situation around the vehicle is detected.

また、請求項5の発明は、請求項1ないし4のいずれかに記載の検出システムにおいて、前記サーバは、前記選択手段で選択された撮影画像に対し、該撮影画像を生成したカメラを識別する識別情報を重畳する画像処理手段、をさらに備える。
According to a fifth aspect of the present invention, in the detection system according to any one of the first to fourth aspects, the server identifies a camera that has generated the captured image for the captured image selected by the selection unit. Image processing means for superimposing the identification information;

また、請求項6の発明は、請求項1ないし5のいずれかに記載の検出システムにおいて、前記サーバは、前記状況変化の度合いを判定する判定手段、をさらに備え、前記選択手段は、前記状況変化の度合いが最も高い一の撮影画像を選択する。
The invention according to claim 6 is the detection system according to any one of claims 1 to 5, wherein the server further includes a determination unit that determines a degree of the state change, and the selection unit includes the state The one photographed image with the highest degree of change is selected.

請求項1ないしの発明によれば、車両の周辺の状況変化を検出した後、複数の撮影画
像のうちから状況変化を示す撮影画像を選択して車両のユーザの所有する表示装置へ送信
するので、車両のユーザは、車両から遠隔地に所在しても、車両の周辺で生じた状況変化
を少ない通信量で把握できる。
According to the first to sixth aspects of the present invention, after detecting a situation change around the vehicle, a photographed image showing the situation change is selected from a plurality of photographed images and transmitted to a display device owned by the user of the vehicle. Therefore, even if the user of the vehicle is located at a remote location from the vehicle, the user can grasp the change in the situation that has occurred around the vehicle with a small amount of communication.

また、特に請求項2の発明によれば、複数のカメラを取得手段に順次に接続し、取得手段は接続されたカメラから撮影画像を取得するので、車両の周辺の広範囲に渡って撮影した撮影画像を取得できる。   In particular, according to the invention of claim 2, a plurality of cameras are sequentially connected to the acquisition unit, and the acquisition unit acquires a captured image from the connected camera. Images can be acquired.

また、特に請求項3の発明によれば、撮影画像を周期的に取得するので、車両の周辺で生じた状況変化を周期的に検出できる。   In particular, according to the third aspect of the present invention, since captured images are periodically acquired, it is possible to periodically detect a change in the situation that has occurred around the vehicle.

また、特に請求項4の発明によれば、撮影画像とパターンデータとの比較に基づき、車両の周辺の状況変化を検出するので、適切に状況変化を検出できる。   In particular, according to the invention of claim 4, since the change in the situation around the vehicle is detected based on the comparison between the captured image and the pattern data, the change in the situation can be detected appropriately.

また、特に請求項5の発明によれば、撮影画像を生成したカメラの位置を示す位置画像を撮影画像に付するので、撮影画像を参照したユーザは、車両のどの位置に設置されたカメラで撮影した画像かを判別できる。   Further, according to the invention of claim 5, since the position image indicating the position of the camera that generated the captured image is attached to the captured image, the user who refers to the captured image can use the camera installed at which position of the vehicle. It can be discriminated whether it is a photographed image.

また、特に請求項6の発明によれば、状況変化の度合いが他の撮影画像の度合いより高い撮影画像を選択するので、ユーザは、車両の周辺で生じた状況変化を的確に把握できる。   In particular, according to the sixth aspect of the present invention, the photographed image having a higher degree of situation change than that of the other photographed images is selected, so that the user can accurately grasp the situation change that has occurred around the vehicle.

図1は、状況検出システムの概要を示す。FIG. 1 shows an overview of a situation detection system. 図2は、第1の実施の形態に係る状況検出装置の構成を示す。FIG. 2 shows the configuration of the situation detection apparatus according to the first embodiment. 図3は、車両におけるカメラの配置を示す。FIG. 3 shows the arrangement of the cameras in the vehicle. 図4は、表示装置に表示される画像の例を示す。FIG. 4 shows an example of an image displayed on the display device. 図5は、第1の実施の形態に係る状況検出装置の処理工程を示す。FIG. 5 shows processing steps of the situation detection apparatus according to the first embodiment. 図6は、第1の実施の形態に係る状況検出装置の処理工程を示す。FIG. 6 shows processing steps of the situation detection apparatus according to the first embodiment. 図7は、第1の実施の形態に係る状況検出装置の処理工程を示す。FIG. 7 shows processing steps of the situation detection apparatus according to the first embodiment. 図8は、第2の実施の形態に係る状況検出装置の構成を示す。FIG. 8 shows the configuration of the situation detection apparatus according to the second embodiment. 図9は、第2の実施の形態に係る状況検出装置の処理工程を示す。FIG. 9 shows processing steps of the situation detection apparatus according to the second embodiment.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.概要>
図1は、本発明の実施の形態に係る状況検出システム1の概要を示す。状況検出システム1は、車両2周辺の状況変化をユーザUSに通知するシステムである。すなわち、状況検出システム1は、車両2に備えた状況検出装置3が車両2の四方に配置されたカメラ4(フロントカメラ4a、リアカメラ4b、左サイドカメラ4c、右サイドカメラ4d)から取得した車両2周辺の画像を解析する。そして状況検出システム1は、例えば降雨や降雪等により車両2周辺の状況が変化したと判断すると、車両2から遠隔地に所在するユーザUSの所有する携帯機器5に、車両2周辺の状況を示す画像を表示させる。
<1. First Embodiment>
<1-1. Overview>
FIG. 1 shows an overview of a situation detection system 1 according to an embodiment of the present invention. The situation detection system 1 is a system that notifies the user US of a situation change around the vehicle 2. That is, in the situation detection system 1, the situation detection device 3 provided in the vehicle 2 is acquired from the cameras 4 (front camera 4a, rear camera 4b, left side camera 4c, and right side camera 4d) arranged on all sides of the vehicle 2. An image around the vehicle 2 is analyzed. When the situation detection system 1 determines that the situation around the vehicle 2 has changed due to, for example, rain or snowfall, the situation detection system 1 indicates the situation around the vehicle 2 to the portable device 5 owned by the user US located at a remote location from the vehicle 2. Display an image.

ユーザUSは画像を参照することで、車両2周辺の状況を把握できる。例えば、車両2周辺が大雨となり、路面を冠水した雨水WTが増加すると、車両2が損傷する恐れがある。この場合、ユーザUSは直ちに駐車位置に舞い戻り、車両2を安全な場所へ退避させることで、車両2の損傷を防止できる。   The user US can grasp the situation around the vehicle 2 by referring to the image. For example, if the rain around the vehicle 2 becomes heavy rain and the rainwater WT flooding the road surface increases, the vehicle 2 may be damaged. In this case, the user US immediately returns to the parking position, and the vehicle 2 can be prevented from being damaged by retracting the vehicle 2 to a safe place.

この際、状況検出システム1は、4つのカメラで4つの画像を取得しつつも、状況変化を最もよく表す画像のみユーザUSに送信することが好ましい。画像をユーザへ常時送信する場合や、状況変化の少ない画像を含めて送信した場合に比較して、通信量を削減できるからである。また、ユーザは、適時に適切な画像を参照でき、画像を受信することに煩わしさを感じることがないからである。このような状況検出システム1を以下に詳細に説明する。なお、以下でカメラ4と述べた場合、フロントカメラ4a、リアカメラ4b、左サイドカメラ4c、及び右サイドカメラ4dの4つのカメラを指す。   At this time, it is preferable that the situation detection system 1 transmits only the image that best represents the situation change to the user US while acquiring four images with the four cameras. This is because the amount of communication can be reduced as compared with the case where images are always transmitted to the user and the case where images including little change in situation are transmitted. Further, the user can refer to an appropriate image in a timely manner, and does not feel bothered by receiving the image. The situation detection system 1 will be described in detail below. In the following description, the camera 4 refers to four cameras: a front camera 4a, a rear camera 4b, a left side camera 4c, and a right side camera 4d.

<1−2.構成>
図2は、状況検出システム1の構成を示す。状況検出システム1は、車両2に設置された状況検出装置3及びカメラ4、並びに車両外部のユーザが所持する携帯機器5を備える。
<1-2. Configuration>
FIG. 2 shows the configuration of the situation detection system 1. The situation detection system 1 includes a situation detection device 3 and a camera 4 installed in a vehicle 2 and a portable device 5 possessed by a user outside the vehicle.

状況検出装置3は、車両2に設置されたカメラ4から画像データを受信し、受信した画像データから車両2周辺の状況及び状況の変化を検出する電子制御装置である。状況検出装置3は、制御部31、通信部32、接続部33、及び記憶部34を備える。   The situation detection device 3 is an electronic control device that receives image data from a camera 4 installed in the vehicle 2 and detects a situation around the vehicle 2 and a change in the situation from the received image data. The situation detection apparatus 3 includes a control unit 31, a communication unit 32, a connection unit 33, and a storage unit 34.

制御部31は、CPU、RAM、及びROMを備えたマイクロコンピュータである。制御部31は、状況検出装置3が備える他の構成と接続され、装置全体を制御する。制御部31の備える諸機能は後述する。   The control unit 31 is a microcomputer including a CPU, a RAM, and a ROM. The control unit 31 is connected to another configuration included in the situation detection device 3 and controls the entire device. Various functions of the control unit 31 will be described later.

通信部32は、無線通信を利用した通信機能を備え、ネットワークを介して携帯機器5等と情報通信を行う。通信機能は、例えば、WiMAX(Worldwide Interoperability for Microwave Access)やLTE(Long Term Evolution)等の無線通信技術を利用する。   The communication unit 32 includes a communication function using wireless communication, and performs information communication with the mobile device 5 and the like via a network. The communication function uses, for example, a wireless communication technology such as WiMAX (Worldwide Interoperability for Microwave Access) and LTE (Long Term Evolution).

接続部33は、カメラ4と制御部31とを接続するスイッチ機構である。接続部33は、スイッチ機構を切り替え、カメラ4のいずれかと制御部31とを接続する。接続部33は、かかる切り替えを計時部31eの計時により所定時間毎に行う。所定時間は、例えば、30[秒]である。これにより、全てのカメラ4の撮影画像が、順次に制御部31へ送信される。なお、接続部33は、本発明において接続手段として機能する。   The connection unit 33 is a switch mechanism that connects the camera 4 and the control unit 31. The connection unit 33 switches the switch mechanism to connect one of the cameras 4 and the control unit 31. The connection unit 33 performs such switching at predetermined time intervals by the time counting unit 31e. The predetermined time is, for example, 30 [seconds]. Thereby, the captured images of all the cameras 4 are sequentially transmitted to the control unit 31. In addition, the connection part 33 functions as a connection means in this invention.

記憶部34は、データを記憶するメモリである。例えば、EEPROM(Electrical Erasable Programmable Read-Only memory)や、フラッシュメモリ、磁気ディスクを備えたハードディスクドライブ等の不揮発性の記憶媒体である。記憶部34は、パターンデータ34a、識別データ34b、及びプログラム34cを記憶している。なお、記憶部34は、本発明において記憶手段として機能する。   The storage unit 34 is a memory that stores data. For example, it is a nonvolatile storage medium such as an EEPROM (Electrical Erasable Programmable Read-Only Memory), a flash memory, or a hard disk drive including a magnetic disk. The storage unit 34 stores pattern data 34a, identification data 34b, and a program 34c. The storage unit 34 functions as a storage unit in the present invention.

パターンデータ34aは、画像処理におけるパターンマッチングの手法で用いられ、物体の形状を示すパターンデータである。物体の形状は、例えば、自動車のボディー、バンパー、タイヤ、ガードレール、信号機(交通信号灯器)、電柱(電信柱又は電力柱)等の形状である。車両が駐車される位置周辺に一般的に存在する物体の形状であればよい。ただし、路面の冠水や積雪の有無を判断するために利用する場合は、タイヤなど路面付近に存在する物体、特に路面に接地する物体の形状が好ましい。冠水や積雪は路面上に発生するからである。   The pattern data 34a is pattern data that is used in a pattern matching technique in image processing and indicates the shape of an object. The shape of the object is, for example, the shape of an automobile body, bumper, tire, guardrail, traffic light (traffic signal lamp), utility pole (telephone pole or power pole), and the like. What is necessary is just the shape of the object generally existing around the position where the vehicle is parked. However, when it is used to determine whether there is flooding or snow on the road surface, the shape of an object such as a tire that exists near the road surface, particularly an object that contacts the road surface is preferable. This is because flooding and snowfall occur on the road surface.

識別データ34bは、4つのカメラ4を識別するための画像データである。例えば、「フロントカメラ」、「リアカメラ」、「左サイドカメラ」、「右サイドカメラ」を示す文字の画像である。識別データ34bは、ユーザに送信される車両2の周辺状況を示す画像に重畳される。ユーザは周辺状況の画像とともに識別データ34bを参照することで、送信された画像が車両2のどの位置に配置されたカメラで取得されたか識別できる。これにより、ユーザは車両2の周辺状況をより詳細に把握できる。なお、識別データ34bは、文字のほか図形や記号でもよい。   The identification data 34b is image data for identifying the four cameras 4. For example, it is a character image indicating “front camera”, “rear camera”, “left side camera”, and “right side camera”. The identification data 34b is superimposed on an image showing the surrounding situation of the vehicle 2 transmitted to the user. The user can identify the position where the transmitted image is acquired by the camera arranged on the vehicle 2 by referring to the identification data 34b together with the image of the surrounding situation. Thereby, the user can grasp the surrounding situation of the vehicle 2 in more detail. The identification data 34b may be a graphic or symbol in addition to characters.

プログラム34cは、制御部31により読み出され、制御部31が状況検出装置3を制御するために実行されるファームウェアである。なお、プログラム34cは、メモリカード等の記憶媒体を介し、又は、外部装置と回線で接続され、状況検出装置3に入出力され得る。   The program 34 c is firmware that is read by the control unit 31 and executed for the control unit 31 to control the situation detection device 3. The program 34c can be input / output to / from the status detection device 3 via a storage medium such as a memory card or connected to an external device via a line.

次に、前述の制御部31の備える諸機能を説明する。制御部31は、画像取得部31a、状況検出部31b、画像選択部31c、送受信部31d、計時部31e、画像処理部31f、及び判定部31gを備える。なお、画像取得部31a等の各部の機能は、制御部31の備えるCPUが記憶部34に記憶されたプログラム34cに従った演算処理で実現される。   Next, functions provided in the control unit 31 will be described. The control unit 31 includes an image acquisition unit 31a, a situation detection unit 31b, an image selection unit 31c, a transmission / reception unit 31d, a time measurement unit 31e, an image processing unit 31f, and a determination unit 31g. Note that the function of each unit such as the image acquisition unit 31 a is realized by arithmetic processing according to the program 34 c stored in the storage unit 34 by the CPU included in the control unit 31.

画像取得部31aは、カメラ4から送信される撮影画像データを取得し、取得した撮影画像データを制御部31で処理可能な形式に変換する。すなわち、画像取得部31aは、カメラ4で被写体を各々撮影した複数の撮影画像を取得する。なお、画像取得部31aは、本発明において取得手段として機能する。   The image acquisition unit 31 a acquires captured image data transmitted from the camera 4, and converts the acquired captured image data into a format that can be processed by the control unit 31. That is, the image acquisition unit 31a acquires a plurality of captured images obtained by capturing images of the subject with the camera 4. The image acquisition unit 31a functions as an acquisition unit in the present invention.

状況検出部31bは、パターンマッチングの手法を用い、車両2周辺の状況及びその変化を検出する。パターンマッチングとは、特定の形状に合致(マッチング)する画像領域を求める既知の手法である。これにより、車両周辺に存在する物体を検出できる。例えば、撮影画像中にタイヤの形状のパターンと合致する画像領域がある場合、撮影範囲内に車両の存在を検出できる。状況検出部31bは、記憶部34に記憶されているパターンデータ34aを読み出し、パターンマッチングを実行する。   The situation detection unit 31b detects a situation around the vehicle 2 and its change using a pattern matching technique. Pattern matching is a known technique for obtaining an image region that matches (matches) a specific shape. Thereby, the object which exists in the vehicle periphery can be detected. For example, when there is an image region that matches a tire shape pattern in a captured image, the presence of a vehicle can be detected within the captured range. The situation detection unit 31b reads the pattern data 34a stored in the storage unit 34 and executes pattern matching.

また、状況検出部31bは、パターンの部分毎にパターンと画像との合致度合いを検出する。パターンと画像との合致度合いとは、パターンマッチングを行った画像領域の全画素のうち、パターンデータ34aと合致した画素と合致しなかった画素との割合である。また、パターンと合致した画像領域のエッジ検出を行い、エッジが明確な領域と、不明確(欠損)な領域の割合としてもよい。   In addition, the situation detection unit 31b detects the degree of matching between the pattern and the image for each part of the pattern. The degree of matching between the pattern and the image is the ratio of the pixels that match the pattern data 34a and the pixels that do not match among all the pixels in the image area subjected to pattern matching. Alternatively, the edge of an image area that matches the pattern may be detected, and the ratio of a clear edge area to an unclear (missing) area may be used.

また、状況検出部31bは、パターン上部が合致し、かつパターン下部が合致しない場合に、路面の冠水又は積雪の発生と判定する。すなわち、車両2の周辺状況を路面の冠水又は積雪のある状況と判定する。路面の冠水又は積雪があると、雨水や雪によりパターンの合致が妨げられ、パターン上部が合致し、かつパターン下部が合致し難くなるからである。また、状況検出部31bは、撮影画像の所定領域とパターンデータ34aとの合致の度合いが前回の検出時から変化した撮影画像が一つでもある場合に、車両2の周辺状況が変化したことを検出する。   In addition, the situation detection unit 31b determines that flooding of the road surface or snow is occurring when the upper part of the pattern matches and the lower part of the pattern does not match. That is, the surrounding situation of the vehicle 2 is determined as a situation where the road surface is flooded or snow is present. This is because if there is flooding or snow on the road surface, pattern matching is hindered by rainwater or snow, the pattern upper part matches, and the pattern lower part becomes difficult to match. In addition, the situation detection unit 31b indicates that the surrounding situation of the vehicle 2 has changed when the degree of matching between the predetermined area of the photographed image and the pattern data 34a has changed from the previous detection. To detect.

また、状況検出部31bは、撮影画像の合致度合いが全体的に低い場合は、降雨や降雪、濃霧と判定する。降雨等によりパターンの合致が全体的に妨げられるからである。また、撮影画像の度合いが全体的に得られない場合は、状況の検出が不能と判定する。この場合、車両2に隣接する壁や他車のボディー等で撮影範囲が妨げられているからである。なお、状況検出部31bは、本発明において検出手段として機能する。   Moreover, the situation detection part 31b determines with rain, snowfall, and dense fog, when the matching degree of a picked-up image is low as a whole. This is because the matching of the pattern is hindered as a whole by rain or the like. Further, when the degree of the captured image cannot be obtained as a whole, it is determined that the situation cannot be detected. In this case, the shooting range is hindered by a wall adjacent to the vehicle 2 or the body of another vehicle. The situation detection unit 31b functions as detection means in the present invention.

画像選択部31cは、制御部31のRAMに記憶されている合致度合いを示すデータを参照し、画像とパターンとの合致度合いが最も低い画像を選択する。なお、画像選択部31cは、本発明において選択手段として機能する。   The image selection unit 31c refers to the data indicating the degree of matching stored in the RAM of the control unit 31, and selects the image with the lowest degree of matching between the image and the pattern. The image selection unit 31c functions as a selection unit in the present invention.

送受信部31dは、画像取得部31aがカメラ4から取得し、画像選択部31cが選択した画像データを通信部32を介して携帯機器5へ送信する。また、携帯機器5から送信される信号を受信する。なお、送受信部31dは、本発明において送信手段として機能する。   The transmission / reception unit 31d transmits the image data acquired by the image acquisition unit 31a from the camera 4 and selected by the image selection unit 31c to the portable device 5 via the communication unit 32. In addition, a signal transmitted from the mobile device 5 is received. The transmission / reception unit 31d functions as a transmission unit in the present invention.

計時部31eは、時間の経過を計るタイマーである。計時部31eは、車両2の駐車中に状況検出装置3が周期的に起動する間隔となる時間を計時する。これにより、画像取得部31aは、周期的に撮影画像を取得できる。また、接続部33がカメラ4と制御部31との接続を切り替える間隔となる時間を計測する。   The timer unit 31e is a timer that measures the passage of time. The time measuring unit 31 e measures the time that is the interval at which the situation detection device 3 is periodically activated while the vehicle 2 is parked. Thereby, the image acquisition part 31a can acquire a picked-up image periodically. In addition, the time that is the interval at which the connection unit 33 switches the connection between the camera 4 and the control unit 31 is measured.

画像処理部31fは、4つのカメラ4を識別するための画像データである識別データ34bを記憶部34から読み出し、画像取得部31aが取得した車両2の周辺状況を示す画像に、識別データ34bを重畳するよう画像処理を施す。例えば、周辺状況を示す画像に「左サイドカメラ」を示す文字画像を重畳する。ユーザは周辺状況の画像とともに識別データ34bを参照することで、送信された画像が車両のどの位置に配置されたカメラで取得されたか識別できる。これにより、ユーザは車両の周辺状況をより詳細に把握できる。また、画像処理部31fは、ユーザに送信する画像データの容量を圧縮する。これにより、通信量を低減できる。なお、画像処理部31fは、本発明において画像処理手段として機能する。   The image processing unit 31f reads identification data 34b, which is image data for identifying the four cameras 4, from the storage unit 34, and adds the identification data 34b to the image indicating the surrounding situation of the vehicle 2 acquired by the image acquisition unit 31a. Image processing is performed to superimpose. For example, a character image indicating “left side camera” is superimposed on an image indicating the surrounding situation. By referring to the identification data 34b together with the surrounding situation image, the user can identify where the transmitted image is acquired by the camera arranged in the vehicle. Thereby, the user can grasp the surrounding situation of the vehicle in more detail. In addition, the image processing unit 31f compresses the capacity of image data to be transmitted to the user. Thereby, the communication amount can be reduced. The image processing unit 31f functions as an image processing unit in the present invention.

判定部31gは、車両2周辺の状況変化の度合いを判定する。判定部31gは、状況検出部31bが検出したパターンと画像との合致度合いに基づき、車両2周辺の状況変化の度合いを判定する。すなわち、判定部31gは、パターンと画像との合致度合いが低いと車両2周辺の状況変化の度合いが高いと判定し、パターンと画像との合致度合いが高いと車両2周辺の状況変化の度合いが低いと判定する。また、判定部31gは、前回撮影した画像に基づく状況変化の度合いと、今回撮影した画像に基づく状況変化の度合いとを比較し、度合いの変化の大きさを判定してもよい。   The determination unit 31g determines the degree of situation change around the vehicle 2. The determination unit 31g determines the degree of situation change around the vehicle 2 based on the degree of matching between the pattern and the image detected by the situation detection unit 31b. That is, the determination unit 31g determines that the degree of situation change around the vehicle 2 is high when the degree of matching between the pattern and the image is low, and the degree of situation change around the vehicle 2 when the degree of coincidence between the pattern and the image is high. Judge as low. The determination unit 31g may determine the magnitude of the degree change by comparing the degree of situation change based on the previously taken image with the degree of situation change based on the currently taken image.

車両2には、状況検出装置3のほか、カメラ4が設置される。カメラ4は、レンズと撮像素子とを備え、車両2の異なる位置に各々配置される。   In addition to the situation detection device 3, a camera 4 is installed in the vehicle 2. The camera 4 includes a lens and an image sensor, and is disposed at different positions on the vehicle 2.

図3は、カメラ4が車両2に配置される位置と、カメラ4の光軸が向けられる方向とを示す。フロントカメラ4aは、車両2前端に設置され、光軸4aaが車両2の直進方向に向けられる。リアカメラ4bは、車両2後端に設置され、光軸4baが車両2の直進方向と反対方向、すなわち後進方向に向けられる。左サイドカメラ4cは、左側のサイドミラーMLに設置され、光軸4caが車両2の左方向(直進方向に対する直交方向)に向けられる。右サイドカメラ4dは、右側のサイドミラーMRに設置され、その光軸4daが車両2の右方向(直進方向に対する直交方向)に向けられる。   FIG. 3 shows the position where the camera 4 is arranged in the vehicle 2 and the direction in which the optical axis of the camera 4 is directed. The front camera 4 a is installed at the front end of the vehicle 2, and the optical axis 4 aa is directed in the straight traveling direction of the vehicle 2. The rear camera 4b is installed at the rear end of the vehicle 2, and the optical axis 4ba is directed in the direction opposite to the straight traveling direction of the vehicle 2, that is, in the reverse traveling direction. The left side camera 4c is installed in the left side mirror ML, and the optical axis 4ca is directed in the left direction of the vehicle 2 (a direction orthogonal to the straight traveling direction). The right side camera 4d is installed on the right side mirror MR, and its optical axis 4da is directed in the right direction of the vehicle 2 (a direction orthogonal to the straight traveling direction).

カメラ4の各々は、車両2周辺の異なる方向を撮影し、撮影画像を電子的に取得する。カメラ4は、焦点距離の比較的短いレンズを備え、180度以上の画角θを有する。このため、4つのカメラ4を用いることで、車両2の全周囲を撮影できる。   Each of the cameras 4 captures a different direction around the vehicle 2 and electronically acquires a captured image. The camera 4 includes a lens having a relatively short focal length, and has an angle of view θ of 180 degrees or more. For this reason, the entire periphery of the vehicle 2 can be photographed by using the four cameras 4.

図2を再度参照し、携帯機器5を説明する。携帯機器5は、ユーザに携帯され、画像を表示する機能や情報ネットワークと接続する機能等を備える情報通信端末である。例えば、携帯電話やスマートフォンである。携帯機器5は、ディスプレイ5aを備える。なお、携帯機器5は、本発明において表示装置として機能する。   The mobile device 5 will be described with reference to FIG. 2 again. The portable device 5 is an information communication terminal that is carried by a user and has a function of displaying an image, a function of connecting to an information network, and the like. For example, a mobile phone or a smartphone. The portable device 5 includes a display 5a. The portable device 5 functions as a display device in the present invention.

ディスプレイ5aは、文字や図形等の各種情報を表示し、ユーザに情報を視覚的に提示する表示装置である。例えば、液晶ディスプレイや、プラズマディスプレイ、有機ELディスプレイ等である。ディスプレイ5aは、ユーザの入力操作を受付けるタッチパネル(図示せず)を備える。   The display 5a is a display device that displays various information such as characters and graphics and visually presents the information to the user. For example, a liquid crystal display, a plasma display, an organic EL display, or the like. The display 5a includes a touch panel (not shown) that accepts user input operations.

<1−3.表示画像の例>
次に、ユーザの所持する携帯機器5のディスプレイ5aに表示されるメッセージ及び車両2周辺の画像の例を説明する。図4は、ディスプレイ5aに表示されるメッセージME及び車両2周辺の状況を示す周辺画像APを示す。図4の左図は、周辺画像APが表示される前に、状況の変化の発生のみを提示するメッセージMEの例である。メッセージMEは、例えば、「車の周辺状況に変化がありました。画像を表示しますか?」である。ユーザは、車両周辺の状況変化を憂慮しない場合には、必ずしも画像の参照を希望しない。この場合にまで画像の表示を行うと、通信容量が増加するのみならずユーザは受信処理に煩わしさを感じることとなる。したがって、車両周辺に状況変化があった場合には、まずメッセージMEをユーザに送信し、画像の参照の要否をユーザが選択することが好ましい。
<1-3. Example of display image>
Next, an example of a message displayed on the display 5a of the portable device 5 owned by the user and an image around the vehicle 2 will be described. FIG. 4 shows a message ME displayed on the display 5a and a surrounding image AP showing the situation around the vehicle 2. The left diagram of FIG. 4 is an example of a message ME that presents only the occurrence of a change in situation before the peripheral image AP is displayed. The message ME is, for example, “There has been a change in the situation around the car. Do you want to display an image?”. The user does not necessarily want to refer to the image if he / she is not concerned about the situation change around the vehicle. If the image is displayed up to this case, not only the communication capacity increases but also the user feels troublesome in the reception process. Therefore, when there is a change in the situation around the vehicle, it is preferable that the message ME is first transmitted to the user, and the user selects whether or not to refer to the image.

図4の右図は、ユーザがメッセージMEを参照して画像の参照を希望し、車両の周辺状況を撮影した周辺画像APが携帯機器5のディスプレイ5aにメッセージMSと共に表示された例である。周辺画像APと共に表示されるメッセージMSは、例えば、「車の周辺状況の画像です。」である。メッセージMEを参照することで、ユーザは、表示されている画像が車の周辺状況であることを把握できる。   The right diagram in FIG. 4 is an example in which the user wants to refer to the image with reference to the message ME, and the peripheral image AP obtained by photographing the surrounding situation of the vehicle is displayed on the display 5a of the portable device 5 together with the message MS. The message MS displayed together with the surrounding image AP is, for example, “It is an image of the situation around the car.” By referring to the message ME, the user can grasp that the displayed image is a situation around the car.

また、周辺画像APは、車両2に搭載された複数のカメラのうちどのカメラで撮影されたかを明示する文字画像PPが重畳される。文字画像PPは、例えば、「左サイドカメラ」である。ユーザは、文字画像PPを参照することで、どのカメラで撮影された画像かを認識し、車両周辺の様子をより詳細に把握できる。なお、文字画像PPに代替し、どのカメラで撮影されたかを示す図形や記号を表示してもよい。要するに、どのカメラで撮影されたかをユーザに明示できればよい。   In addition, the peripheral image AP is superimposed with a character image PP that clearly indicates which of a plurality of cameras mounted on the vehicle 2 is captured. The character image PP is, for example, a “left side camera”. By referring to the character image PP, the user can recognize which camera has taken the image and can grasp the state around the vehicle in more detail. Instead of the character image PP, a graphic or a symbol indicating which camera was used for the image may be displayed. In short, it suffices as long as it can be clearly shown to the user by which camera the image was taken.

ユーザは、車両の周辺状況を撮影した周辺画像APを参照することで、車両の周辺がどのような状況となっているか、又はどのような状況に変化したかを把握できる。例えば、自らの車両の周辺で強い雨RNが降っており、雨水WTで路面が冠水している様子を認識できる。このような場合、ユーザは即座に駐車位置に舞い戻り、車両を退避させることで、車両の損傷を防止できる。   The user can grasp the situation around the vehicle or what kind of situation has changed by referring to the surrounding image AP obtained by photographing the surrounding situation of the vehicle. For example, it can be recognized that heavy rain RN is falling around the vehicle itself and the road surface is flooded with rainwater WT. In such a case, the user can immediately return to the parking position and retract the vehicle, thereby preventing the vehicle from being damaged.

<1−4.工程>
次に、状況検出装置3の処理工程を説明する。図5は、状況検出装置3の処理工程を示す。なお、かかる処理工程は車両が駐車中に実行される。すなわち、ユーザは車両を駐車させる際、状況検出装置3を起動させる。ただし、イグニッションスイッチがオフされるのに連動し、状況検出装置3が起動してもよい。なお、状況検出装置3の処理工程は、車両の駐車中に所定の周期で繰り返し実行される。
<1-4. Process>
Next, processing steps of the situation detection device 3 will be described. FIG. 5 shows the processing steps of the situation detection apparatus 3. This processing step is performed while the vehicle is parked. That is, the user activates the situation detection device 3 when parking the vehicle. However, the situation detection device 3 may be activated in conjunction with the ignition switch being turned off. In addition, the process process of the condition detection apparatus 3 is repeatedly performed with a predetermined period while a vehicle is parked.

まず、計時部31eが車両の駐車後、又は撮影画像の前回の取得後に10[分]経過したか否か判断する(ステップS101)。すなわち、状況検出装置3は、10[分]毎に車両周辺の撮影画像を取得する。   First, the time measuring unit 31e determines whether or not 10 [minutes] have elapsed after the vehicle is parked or after the previous acquisition of the captured image (step S101). That is, the situation detection apparatus 3 acquires a captured image around the vehicle every 10 minutes.

計時部31eが10[分]経過していないと判断すると(ステップS101でNo)、処理は終了する。所定の時間が経過するまで待機し、電力消費を抑制するためである。   When the time measuring unit 31e determines that 10 [minutes] have not elapsed (No in step S101), the process ends. This is for waiting until a predetermined time elapses to suppress power consumption.

一方、計時部31eが10[分]経過したと判断すると(ステップS101でYes)、接続部33は、フロントカメラ4aと制御部31とを接続する(ステップS102)。   On the other hand, when the time measuring unit 31e determines that 10 minutes have elapsed (Yes in step S101), the connecting unit 33 connects the front camera 4a and the control unit 31 (step S102).

接続部33が制御部31とフロントカメラ4aとを接続すると、画像取得部31aが、フロントカメラ4aが撮影して得られた画像を取得し(ステップS103)、画像データを制御部31のRAMに記憶させる。   When the connection unit 33 connects the control unit 31 and the front camera 4a, the image acquisition unit 31a acquires an image obtained by photographing the front camera 4a (step S103), and the image data is stored in the RAM of the control unit 31. Remember.

画像取得部31aが画像を取得すると、接続部33は、全てのカメラ4を制御部31と接続させたか否か判断する(ステップS104)。   When the image acquisition unit 31a acquires an image, the connection unit 33 determines whether all the cameras 4 are connected to the control unit 31 (step S104).

接続部33が全てのカメラを制御部31と接続させていないと判断すると(ステップS104でNo)、処理はS102に戻り、接続部33はリアカメラ4bと制御部31とを接続する。以後、接続部33が順次に全てのカメラ4を制御部31と接続させるまで、ステップS102からステップS104までの処理が繰り返し実行される。   If the connection unit 33 determines that all the cameras are not connected to the control unit 31 (No in step S104), the process returns to S102, and the connection unit 33 connects the rear camera 4b and the control unit 31. Thereafter, the processing from step S102 to step S104 is repeatedly executed until the connection unit 33 sequentially connects all the cameras 4 to the control unit 31.

一方、接続部33が全てのカメラを制御部31と接続させたと判断すると(ステップS104でYes)、画像認識処理が実行される(ステップS105)。画像認識処理は、パターンマッチングの手法を用い、撮影画像の所定領域とパターンデータ34aとの合致の度合い等を導出し、車両の周辺状況及びその変化を判断するための処理である。画像認識処理の詳細は後述する。   On the other hand, if the connection unit 33 determines that all the cameras have been connected to the control unit 31 (Yes in step S104), an image recognition process is executed (step S105). The image recognition process is a process for deriving the degree of coincidence between a predetermined area of the captured image and the pattern data 34a using a pattern matching method and determining the surrounding situation of the vehicle and its change. Details of the image recognition processing will be described later.

画像認識処理(ステップS105)が実行されると、状況検出部31bは、処理結果に基づき車両の周辺状況が変化したか否か判断する(ステップS106)。すなわち、状況検出部31bは、撮影画像の所定領域とパターンデータ34aとの合致の度合いが前回の検出時から変化した撮影画像が一つでもある場合に、車両2の周辺状況が変化したことを検出する。   When the image recognition process (step S105) is executed, the situation detection unit 31b determines whether the surrounding situation of the vehicle has changed based on the processing result (step S106). That is, the situation detection unit 31b indicates that the surrounding situation of the vehicle 2 has changed when the degree of matching between the predetermined area of the photographed image and the pattern data 34a has changed from the previous detection. To detect.

状況検出部31bが車両の周辺状況が変化していないと判断すると(ステップS106でNo)、処理は終了する。車両の周辺状況が変化していない以上、ユーザへ撮影画像を送信する必要はないからである。処理が終了すると、状況検出装置3は次回の処理が開始されるまで待機する。すなわち、約10[分]間待機する。   When the situation detection unit 31b determines that the situation around the vehicle has not changed (No in step S106), the process ends. This is because it is not necessary to transmit the captured image to the user as long as the surrounding situation of the vehicle has not changed. When the process ends, the status detection device 3 waits until the next process is started. That is, it waits for about 10 [minutes].

一方、状況検出部31bが車両の周辺状況が変化したと判断すると(ステップS106でYes)、送受信部31dは、メッセージMEを携帯機器5へ送信する(ステップS107)。この際、送受信部31dが送信するメッセージMEは、前述の通り、例えば「車の周辺状況に変化がありました。画像を表示しますが?」である。これにより、ユーザは、自らの車の周辺状況に変化があったことを把握できる。さらにユーザは、希望すれば画像により視覚的に車両の周辺状況を参照できることを認識できる。   On the other hand, when the situation detection unit 31b determines that the surrounding situation of the vehicle has changed (Yes in step S106), the transmission / reception unit 31d transmits the message ME to the portable device 5 (step S107). At this time, the message ME transmitted by the transmission / reception unit 31d is, for example, “There has been a change in the situation around the car. Do you want to display an image?” As described above. Thereby, the user can grasp that there was a change in the surrounding situation of his / her car. Further, the user can recognize that the surrounding situation of the vehicle can be visually referred to by an image if desired.

送受信部31dは、メッセージMEを携帯機器5へ送信すると、ユーザが画像の参照を希望するか否かを判断する(ステップS108)。かかる判断は、送受信部31dが携帯機器5から送信されるユーザの希望を示す信号を受信して行う。   When the message ME is transmitted to the mobile device 5, the transmission / reception unit 31d determines whether or not the user desires to refer to the image (step S108). This determination is performed by the transmission / reception unit 31d receiving a signal indicating the user's wish transmitted from the mobile device 5.

送受信部31dが、ユーザが画像の参照を希望しないと判断すると(ステップS108でNo)、処理は終了する。ユーザが画像の参照を希望しない以上、ユーザへ撮影画像を送信する処理は必要ないからである。   If the transmission / reception unit 31d determines that the user does not wish to refer to the image (No in step S108), the process ends. This is because, as long as the user does not want to refer to the image, the process of transmitting the captured image to the user is unnecessary.

一方、送受信部31dが、ユーザが画像の参照を希望すると判断すると(ステップS108でYes)、画像選択処理が実行される(ステップS109)。画像選択処理は、カメラ4が撮影した4つの画像のうち、どの撮影画像が最も明確に車両の周辺状況の変化を捉えているかを判断し、ユーザに送信すべき撮影画像を選択する処理である。カメラ4が撮影して得られた画像の全てを送信するのではなく、取捨選択して撮影画像を送信することで、送信の容量を低減できる。また、必ずしも明確に車両の周辺状況の変化を捉えていない撮影画像、すなわち車両に隣接する壁等を撮影して得られた画像等の送信を防止できる。ユーザはこのような画像を参照しても何ら車両の周辺状況の変化を把握できない。画像選択処理の詳細は後述する。   On the other hand, when the transmission / reception unit 31d determines that the user wants to refer to an image (Yes in step S108), an image selection process is executed (step S109). The image selection process is a process of determining which of the four images captured by the camera 4 most clearly captures a change in the surrounding situation of the vehicle and selecting a captured image to be transmitted to the user. . Instead of transmitting all the images obtained by the camera 4, it is possible to reduce the transmission capacity by selecting and transmitting the captured images. Further, it is possible to prevent transmission of a photographed image that does not necessarily clearly capture a change in the surrounding situation of the vehicle, that is, an image obtained by photographing a wall or the like adjacent to the vehicle. Even if the user refers to such an image, the user cannot grasp any change in the situation around the vehicle. Details of the image selection process will be described later.

画像選択処理(ステップS109)が実行されると、画像処理部31fは、選択された撮影画像に対応する識別データ34bを記憶部34から読み出し、選択された撮影画像に識別データ34bを重畳するよう画像処理を行う(ステップS110)。撮影画像に重畳される識別データ34bは、例えば、「左サイドカメラ」」である。なお、画像選択処理において選択された撮影画像には、後述の通り画像選択部31cによりフラグがセットされている。したがって、画像処理部31fは、フラグレジスタを参照し、どの撮影画像が選択されたか判別する。   When the image selection process (step S109) is executed, the image processing unit 31f reads the identification data 34b corresponding to the selected captured image from the storage unit 34, and superimposes the identification data 34b on the selected captured image. Image processing is performed (step S110). The identification data 34b to be superimposed on the captured image is, for example, “left side camera”. Note that, as described later, a flag is set by the image selection unit 31c in the captured image selected in the image selection process. Therefore, the image processing unit 31f refers to the flag register and determines which captured image has been selected.

画像処理部31fは、選択された撮影画像に識別データ34bを重畳する画像処理を行うと、識別データ34bが重畳された撮影画像のデータ容量を圧縮する(ステップS111)。撮影画像のデータ容量の圧縮には、既知の静止画像の圧縮方式を用いればよい。例えば、JPEG(Joint Photographic Experts Group)やGIF(Graphics Interchange Format)等の画像圧縮方式である。   When the image processing unit 31f performs image processing for superimposing the identification data 34b on the selected captured image, the image processing unit 31f compresses the data capacity of the captured image on which the identification data 34b is superimposed (step S111). A known still image compression method may be used to compress the data capacity of the captured image. For example, it is an image compression method such as JPEG (Joint Photographic Experts Group) or GIF (Graphics Interchange Format).

画像処理部31fが撮影画像を圧縮すると、送受信部31dは、かかる撮影画像を携帯機器5へ送信する(ステップS112)。   When the image processing unit 31f compresses the captured image, the transmission / reception unit 31d transmits the captured image to the mobile device 5 (step S112).

これにより、ユーザは、車両の周辺状況の変化を画像により視覚的に把握できる。また、車両の周辺状況に変化があった場合でも、撮影した全ての画像をユーザへ送信せず、最も状況変化を明確に示す画像をユーザへ送信するので、ユーザは状況変化を明確に把握できるうえ、送信すべきデータ容量を低減できる。   Thereby, the user can visually grasp the change of the surrounding situation of the vehicle by the image. In addition, even when there is a change in the situation around the vehicle, all the captured images are not sent to the user, and an image that clearly shows the situation change is sent to the user, so the user can clearly grasp the situation change. In addition, the data capacity to be transmitted can be reduced.

次に、ステップS105で実行される画像認識処理を説明する。図6は、画像認識処理の詳細な処理工程を示す。   Next, the image recognition process executed in step S105 will be described. FIG. 6 shows the detailed processing steps of the image recognition process.

まず、状況検出部31bが、制御部31のRAMに記憶された撮影画像を読み出す(ステップS105a)。   First, the situation detection unit 31b reads a captured image stored in the RAM of the control unit 31 (step S105a).

状況検出部31bは、撮影画像を読み出すと、記憶部34からパターンデータ34aを読み出す(ステップS105b)。   When the situation detection unit 31b reads the captured image, the situation detection unit 31b reads the pattern data 34a from the storage unit 34 (step S105b).

状況検出部31bは、記憶部34からパターンデータ34aを読み出すと、撮影画像とパターンデータ34aとを対比する(ステップS105c)。   When the situation detection unit 31b reads the pattern data 34a from the storage unit 34, the situation detection unit 31b compares the captured image with the pattern data 34a (step S105c).

状況検出部31bは、撮影画像とパターンデータ34aとを対比し、撮影画像の所定領域とパターンデータ34aとが合致するか否か判断する(ステップS105d)。   The situation detection unit 31b compares the captured image with the pattern data 34a, and determines whether or not the predetermined area of the captured image matches the pattern data 34a (step S105d).

状況検出部31bは、撮影画像の所定領域とパターンデータ34aとが合致しないと判断すると(ステップS105dでNo)、記憶部34に記憶されている全てのパターンデータ34aと撮影画像を対比させたか否か判断する(ステップS105e)。   If the situation detection unit 31b determines that the predetermined area of the photographed image does not match the pattern data 34a (No in step S105d), all the pattern data 34a stored in the storage unit 34 has been compared with the photographed image. (Step S105e).

状況検出部31bは、記憶部34に記憶されている全てのパターンデータ34aと撮影画像とを対比させていないと判断すると(ステップS105eでNo)、ステップS105bに戻り、他のパターンデータ34aを読み出し、読み出したパターンデータ34aと撮影画像とを対比する。以後、撮影画像とパターンデータ34aとが合致するか、又は撮影画像と記憶部34に記憶されている全てのパターンデータ34aとの対比が完了するまで、ステップS105bからステップS105eまでの処理が繰り返し実行される。   When the situation detection unit 31b determines that all the pattern data 34a stored in the storage unit 34 is not compared with the captured image (No in step S105e), the process returns to step S105b and reads the other pattern data 34a. The read pattern data 34a and the captured image are compared. Thereafter, the processing from step S105b to step S105e is repeatedly executed until the captured image matches the pattern data 34a or until the comparison between the captured image and all the pattern data 34a stored in the storage unit 34 is completed. Is done.

一方、状況検出部31bが、全てのパターンデータ34aと撮影画像を対比させたと判断すると(ステップS105eでYes)、処理はステップS105iに進む。なお、ステップS105iの処理内容は後述する。   On the other hand, when the situation detection unit 31b determines that all the pattern data 34a has been compared with the captured image (Yes in step S105e), the process proceeds to step S105i. The processing content of step S105i will be described later.

ステップS105dにおいて、状況検出部31bは、撮影画像の所定領域とパターンデータ34aとが合致すると判断する場合(ステップS105dでYes)、撮影画像の所定領域とパターンデータ34aとの合致の度合いを導出し、かかる合致の度合いをRAMに記憶する(ステップS105f)。   In step S105d, when the situation detection unit 31b determines that the predetermined area of the captured image matches the pattern data 34a (Yes in step S105d), the degree of matching between the predetermined area of the captured image and the pattern data 34a is derived. The degree of coincidence is stored in the RAM (step S105f).

状況検出部31bは、撮影画像とパターンデータ34aとの合致度合いを記憶させると、パターンマッチングの対象となった撮影画像をRAMに記憶させる(ステップS105g)。   When the degree of coincidence between the captured image and the pattern data 34a is stored, the situation detecting unit 31b stores the captured image that has been subjected to pattern matching in the RAM (step S105g).

状況検出部31bは、パターンマッチングの対象となった撮影画像をRAMに記憶させると、全ての撮影画像、すなわちカメラ4の撮影した4つの画像全てについてパターンマッチングの処理を実行したか否か判断する(ステップS105h)。   When the situation detection unit 31b stores in the RAM the captured images to be subjected to pattern matching, the situation detection unit 31b determines whether or not the pattern matching processing has been executed for all the captured images, that is, all the four images captured by the camera 4. (Step S105h).

状況検出部31bは、全ての撮影画像についてパターンマッチングの処理を実行していないと判断すると(ステップS105hでNo)、ステップS105aの処理に戻り、パターンマッチングの処理を実行していない撮影画像を読み出し、ステップS105b以下の処理を実行する。以後、全ての撮影画像についてパターンマッチングの処理を実行するまで、ステップS105aからステップS105hまでの処理が繰り返し実行される。   If the situation detection unit 31b determines that the pattern matching process has not been executed for all the captured images (No in step S105h), the process returns to the process of step S105a, and reads the captured image that has not been subjected to the pattern matching process. Step S105b and subsequent processes are executed. Thereafter, the processing from step S105a to step S105h is repeatedly executed until the pattern matching processing is executed for all the captured images.

一方、状況検出部31bが全ての撮影画像についてパターンマッチングの処理を実行したと判断すると(ステップS105hでYes)、処理は図5の処理工程に戻り、ステップS106が実行される。ステップS106以降の処理工程は、前述の通りである。   On the other hand, when the situation detection unit 31b determines that the pattern matching processing has been executed for all the captured images (Yes in step S105h), the processing returns to the processing step in FIG. 5, and step S106 is executed. The processing steps after step S106 are as described above.

次に、ステップS109で実行される画像選択処理を説明する。図7は、画像選択処理の詳細な処理工程を示す。   Next, the image selection process executed in step S109 will be described. FIG. 7 shows the detailed processing steps of the image selection process.

画像選択処理が実行されると、画像選択部31cが、状況検出部31bにより制御部31のRAMに記憶された合致度合いを示す4つのデータを読み出す(ステップS109a)。   When the image selection process is executed, the image selection unit 31c reads four pieces of data indicating the degree of matching stored in the RAM of the control unit 31 by the situation detection unit 31b (step S109a).

画像選択部31cは、合致度合いが最も低い撮影画像を選択する(ステップS109b)。画像選択部31cは、選択した撮影画像を示すフラグレジスタのアドレスにフラグをセットする(ステップS109c)。フラグレジスタを参照すれば、どの撮影画像が選択されたか判別できる。   The image selection unit 31c selects a captured image with the lowest degree of match (step S109b). The image selection unit 31c sets a flag at the address of the flag register indicating the selected captured image (step S109c). By referring to the flag register, it is possible to determine which captured image has been selected.

ステップS109bの処理工程が実行されると、処理は図5の処理工程に戻り、ステップS110が実行される。ステップS110以降の処理工程は、前述の通りである。   When the process step of step S109b is executed, the process returns to the process step of FIG. 5, and step S110 is executed. The processing steps after step S110 are as described above.

以上の通り、第1の実施の形態の状況検出装置3は、車両の駐車中に、車両周辺を撮影する複数のカメラの撮影画像を取得し、車両周辺の状況変化を示す撮影画像を選択し、選択した撮影画像を車両のユーザの所有する表示装置へ送信する。複数の撮影画像のうちから状況変化を示す撮影画像を選択して送信するので、車両のユーザは、車両から遠隔地に所在しても、車両周辺で生じた状況変化を少ない通信量で把握できる。   As described above, the situation detection device 3 according to the first embodiment acquires the captured images of a plurality of cameras that capture the periphery of the vehicle while the vehicle is parked, and selects the captured image that indicates the change in the situation around the vehicle. The selected captured image is transmitted to the display device owned by the user of the vehicle. Since a photographed image showing a change in situation is selected from a plurality of photographed images and transmitted, the user of the vehicle can grasp the situation change occurring around the vehicle with a small amount of communication even if the user is located at a remote location from the vehicle. .

<2.第2の実施の形態>
<2−1.概要>
次に、第2の実施の形態を説明する。前述の第1の実施の形態は、車両の周辺の状況変化の検出、及び状況変化を示す撮影画像の選択等を状況検出装置3が行った。第2の実施の形態は、これらを状況検出装置3でなく車両外部に設置されたサーバが行う。また、ユーザへの撮影画像の送信もサーバが行う。これにより、状況検出装置3の処理負荷を低減できる。第2の実施の形態は、第1の実施の形態と同様の構成及び処理工程を含む。このため、第1の実施の形態との相違点を主に説明する。
<2. Second Embodiment>
<2-1. Overview>
Next, a second embodiment will be described. In the first embodiment described above, the situation detection device 3 performs the detection of the situation change around the vehicle, the selection of a captured image indicating the situation change, and the like. In the second embodiment, these are performed not by the situation detection device 3 but by a server installed outside the vehicle. The server also transmits the captured image to the user. Thereby, the processing load of the situation detection apparatus 3 can be reduced. The second embodiment includes the same configuration and processing steps as those of the first embodiment. For this reason, the difference from the first embodiment will be mainly described.

<2−2.構成>
まず、第2の実施の形態に係る状況検出システム1の構成を説明する。図8は、第2の実施の形態に係る状況検出システム1の構成を示す。第1の実施の形態との主な相違点は車両2の外部にサーバ6が設置される点である。また、状況検出装置3が備えた状況検出部、画像選択部、画像処理部、及び判定部を状況検出装置3ではなくサーバ6が備える点である。すなわち、状況検出装置3の制御部31は、画像取得部31a、送受信部31d、及び計時部31eを備える。記憶部34は、プログラム34cを備える。
<2-2. Configuration>
First, the configuration of the situation detection system 1 according to the second embodiment will be described. FIG. 8 shows a configuration of the situation detection system 1 according to the second embodiment. The main difference from the first embodiment is that a server 6 is installed outside the vehicle 2. In addition, the situation detection device 3 includes the situation detection unit, the image selection unit, the image processing unit, and the determination unit, not the situation detection device 3 but the server 6. That is, the control unit 31 of the situation detection device 3 includes an image acquisition unit 31a, a transmission / reception unit 31d, and a time measurement unit 31e. The storage unit 34 includes a program 34c.

サーバ6は、車両2の外部に設置された情報処理装置である。サーバ6は、ネットワーク(図示せず)を介し、状況検出装置3及び携帯機器5と接続されている。サーバ6は、制御部61及び記憶部62を備える。   The server 6 is an information processing device installed outside the vehicle 2. The server 6 is connected to the status detection device 3 and the portable device 5 via a network (not shown). The server 6 includes a control unit 61 and a storage unit 62.

制御部61は、状況検出部61b、画像選択部61c、送受信部61d、画像処理部61f、及び判定部61gを備える。制御部61が備える状況検出部61b等の各部は、第1の実施の形態において状況検出装置3の制御部31が備えた各部と略同様に機能する。   The control unit 61 includes a situation detection unit 61b, an image selection unit 61c, a transmission / reception unit 61d, an image processing unit 61f, and a determination unit 61g. Each unit such as the situation detection unit 61b provided in the control unit 61 functions in substantially the same manner as each unit provided in the control unit 31 of the situation detection device 3 in the first embodiment.

記憶部62は、パターンデータ62a、識別データ62b、及びプログラム62cを記憶している。記憶部62が記憶するパターンデータ62a等は、第1の実施の形態で説明した各データ等と略同様に機能する。   The storage unit 62 stores pattern data 62a, identification data 62b, and a program 62c. The pattern data 62a and the like stored in the storage unit 62 function in substantially the same manner as each data and the like described in the first embodiment.

<2−3.工程>
次に、第2の実施の形態に係る状況検出システム1の処理工程を説明する。図9は、第2の実施の形態に係る状況検出システム1の処理工程を示す。図5ないし図7で示した第1の実施の形態における処理工程との相違点は、第1の実施の形態(図5)で説明したステップS105からステップS112までと同様の処理を状況検出装置3でなくサーバ6が実行する点である。
<2-3. Process>
Next, processing steps of the situation detection system 1 according to the second embodiment will be described. FIG. 9 shows processing steps of the situation detection system 1 according to the second embodiment. The difference from the processing steps in the first embodiment shown in FIG. 5 to FIG. 7 is that the same processing from step S105 to step S112 described in the first embodiment (FIG. 5) is performed. This is the point that the server 6 executes instead of 3.

状況検出装置3は、車両2の駐車後に10[分]経過すると、カメラ4の撮影画像を取得し、取得した撮影画像をサーバ6へ送信する(ステップS201、ステップS202、ステップS203、ステップS204、ステップS205)。撮影画像の送信は、送受信部31dが行う。   When 10 [minutes] have elapsed after the vehicle 2 is parked, the situation detection device 3 acquires a captured image of the camera 4 and transmits the acquired captured image to the server 6 (step S201, step S202, step S203, step S204, Step S205). The transmission / reception unit 31d transmits the captured image.

送受信部31dが撮影画像を送信すると、サーバ6の制御部61に備わる送受信部61dが撮影画像を受信する(ステップS206)。   When the transmission / reception unit 31d transmits the captured image, the transmission / reception unit 61d included in the control unit 61 of the server 6 receives the captured image (step S206).

送受信部61dが撮影画像を受信すると、制御部61の各部は、第1の実施の形態(図5)で説明したステップS105からステップS112までと同様の処理をステップS207からステップS214までで実行し、携帯機器5へメッセージMEや周辺画像APを送信する。ユーザが撮影画像の受信を希望しない場合は、サーバ6は周辺画像APを送信せず、処理は終了する。   When the transmission / reception unit 61d receives the captured image, each unit of the control unit 61 executes the same processing from step S105 to step S112 described in the first embodiment (FIG. 5) from step S207 to step S214. The message ME and the peripheral image AP are transmitted to the mobile device 5. If the user does not wish to receive the captured image, the server 6 does not transmit the surrounding image AP, and the process ends.

以上、第2の実施の形態は、車両2外部に設置されたサーバ6が車両2の周辺の状況変化の検出、及び状況変化を示す撮影画像の選択等を行う。これにより、状況検出装置3の処理負荷を低減できる。特に、状況検出装置3は、パターンマッチングに伴う画像認識処理を省略できるので、処理負荷が低減される
<3.変形例>
以上、本発明の実施の形態について説明した。しかし、本発明は上記実施の形態に限定されることはない。本発明は様々な変形が可能である。以下、変形例を説明する。なお、上記及び下記の実施の形態は、適宜組み合わせ可能である。
As described above, in the second embodiment, the server 6 installed outside the vehicle 2 detects a change in the situation around the vehicle 2 and selects a captured image indicating the change in the situation. Thereby, the processing load of the situation detection apparatus 3 can be reduced. In particular, since the situation detection apparatus 3 can omit the image recognition process associated with pattern matching, the processing load is reduced. <3. Modification>
The embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment. The present invention can be variously modified. Hereinafter, modified examples will be described. Note that the embodiments described above and below can be appropriately combined.

上記実施の形態では、車両周辺に状況変化があった場合に、ユーザへメッセージを通知し、ユーザの希望に応じて撮影画像を送信した。しかし、車両周辺に状況変化がない場合に、ユーザへメッセージを通知し、ユーザの希望に応じて撮影画像を送信してもよい。すなわち、車両周辺に状況変化がなくとも、パターンと画像の合致度合いが一定以下の場合には、メッセージを通知してもよい。パターンと画像の合致度合いが一定以下の場合には、車両周辺は車両を安全に駐車することが困難な状況となっている恐れがある。このような状況下では、状況に変化がなくとも、ユーザに車両周辺の状況を定期的に通知すべきだからである。   In the above embodiment, when there is a change in the situation around the vehicle, a message is notified to the user, and the captured image is transmitted according to the user's wish. However, when there is no change in the situation around the vehicle, a message may be notified to the user, and the captured image may be transmitted according to the user's wish. That is, even if there is no change in the situation around the vehicle, a message may be notified when the degree of matching between the pattern and the image is below a certain level. When the degree of matching between the pattern and the image is below a certain level, there is a possibility that it is difficult to park the vehicle safely around the vehicle. This is because, under such circumstances, even if there is no change in the situation, the user should be periodically notified of the situation around the vehicle.

また、上記実施の形態では、車両周辺の状況変化の判断を計時部31eの計時により10[分]毎に行った。しかし、10[分]毎でなくともよい。車両周辺の状況変化に対応した時間間隔であればよい。例えば、天候の悪化等の状況変化が見込まれる場合には5[分]間隔とし、好転が見込まれる場合には1[時間]間隔とすればよい。また、ユーザが駐車中に間隔を変更できるようにしてもよい。例えば駐車位置付近で災害等の発生が判明した場合、ユーザは間隔を短縮して状況変化を把握したいと考えられるからである。   Moreover, in the said embodiment, the judgment of the situation change around a vehicle was performed every 10 [minutes] by the time measuring part 31e. However, it does not have to be every 10 minutes. Any time interval corresponding to a change in the situation around the vehicle may be used. For example, the interval may be set to 5 [minutes] when a change in the situation such as a worsening weather is expected, and the interval may be set to 1 [hours] when the improvement is expected. Further, the user may be able to change the interval during parking. For example, when the occurrence of a disaster or the like is found near the parking position, the user wants to grasp the situation change by shortening the interval.

また、上記実施の形態では、携帯機器5の例として携帯電話やスマートフォンを列挙した。しかし、携帯機器5は携帯電話やスマートフォンに限定されない。ノートパソコン等でもよい。要するに携帯機器5は、画像表示機能や情報ネットワークと接続する機能等を備える情報通信端末であればよい。   Moreover, in the said embodiment, the mobile telephone and the smart phone were enumerated as an example of the portable apparatus 5. FIG. However, the mobile device 5 is not limited to a mobile phone or a smartphone. A notebook computer or the like may be used. In short, the portable device 5 may be an information communication terminal having an image display function, a function of connecting to an information network, and the like.

また、上記実施の形態では、状況検出装置3及びカメラ4は車両2に設置されると説明した。しかし、車両2でなくともよい。住宅やビルディング等でもよい。要するに、周辺の状況を監視すべき土地や建物、物品であればよい。   In the above embodiment, the situation detection device 3 and the camera 4 are described as being installed in the vehicle 2. However, it may not be the vehicle 2. It may be a house or a building. In short, it may be any land, building, or article whose surroundings should be monitored.

また、上記実施の形態では、状況検出装置3とカメラ4とを別体の装置として説明した。しかし、状況検出装置3とカメラ4とを一体の装置として構成してもよい。   In the above-described embodiment, the situation detection device 3 and the camera 4 are described as separate devices. However, the situation detection device 3 and the camera 4 may be configured as an integrated device.

また、上記実施の形態では、各機能はプログラムに従ったソフトウェアとして実現されると説明した。しかし、ソフトウェアでなくともよい。電気的なハードウェア回路として実現されてもよい。   Further, in the above embodiment, each function has been described as being realized as software according to a program. However, it does not have to be software. It may be realized as an electrical hardware circuit.

1 状況検出システム
2 車両
3 状況検出装置
4 カメラ
4a フロントカメラ
4b リアカメラ
4c 左サイドカメラ
4d 右サイドカメラ
5 携帯機器
DESCRIPTION OF SYMBOLS 1 Situation detection system 2 Vehicle 3 Situation detection apparatus 4 Camera 4a Front camera 4b Rear camera 4c Left side camera 4d Right side camera 5 Portable apparatus

Claims (6)

検出装置とサーバとにより車両の周辺の状況を検出する検出システムであって、  A detection system for detecting a situation around a vehicle by a detection device and a server,
前記検出装置は、  The detection device includes:
前記車両の駐車中に、該車両の周辺を撮影する複数のカメラの撮影画像を取得する取得手段と、      An acquisition means for acquiring captured images of a plurality of cameras that capture the periphery of the vehicle during parking of the vehicle;
前記複数の撮影画像を前記サーバに送信する第1送信手段と、    First transmission means for transmitting the plurality of captured images to the server;
を備え、  With
前記サーバは、  The server
前記複数の撮影画像に基づき、前記車両の周辺の状況変化を検出する検出手段と、    Detecting means for detecting a situation change around the vehicle based on the plurality of captured images;
前記複数の撮影画像のうち、前記状況変化を示す撮影画像を選択する選択手段と、    A selection means for selecting a photographed image indicating the status change among the plurality of photographed images;
前記選択手段に選択された撮影画像を前記車両のユーザの所有する表示装置へ送信する第2送信手段と、    Second transmission means for transmitting the captured image selected by the selection means to a display device owned by the user of the vehicle;
を備えることを特徴とする検出システム。A detection system comprising:
請求項1に記載の検出システムにおいて、
前記検出装置は、
前記複数のカメラを前記取得手段に順次に接続する接続手段、
をさらに備え、
前記取得手段は、接続されたカメラから前記撮影画像を取得することを特徴とする検出システム
The detection system according to claim 1,
The detection device includes:
Connection means for sequentially connecting the plurality of cameras to the acquisition means;
Further comprising
The detection system characterized in that the acquisition means acquires the captured image from a connected camera.
請求項1又は2に記載の検出システムにおいて、
前記取得手段は、前記撮影画像を周期的に取得することを特徴とする検出システム
The detection system according to claim 1 or 2,
It said acquisition means, detection system and acquires the captured image periodically.
請求項1ないし3のいずれかに記載の検出システムにおいて、
前記サーバは、
物体の形状を示すパターンデータを記憶する記憶手段、
をさらに備え、
前記検出手段は、前記撮影画像と前記パターンデータとの比較に基づき、前記車両の周辺の状況変化を検出することを特徴とする検出システム
The detection system according to any one of claims 1 to 3,
The server
Storage means for storing pattern data indicating the shape of the object;
Further comprising
The detecting device, the detection system, wherein the photographing image on the basis of a comparison of the pattern data to detect a change in circumstances around the vehicle.
請求項1ないし4のいずれかに記載の検出システムにおいて、
前記サーバは、
前記選択手段で選択された撮影画像に対し、該撮影画像を生成したカメラを識別する識別情報を重畳する画像処理手段、
をさらに備えることを特徴とする検出システム
The detection system according to any one of claims 1 to 4,
The server
Image processing means for superimposing identification information for identifying the camera that generated the photographed image on the photographed image selected by the selection means;
A detection system further comprising:
請求項1ないし5のいずれかに記載の検出システムにおいて、
前記サーバは、
前記状況変化の度合いを判定する判定手段、
をさらに備え、
前記選択手段は、前記状況変化の度合いが最も高い一の撮影画像を選択することを特徴とする検出システム
The detection system according to any one of claims 1 to 5,
The server
Determination means for determining the degree of the situation change;
Further comprising
The detection system is characterized in that the selection means selects one photographed image having the highest degree of change in the situation.
JP2015090286A 2015-04-27 2015-04-27 DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM Active JP6571974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015090286A JP6571974B2 (en) 2015-04-27 2015-04-27 DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015090286A JP6571974B2 (en) 2015-04-27 2015-04-27 DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016203886A JP2016203886A (en) 2016-12-08
JP6571974B2 true JP6571974B2 (en) 2019-09-04

Family

ID=57488708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015090286A Active JP6571974B2 (en) 2015-04-27 2015-04-27 DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6571974B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6958273B2 (en) * 2017-11-16 2021-11-02 トヨタ自動車株式会社 Driverless transportation system
JP2021192467A (en) * 2018-09-04 2021-12-16 ソニーセミコンダクタソリューションズ株式会社 Information processing apparatus, information processing system, information processing method, and program
JP7063256B2 (en) * 2018-12-14 2022-05-09 トヨタ自動車株式会社 Information processing systems, programs, and information processing methods
WO2022070616A1 (en) * 2020-09-30 2022-04-07 本田技研工業株式会社 Monitoring device, vehicle, monitoring method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04163696A (en) * 1990-10-29 1992-06-09 Sogo Keibi Hoshiyou Kk Picture guard system
JP2001061129A (en) * 1999-08-20 2001-03-06 Fujitsu General Ltd Drive recorder system
JP2003279661A (en) * 2002-03-26 2003-10-02 Nagoya Electric Works Co Ltd Method of detecting road surface condition, and detector therefor
JP2008155862A (en) * 2006-12-26 2008-07-10 Rohm Co Ltd Car security device
JP2008207627A (en) * 2007-02-23 2008-09-11 Auto Network Gijutsu Kenkyusho:Kk In-vehicle imaging system, imaging device, and display control device
CN103080990B (en) * 2011-06-07 2015-04-01 株式会社小松制作所 Work vehicle vicinity monitoring device

Also Published As

Publication number Publication date
JP2016203886A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
CN109166261B (en) Image processing method, device and equipment based on image recognition and storage medium
CN107978157B (en) Vehicle management method, device and computer readable storage medium
EP3575159B1 (en) Image transmitting device
JP6571974B2 (en) DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM
CN108352114B (en) Parking space detection method and system
CN109792508B (en) Fail-safe inspection using thermal imaging analysis
EP3754618B1 (en) Recording control device, recording control system, recording control method, and recording control program
US20160140778A1 (en) Method and system for identifying damage caused to a vehicle
US9205826B2 (en) Wiper system and control method thereof
JP2007199840A (en) Theft prevention system for vehicle, theft prevention device for vehicle, theft prevention program for vehicle, and management system
KR20140089999A (en) Parking Area Guidance System and Method
CN105857252A (en) Automobile anti-theft tracing method and system
EP3483852A1 (en) Rescue system and rescue method, and server used for rescue system and rescue method
CN105336173A (en) Image information acquisition method and related device
CN112085964A (en) Vehicle parking position guidance system and method
US20150117705A1 (en) Hybrid Parking Detection
KR20150013422A (en) Parking Area Guidance System and Method
KR102099394B1 (en) Vehicle recognition device, method and computer program
KR102217651B1 (en) Method for providing information of parking location based on image and vehicle for carrying out the same
JP6664411B2 (en) Security device, security control method, program, and storage medium
KR20170007872A (en) System and method for automated notification where you have parked
KR102711616B1 (en) Vehicle and controlling method of vehicle
KR20130110821A (en) Method and apparatus for detecting vehicle through detection of license plate
JP4032408B2 (en) Parking lot management system
KR20200038226A (en) Vehicle recognition device, method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R150 Certificate of patent or registration of utility model

Ref document number: 6571974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250