JP6571974B2 - DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM - Google Patents
DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP6571974B2 JP6571974B2 JP2015090286A JP2015090286A JP6571974B2 JP 6571974 B2 JP6571974 B2 JP 6571974B2 JP 2015090286 A JP2015090286 A JP 2015090286A JP 2015090286 A JP2015090286 A JP 2015090286A JP 6571974 B2 JP6571974 B2 JP 6571974B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- situation
- detection system
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 51
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000001514 detection method Methods 0.000 claims description 115
- 230000008859 change Effects 0.000 claims description 60
- 238000012545 processing Methods 0.000 claims description 50
- 230000005540 biological transmission Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 description 38
- 230000006870 function Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Emergency Alarm Devices (AREA)
Description
本発明は、車両の周辺の状況を検出する技術に関する。 The present invention relates to a technique for detecting a situation around a vehicle.
従来より、自動車等の車両周辺を車両に搭載した単一のカメラで撮影し、撮影画像をユーザへ送信する技術が知られている(例えば、特許文献1)。これにより、ユーザは車両から遠隔地に所在しても車両周辺の様子を把握できる。 2. Description of the Related Art Conventionally, a technique is known in which a periphery of a vehicle such as an automobile is photographed with a single camera mounted on the vehicle and a photographed image is transmitted to a user (for example, Patent Document 1). Thereby, even if the user is located in a remote place from the vehicle, the user can grasp the situation around the vehicle.
しかし、提案された技術は、車両に単一のカメラしか搭載されず、ユーザは必ずしも車両の周囲を把握できない。また、車両に複数のカメラを搭載すると、ユーザに多くの撮影画像を送信することとなり、通信量が膨大となる。さらに、多くの撮影画像を送信されるユーザは、受信処理が煩雑となり問題となる。 However, in the proposed technique, only a single camera is mounted on the vehicle, and the user cannot always grasp the surroundings of the vehicle. If a plurality of cameras are mounted on the vehicle, a large number of captured images are transmitted to the user, resulting in a huge amount of communication. Furthermore, a user who transmits many photographed images becomes a problem because the reception process becomes complicated.
本発明は、上記課題に鑑み、車両周辺の撮影画像を車両から遠隔地に所在するユーザに送信する場合、ユーザが車両周辺の様子を明確に把握しつつも通信量を低減する技術の提供を目的とする。 In view of the above problems, the present invention provides a technique for reducing the amount of communication while the user clearly understands the state of the vehicle periphery when transmitting a captured image of the vehicle periphery to a user located in a remote location. Objective.
上記課題を解決するため、請求項1の発明は、検出装置とサーバとにより車両の周辺の状況を検出する検出システムであって、前記検出装置は、前記車両の駐車中に、該車両の周辺を撮影する複数のカメラの撮影画像を取得する取得手段と、前記複数の撮影画像を前記サーバに送信する第1送信手段と、を備え、前記サーバは、前記複数の撮影画像に基づき、前記車両の周辺の状況変化を検出する検出手段と、前記複数の撮影画像のうち、前記状況変化を示す撮影画像を選択する選択手段と、前記選択手段に選択された撮影画像を前記車両のユーザの所有する表示装置へ送信する第2送信手段と、を備える。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1に記載の検出システムにおいて、前記検出装置は、前記複数のカメラを前記取得手段に順次に接続する接続手段、をさらに備え、前記取得手段は、接続されたカメラから前記撮影画像を取得する。
The detection system according to
また、請求項3の発明は、請求項1又は2に記載の検出システムにおいて、前記取得手段は、前記撮影画像を周期的に取得する。また、請求項4の発明は、請求項1ないし3のいずれかに記載の検出システムにおいて、前記サーバは、物体の形状を示すパターンデータを記憶する記憶手段、をさらに備え、前記検出手段は、前記撮影画像と前記パターンデータとの比較に基づき、前記車両の周辺の状況変化を検出する。
According to a third aspect of the present invention, in the detection system according to the first or second aspect, the acquisition unit acquires the captured image periodically. According to a fourth aspect of the present invention, in the detection system according to any one of the first to third aspects, the server further includes storage means for storing pattern data indicating the shape of the object, and the detection means includes: Based on a comparison between the captured image and the pattern data, a change in the situation around the vehicle is detected.
また、請求項5の発明は、請求項1ないし4のいずれかに記載の検出システムにおいて、前記サーバは、前記選択手段で選択された撮影画像に対し、該撮影画像を生成したカメラを識別する識別情報を重畳する画像処理手段、をさらに備える。
According to a fifth aspect of the present invention, in the detection system according to any one of the first to fourth aspects, the server identifies a camera that has generated the captured image for the captured image selected by the selection unit. Image processing means for superimposing the identification information;
また、請求項6の発明は、請求項1ないし5のいずれかに記載の検出システムにおいて、前記サーバは、前記状況変化の度合いを判定する判定手段、をさらに備え、前記選択手段は、前記状況変化の度合いが最も高い一の撮影画像を選択する。
The invention according to claim 6 is the detection system according to any one of
請求項1ないし6の発明によれば、車両の周辺の状況変化を検出した後、複数の撮影画
像のうちから状況変化を示す撮影画像を選択して車両のユーザの所有する表示装置へ送信
するので、車両のユーザは、車両から遠隔地に所在しても、車両の周辺で生じた状況変化
を少ない通信量で把握できる。
According to the first to sixth aspects of the present invention, after detecting a situation change around the vehicle, a photographed image showing the situation change is selected from a plurality of photographed images and transmitted to a display device owned by the user of the vehicle. Therefore, even if the user of the vehicle is located at a remote location from the vehicle, the user can grasp the change in the situation that has occurred around the vehicle with a small amount of communication.
また、特に請求項2の発明によれば、複数のカメラを取得手段に順次に接続し、取得手段は接続されたカメラから撮影画像を取得するので、車両の周辺の広範囲に渡って撮影した撮影画像を取得できる。
In particular, according to the invention of
また、特に請求項3の発明によれば、撮影画像を周期的に取得するので、車両の周辺で生じた状況変化を周期的に検出できる。 In particular, according to the third aspect of the present invention, since captured images are periodically acquired, it is possible to periodically detect a change in the situation that has occurred around the vehicle.
また、特に請求項4の発明によれば、撮影画像とパターンデータとの比較に基づき、車両の周辺の状況変化を検出するので、適切に状況変化を検出できる。
In particular, according to the invention of
また、特に請求項5の発明によれば、撮影画像を生成したカメラの位置を示す位置画像を撮影画像に付するので、撮影画像を参照したユーザは、車両のどの位置に設置されたカメラで撮影した画像かを判別できる。
Further, according to the invention of
また、特に請求項6の発明によれば、状況変化の度合いが他の撮影画像の度合いより高い撮影画像を選択するので、ユーザは、車両の周辺で生じた状況変化を的確に把握できる。 In particular, according to the sixth aspect of the present invention, the photographed image having a higher degree of situation change than that of the other photographed images is selected, so that the user can accurately grasp the situation change that has occurred around the vehicle.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.第1の実施の形態>
<1−1.概要>
図1は、本発明の実施の形態に係る状況検出システム1の概要を示す。状況検出システム1は、車両2周辺の状況変化をユーザUSに通知するシステムである。すなわち、状況検出システム1は、車両2に備えた状況検出装置3が車両2の四方に配置されたカメラ4(フロントカメラ4a、リアカメラ4b、左サイドカメラ4c、右サイドカメラ4d)から取得した車両2周辺の画像を解析する。そして状況検出システム1は、例えば降雨や降雪等により車両2周辺の状況が変化したと判断すると、車両2から遠隔地に所在するユーザUSの所有する携帯機器5に、車両2周辺の状況を示す画像を表示させる。
<1. First Embodiment>
<1-1. Overview>
FIG. 1 shows an overview of a
ユーザUSは画像を参照することで、車両2周辺の状況を把握できる。例えば、車両2周辺が大雨となり、路面を冠水した雨水WTが増加すると、車両2が損傷する恐れがある。この場合、ユーザUSは直ちに駐車位置に舞い戻り、車両2を安全な場所へ退避させることで、車両2の損傷を防止できる。
The user US can grasp the situation around the
この際、状況検出システム1は、4つのカメラで4つの画像を取得しつつも、状況変化を最もよく表す画像のみユーザUSに送信することが好ましい。画像をユーザへ常時送信する場合や、状況変化の少ない画像を含めて送信した場合に比較して、通信量を削減できるからである。また、ユーザは、適時に適切な画像を参照でき、画像を受信することに煩わしさを感じることがないからである。このような状況検出システム1を以下に詳細に説明する。なお、以下でカメラ4と述べた場合、フロントカメラ4a、リアカメラ4b、左サイドカメラ4c、及び右サイドカメラ4dの4つのカメラを指す。
At this time, it is preferable that the
<1−2.構成>
図2は、状況検出システム1の構成を示す。状況検出システム1は、車両2に設置された状況検出装置3及びカメラ4、並びに車両外部のユーザが所持する携帯機器5を備える。
<1-2. Configuration>
FIG. 2 shows the configuration of the
状況検出装置3は、車両2に設置されたカメラ4から画像データを受信し、受信した画像データから車両2周辺の状況及び状況の変化を検出する電子制御装置である。状況検出装置3は、制御部31、通信部32、接続部33、及び記憶部34を備える。
The
制御部31は、CPU、RAM、及びROMを備えたマイクロコンピュータである。制御部31は、状況検出装置3が備える他の構成と接続され、装置全体を制御する。制御部31の備える諸機能は後述する。
The
通信部32は、無線通信を利用した通信機能を備え、ネットワークを介して携帯機器5等と情報通信を行う。通信機能は、例えば、WiMAX(Worldwide Interoperability for Microwave Access)やLTE(Long Term Evolution)等の無線通信技術を利用する。
The
接続部33は、カメラ4と制御部31とを接続するスイッチ機構である。接続部33は、スイッチ機構を切り替え、カメラ4のいずれかと制御部31とを接続する。接続部33は、かかる切り替えを計時部31eの計時により所定時間毎に行う。所定時間は、例えば、30[秒]である。これにより、全てのカメラ4の撮影画像が、順次に制御部31へ送信される。なお、接続部33は、本発明において接続手段として機能する。
The
記憶部34は、データを記憶するメモリである。例えば、EEPROM(Electrical Erasable Programmable Read-Only memory)や、フラッシュメモリ、磁気ディスクを備えたハードディスクドライブ等の不揮発性の記憶媒体である。記憶部34は、パターンデータ34a、識別データ34b、及びプログラム34cを記憶している。なお、記憶部34は、本発明において記憶手段として機能する。
The
パターンデータ34aは、画像処理におけるパターンマッチングの手法で用いられ、物体の形状を示すパターンデータである。物体の形状は、例えば、自動車のボディー、バンパー、タイヤ、ガードレール、信号機(交通信号灯器)、電柱(電信柱又は電力柱)等の形状である。車両が駐車される位置周辺に一般的に存在する物体の形状であればよい。ただし、路面の冠水や積雪の有無を判断するために利用する場合は、タイヤなど路面付近に存在する物体、特に路面に接地する物体の形状が好ましい。冠水や積雪は路面上に発生するからである。 The pattern data 34a is pattern data that is used in a pattern matching technique in image processing and indicates the shape of an object. The shape of the object is, for example, the shape of an automobile body, bumper, tire, guardrail, traffic light (traffic signal lamp), utility pole (telephone pole or power pole), and the like. What is necessary is just the shape of the object generally existing around the position where the vehicle is parked. However, when it is used to determine whether there is flooding or snow on the road surface, the shape of an object such as a tire that exists near the road surface, particularly an object that contacts the road surface is preferable. This is because flooding and snowfall occur on the road surface.
識別データ34bは、4つのカメラ4を識別するための画像データである。例えば、「フロントカメラ」、「リアカメラ」、「左サイドカメラ」、「右サイドカメラ」を示す文字の画像である。識別データ34bは、ユーザに送信される車両2の周辺状況を示す画像に重畳される。ユーザは周辺状況の画像とともに識別データ34bを参照することで、送信された画像が車両2のどの位置に配置されたカメラで取得されたか識別できる。これにより、ユーザは車両2の周辺状況をより詳細に把握できる。なお、識別データ34bは、文字のほか図形や記号でもよい。
The
プログラム34cは、制御部31により読み出され、制御部31が状況検出装置3を制御するために実行されるファームウェアである。なお、プログラム34cは、メモリカード等の記憶媒体を介し、又は、外部装置と回線で接続され、状況検出装置3に入出力され得る。
The
次に、前述の制御部31の備える諸機能を説明する。制御部31は、画像取得部31a、状況検出部31b、画像選択部31c、送受信部31d、計時部31e、画像処理部31f、及び判定部31gを備える。なお、画像取得部31a等の各部の機能は、制御部31の備えるCPUが記憶部34に記憶されたプログラム34cに従った演算処理で実現される。
Next, functions provided in the
画像取得部31aは、カメラ4から送信される撮影画像データを取得し、取得した撮影画像データを制御部31で処理可能な形式に変換する。すなわち、画像取得部31aは、カメラ4で被写体を各々撮影した複数の撮影画像を取得する。なお、画像取得部31aは、本発明において取得手段として機能する。
The
状況検出部31bは、パターンマッチングの手法を用い、車両2周辺の状況及びその変化を検出する。パターンマッチングとは、特定の形状に合致(マッチング)する画像領域を求める既知の手法である。これにより、車両周辺に存在する物体を検出できる。例えば、撮影画像中にタイヤの形状のパターンと合致する画像領域がある場合、撮影範囲内に車両の存在を検出できる。状況検出部31bは、記憶部34に記憶されているパターンデータ34aを読み出し、パターンマッチングを実行する。
The
また、状況検出部31bは、パターンの部分毎にパターンと画像との合致度合いを検出する。パターンと画像との合致度合いとは、パターンマッチングを行った画像領域の全画素のうち、パターンデータ34aと合致した画素と合致しなかった画素との割合である。また、パターンと合致した画像領域のエッジ検出を行い、エッジが明確な領域と、不明確(欠損)な領域の割合としてもよい。
In addition, the
また、状況検出部31bは、パターン上部が合致し、かつパターン下部が合致しない場合に、路面の冠水又は積雪の発生と判定する。すなわち、車両2の周辺状況を路面の冠水又は積雪のある状況と判定する。路面の冠水又は積雪があると、雨水や雪によりパターンの合致が妨げられ、パターン上部が合致し、かつパターン下部が合致し難くなるからである。また、状況検出部31bは、撮影画像の所定領域とパターンデータ34aとの合致の度合いが前回の検出時から変化した撮影画像が一つでもある場合に、車両2の周辺状況が変化したことを検出する。
In addition, the
また、状況検出部31bは、撮影画像の合致度合いが全体的に低い場合は、降雨や降雪、濃霧と判定する。降雨等によりパターンの合致が全体的に妨げられるからである。また、撮影画像の度合いが全体的に得られない場合は、状況の検出が不能と判定する。この場合、車両2に隣接する壁や他車のボディー等で撮影範囲が妨げられているからである。なお、状況検出部31bは、本発明において検出手段として機能する。
Moreover, the
画像選択部31cは、制御部31のRAMに記憶されている合致度合いを示すデータを参照し、画像とパターンとの合致度合いが最も低い画像を選択する。なお、画像選択部31cは、本発明において選択手段として機能する。
The
送受信部31dは、画像取得部31aがカメラ4から取得し、画像選択部31cが選択した画像データを通信部32を介して携帯機器5へ送信する。また、携帯機器5から送信される信号を受信する。なお、送受信部31dは、本発明において送信手段として機能する。
The transmission /
計時部31eは、時間の経過を計るタイマーである。計時部31eは、車両2の駐車中に状況検出装置3が周期的に起動する間隔となる時間を計時する。これにより、画像取得部31aは、周期的に撮影画像を取得できる。また、接続部33がカメラ4と制御部31との接続を切り替える間隔となる時間を計測する。
The
画像処理部31fは、4つのカメラ4を識別するための画像データである識別データ34bを記憶部34から読み出し、画像取得部31aが取得した車両2の周辺状況を示す画像に、識別データ34bを重畳するよう画像処理を施す。例えば、周辺状況を示す画像に「左サイドカメラ」を示す文字画像を重畳する。ユーザは周辺状況の画像とともに識別データ34bを参照することで、送信された画像が車両のどの位置に配置されたカメラで取得されたか識別できる。これにより、ユーザは車両の周辺状況をより詳細に把握できる。また、画像処理部31fは、ユーザに送信する画像データの容量を圧縮する。これにより、通信量を低減できる。なお、画像処理部31fは、本発明において画像処理手段として機能する。
The
判定部31gは、車両2周辺の状況変化の度合いを判定する。判定部31gは、状況検出部31bが検出したパターンと画像との合致度合いに基づき、車両2周辺の状況変化の度合いを判定する。すなわち、判定部31gは、パターンと画像との合致度合いが低いと車両2周辺の状況変化の度合いが高いと判定し、パターンと画像との合致度合いが高いと車両2周辺の状況変化の度合いが低いと判定する。また、判定部31gは、前回撮影した画像に基づく状況変化の度合いと、今回撮影した画像に基づく状況変化の度合いとを比較し、度合いの変化の大きさを判定してもよい。
The
車両2には、状況検出装置3のほか、カメラ4が設置される。カメラ4は、レンズと撮像素子とを備え、車両2の異なる位置に各々配置される。
In addition to the
図3は、カメラ4が車両2に配置される位置と、カメラ4の光軸が向けられる方向とを示す。フロントカメラ4aは、車両2前端に設置され、光軸4aaが車両2の直進方向に向けられる。リアカメラ4bは、車両2後端に設置され、光軸4baが車両2の直進方向と反対方向、すなわち後進方向に向けられる。左サイドカメラ4cは、左側のサイドミラーMLに設置され、光軸4caが車両2の左方向(直進方向に対する直交方向)に向けられる。右サイドカメラ4dは、右側のサイドミラーMRに設置され、その光軸4daが車両2の右方向(直進方向に対する直交方向)に向けられる。
FIG. 3 shows the position where the
カメラ4の各々は、車両2周辺の異なる方向を撮影し、撮影画像を電子的に取得する。カメラ4は、焦点距離の比較的短いレンズを備え、180度以上の画角θを有する。このため、4つのカメラ4を用いることで、車両2の全周囲を撮影できる。
Each of the
図2を再度参照し、携帯機器5を説明する。携帯機器5は、ユーザに携帯され、画像を表示する機能や情報ネットワークと接続する機能等を備える情報通信端末である。例えば、携帯電話やスマートフォンである。携帯機器5は、ディスプレイ5aを備える。なお、携帯機器5は、本発明において表示装置として機能する。
The
ディスプレイ5aは、文字や図形等の各種情報を表示し、ユーザに情報を視覚的に提示する表示装置である。例えば、液晶ディスプレイや、プラズマディスプレイ、有機ELディスプレイ等である。ディスプレイ5aは、ユーザの入力操作を受付けるタッチパネル(図示せず)を備える。
The
<1−3.表示画像の例>
次に、ユーザの所持する携帯機器5のディスプレイ5aに表示されるメッセージ及び車両2周辺の画像の例を説明する。図4は、ディスプレイ5aに表示されるメッセージME及び車両2周辺の状況を示す周辺画像APを示す。図4の左図は、周辺画像APが表示される前に、状況の変化の発生のみを提示するメッセージMEの例である。メッセージMEは、例えば、「車の周辺状況に変化がありました。画像を表示しますか?」である。ユーザは、車両周辺の状況変化を憂慮しない場合には、必ずしも画像の参照を希望しない。この場合にまで画像の表示を行うと、通信容量が増加するのみならずユーザは受信処理に煩わしさを感じることとなる。したがって、車両周辺に状況変化があった場合には、まずメッセージMEをユーザに送信し、画像の参照の要否をユーザが選択することが好ましい。
<1-3. Example of display image>
Next, an example of a message displayed on the
図4の右図は、ユーザがメッセージMEを参照して画像の参照を希望し、車両の周辺状況を撮影した周辺画像APが携帯機器5のディスプレイ5aにメッセージMSと共に表示された例である。周辺画像APと共に表示されるメッセージMSは、例えば、「車の周辺状況の画像です。」である。メッセージMEを参照することで、ユーザは、表示されている画像が車の周辺状況であることを把握できる。
The right diagram in FIG. 4 is an example in which the user wants to refer to the image with reference to the message ME, and the peripheral image AP obtained by photographing the surrounding situation of the vehicle is displayed on the
また、周辺画像APは、車両2に搭載された複数のカメラのうちどのカメラで撮影されたかを明示する文字画像PPが重畳される。文字画像PPは、例えば、「左サイドカメラ」である。ユーザは、文字画像PPを参照することで、どのカメラで撮影された画像かを認識し、車両周辺の様子をより詳細に把握できる。なお、文字画像PPに代替し、どのカメラで撮影されたかを示す図形や記号を表示してもよい。要するに、どのカメラで撮影されたかをユーザに明示できればよい。
In addition, the peripheral image AP is superimposed with a character image PP that clearly indicates which of a plurality of cameras mounted on the
ユーザは、車両の周辺状況を撮影した周辺画像APを参照することで、車両の周辺がどのような状況となっているか、又はどのような状況に変化したかを把握できる。例えば、自らの車両の周辺で強い雨RNが降っており、雨水WTで路面が冠水している様子を認識できる。このような場合、ユーザは即座に駐車位置に舞い戻り、車両を退避させることで、車両の損傷を防止できる。 The user can grasp the situation around the vehicle or what kind of situation has changed by referring to the surrounding image AP obtained by photographing the surrounding situation of the vehicle. For example, it can be recognized that heavy rain RN is falling around the vehicle itself and the road surface is flooded with rainwater WT. In such a case, the user can immediately return to the parking position and retract the vehicle, thereby preventing the vehicle from being damaged.
<1−4.工程>
次に、状況検出装置3の処理工程を説明する。図5は、状況検出装置3の処理工程を示す。なお、かかる処理工程は車両が駐車中に実行される。すなわち、ユーザは車両を駐車させる際、状況検出装置3を起動させる。ただし、イグニッションスイッチがオフされるのに連動し、状況検出装置3が起動してもよい。なお、状況検出装置3の処理工程は、車両の駐車中に所定の周期で繰り返し実行される。
<1-4. Process>
Next, processing steps of the
まず、計時部31eが車両の駐車後、又は撮影画像の前回の取得後に10[分]経過したか否か判断する(ステップS101)。すなわち、状況検出装置3は、10[分]毎に車両周辺の撮影画像を取得する。
First, the
計時部31eが10[分]経過していないと判断すると(ステップS101でNo)、処理は終了する。所定の時間が経過するまで待機し、電力消費を抑制するためである。
When the
一方、計時部31eが10[分]経過したと判断すると(ステップS101でYes)、接続部33は、フロントカメラ4aと制御部31とを接続する(ステップS102)。
On the other hand, when the
接続部33が制御部31とフロントカメラ4aとを接続すると、画像取得部31aが、フロントカメラ4aが撮影して得られた画像を取得し(ステップS103)、画像データを制御部31のRAMに記憶させる。
When the
画像取得部31aが画像を取得すると、接続部33は、全てのカメラ4を制御部31と接続させたか否か判断する(ステップS104)。
When the
接続部33が全てのカメラを制御部31と接続させていないと判断すると(ステップS104でNo)、処理はS102に戻り、接続部33はリアカメラ4bと制御部31とを接続する。以後、接続部33が順次に全てのカメラ4を制御部31と接続させるまで、ステップS102からステップS104までの処理が繰り返し実行される。
If the
一方、接続部33が全てのカメラを制御部31と接続させたと判断すると(ステップS104でYes)、画像認識処理が実行される(ステップS105)。画像認識処理は、パターンマッチングの手法を用い、撮影画像の所定領域とパターンデータ34aとの合致の度合い等を導出し、車両の周辺状況及びその変化を判断するための処理である。画像認識処理の詳細は後述する。
On the other hand, if the
画像認識処理(ステップS105)が実行されると、状況検出部31bは、処理結果に基づき車両の周辺状況が変化したか否か判断する(ステップS106)。すなわち、状況検出部31bは、撮影画像の所定領域とパターンデータ34aとの合致の度合いが前回の検出時から変化した撮影画像が一つでもある場合に、車両2の周辺状況が変化したことを検出する。
When the image recognition process (step S105) is executed, the
状況検出部31bが車両の周辺状況が変化していないと判断すると(ステップS106でNo)、処理は終了する。車両の周辺状況が変化していない以上、ユーザへ撮影画像を送信する必要はないからである。処理が終了すると、状況検出装置3は次回の処理が開始されるまで待機する。すなわち、約10[分]間待機する。
When the
一方、状況検出部31bが車両の周辺状況が変化したと判断すると(ステップS106でYes)、送受信部31dは、メッセージMEを携帯機器5へ送信する(ステップS107)。この際、送受信部31dが送信するメッセージMEは、前述の通り、例えば「車の周辺状況に変化がありました。画像を表示しますが?」である。これにより、ユーザは、自らの車の周辺状況に変化があったことを把握できる。さらにユーザは、希望すれば画像により視覚的に車両の周辺状況を参照できることを認識できる。
On the other hand, when the
送受信部31dは、メッセージMEを携帯機器5へ送信すると、ユーザが画像の参照を希望するか否かを判断する(ステップS108)。かかる判断は、送受信部31dが携帯機器5から送信されるユーザの希望を示す信号を受信して行う。
When the message ME is transmitted to the
送受信部31dが、ユーザが画像の参照を希望しないと判断すると(ステップS108でNo)、処理は終了する。ユーザが画像の参照を希望しない以上、ユーザへ撮影画像を送信する処理は必要ないからである。
If the transmission /
一方、送受信部31dが、ユーザが画像の参照を希望すると判断すると(ステップS108でYes)、画像選択処理が実行される(ステップS109)。画像選択処理は、カメラ4が撮影した4つの画像のうち、どの撮影画像が最も明確に車両の周辺状況の変化を捉えているかを判断し、ユーザに送信すべき撮影画像を選択する処理である。カメラ4が撮影して得られた画像の全てを送信するのではなく、取捨選択して撮影画像を送信することで、送信の容量を低減できる。また、必ずしも明確に車両の周辺状況の変化を捉えていない撮影画像、すなわち車両に隣接する壁等を撮影して得られた画像等の送信を防止できる。ユーザはこのような画像を参照しても何ら車両の周辺状況の変化を把握できない。画像選択処理の詳細は後述する。
On the other hand, when the transmission /
画像選択処理(ステップS109)が実行されると、画像処理部31fは、選択された撮影画像に対応する識別データ34bを記憶部34から読み出し、選択された撮影画像に識別データ34bを重畳するよう画像処理を行う(ステップS110)。撮影画像に重畳される識別データ34bは、例えば、「左サイドカメラ」」である。なお、画像選択処理において選択された撮影画像には、後述の通り画像選択部31cによりフラグがセットされている。したがって、画像処理部31fは、フラグレジスタを参照し、どの撮影画像が選択されたか判別する。
When the image selection process (step S109) is executed, the
画像処理部31fは、選択された撮影画像に識別データ34bを重畳する画像処理を行うと、識別データ34bが重畳された撮影画像のデータ容量を圧縮する(ステップS111)。撮影画像のデータ容量の圧縮には、既知の静止画像の圧縮方式を用いればよい。例えば、JPEG(Joint Photographic Experts Group)やGIF(Graphics Interchange Format)等の画像圧縮方式である。
When the
画像処理部31fが撮影画像を圧縮すると、送受信部31dは、かかる撮影画像を携帯機器5へ送信する(ステップS112)。
When the
これにより、ユーザは、車両の周辺状況の変化を画像により視覚的に把握できる。また、車両の周辺状況に変化があった場合でも、撮影した全ての画像をユーザへ送信せず、最も状況変化を明確に示す画像をユーザへ送信するので、ユーザは状況変化を明確に把握できるうえ、送信すべきデータ容量を低減できる。 Thereby, the user can visually grasp the change of the surrounding situation of the vehicle by the image. In addition, even when there is a change in the situation around the vehicle, all the captured images are not sent to the user, and an image that clearly shows the situation change is sent to the user, so the user can clearly grasp the situation change. In addition, the data capacity to be transmitted can be reduced.
次に、ステップS105で実行される画像認識処理を説明する。図6は、画像認識処理の詳細な処理工程を示す。 Next, the image recognition process executed in step S105 will be described. FIG. 6 shows the detailed processing steps of the image recognition process.
まず、状況検出部31bが、制御部31のRAMに記憶された撮影画像を読み出す(ステップS105a)。
First, the
状況検出部31bは、撮影画像を読み出すと、記憶部34からパターンデータ34aを読み出す(ステップS105b)。
When the
状況検出部31bは、記憶部34からパターンデータ34aを読み出すと、撮影画像とパターンデータ34aとを対比する(ステップS105c)。
When the
状況検出部31bは、撮影画像とパターンデータ34aとを対比し、撮影画像の所定領域とパターンデータ34aとが合致するか否か判断する(ステップS105d)。
The
状況検出部31bは、撮影画像の所定領域とパターンデータ34aとが合致しないと判断すると(ステップS105dでNo)、記憶部34に記憶されている全てのパターンデータ34aと撮影画像を対比させたか否か判断する(ステップS105e)。
If the
状況検出部31bは、記憶部34に記憶されている全てのパターンデータ34aと撮影画像とを対比させていないと判断すると(ステップS105eでNo)、ステップS105bに戻り、他のパターンデータ34aを読み出し、読み出したパターンデータ34aと撮影画像とを対比する。以後、撮影画像とパターンデータ34aとが合致するか、又は撮影画像と記憶部34に記憶されている全てのパターンデータ34aとの対比が完了するまで、ステップS105bからステップS105eまでの処理が繰り返し実行される。
When the
一方、状況検出部31bが、全てのパターンデータ34aと撮影画像を対比させたと判断すると(ステップS105eでYes)、処理はステップS105iに進む。なお、ステップS105iの処理内容は後述する。
On the other hand, when the
ステップS105dにおいて、状況検出部31bは、撮影画像の所定領域とパターンデータ34aとが合致すると判断する場合(ステップS105dでYes)、撮影画像の所定領域とパターンデータ34aとの合致の度合いを導出し、かかる合致の度合いをRAMに記憶する(ステップS105f)。
In step S105d, when the
状況検出部31bは、撮影画像とパターンデータ34aとの合致度合いを記憶させると、パターンマッチングの対象となった撮影画像をRAMに記憶させる(ステップS105g)。
When the degree of coincidence between the captured image and the pattern data 34a is stored, the
状況検出部31bは、パターンマッチングの対象となった撮影画像をRAMに記憶させると、全ての撮影画像、すなわちカメラ4の撮影した4つの画像全てについてパターンマッチングの処理を実行したか否か判断する(ステップS105h)。
When the
状況検出部31bは、全ての撮影画像についてパターンマッチングの処理を実行していないと判断すると(ステップS105hでNo)、ステップS105aの処理に戻り、パターンマッチングの処理を実行していない撮影画像を読み出し、ステップS105b以下の処理を実行する。以後、全ての撮影画像についてパターンマッチングの処理を実行するまで、ステップS105aからステップS105hまでの処理が繰り返し実行される。
If the
一方、状況検出部31bが全ての撮影画像についてパターンマッチングの処理を実行したと判断すると(ステップS105hでYes)、処理は図5の処理工程に戻り、ステップS106が実行される。ステップS106以降の処理工程は、前述の通りである。
On the other hand, when the
次に、ステップS109で実行される画像選択処理を説明する。図7は、画像選択処理の詳細な処理工程を示す。 Next, the image selection process executed in step S109 will be described. FIG. 7 shows the detailed processing steps of the image selection process.
画像選択処理が実行されると、画像選択部31cが、状況検出部31bにより制御部31のRAMに記憶された合致度合いを示す4つのデータを読み出す(ステップS109a)。
When the image selection process is executed, the
画像選択部31cは、合致度合いが最も低い撮影画像を選択する(ステップS109b)。画像選択部31cは、選択した撮影画像を示すフラグレジスタのアドレスにフラグをセットする(ステップS109c)。フラグレジスタを参照すれば、どの撮影画像が選択されたか判別できる。
The
ステップS109bの処理工程が実行されると、処理は図5の処理工程に戻り、ステップS110が実行される。ステップS110以降の処理工程は、前述の通りである。 When the process step of step S109b is executed, the process returns to the process step of FIG. 5, and step S110 is executed. The processing steps after step S110 are as described above.
以上の通り、第1の実施の形態の状況検出装置3は、車両の駐車中に、車両周辺を撮影する複数のカメラの撮影画像を取得し、車両周辺の状況変化を示す撮影画像を選択し、選択した撮影画像を車両のユーザの所有する表示装置へ送信する。複数の撮影画像のうちから状況変化を示す撮影画像を選択して送信するので、車両のユーザは、車両から遠隔地に所在しても、車両周辺で生じた状況変化を少ない通信量で把握できる。
As described above, the
<2.第2の実施の形態>
<2−1.概要>
次に、第2の実施の形態を説明する。前述の第1の実施の形態は、車両の周辺の状況変化の検出、及び状況変化を示す撮影画像の選択等を状況検出装置3が行った。第2の実施の形態は、これらを状況検出装置3でなく車両外部に設置されたサーバが行う。また、ユーザへの撮影画像の送信もサーバが行う。これにより、状況検出装置3の処理負荷を低減できる。第2の実施の形態は、第1の実施の形態と同様の構成及び処理工程を含む。このため、第1の実施の形態との相違点を主に説明する。
<2. Second Embodiment>
<2-1. Overview>
Next, a second embodiment will be described. In the first embodiment described above, the
<2−2.構成>
まず、第2の実施の形態に係る状況検出システム1の構成を説明する。図8は、第2の実施の形態に係る状況検出システム1の構成を示す。第1の実施の形態との主な相違点は車両2の外部にサーバ6が設置される点である。また、状況検出装置3が備えた状況検出部、画像選択部、画像処理部、及び判定部を状況検出装置3ではなくサーバ6が備える点である。すなわち、状況検出装置3の制御部31は、画像取得部31a、送受信部31d、及び計時部31eを備える。記憶部34は、プログラム34cを備える。
<2-2. Configuration>
First, the configuration of the
サーバ6は、車両2の外部に設置された情報処理装置である。サーバ6は、ネットワーク(図示せず)を介し、状況検出装置3及び携帯機器5と接続されている。サーバ6は、制御部61及び記憶部62を備える。
The server 6 is an information processing device installed outside the
制御部61は、状況検出部61b、画像選択部61c、送受信部61d、画像処理部61f、及び判定部61gを備える。制御部61が備える状況検出部61b等の各部は、第1の実施の形態において状況検出装置3の制御部31が備えた各部と略同様に機能する。
The
記憶部62は、パターンデータ62a、識別データ62b、及びプログラム62cを記憶している。記憶部62が記憶するパターンデータ62a等は、第1の実施の形態で説明した各データ等と略同様に機能する。
The
<2−3.工程>
次に、第2の実施の形態に係る状況検出システム1の処理工程を説明する。図9は、第2の実施の形態に係る状況検出システム1の処理工程を示す。図5ないし図7で示した第1の実施の形態における処理工程との相違点は、第1の実施の形態(図5)で説明したステップS105からステップS112までと同様の処理を状況検出装置3でなくサーバ6が実行する点である。
<2-3. Process>
Next, processing steps of the
状況検出装置3は、車両2の駐車後に10[分]経過すると、カメラ4の撮影画像を取得し、取得した撮影画像をサーバ6へ送信する(ステップS201、ステップS202、ステップS203、ステップS204、ステップS205)。撮影画像の送信は、送受信部31dが行う。
When 10 [minutes] have elapsed after the
送受信部31dが撮影画像を送信すると、サーバ6の制御部61に備わる送受信部61dが撮影画像を受信する(ステップS206)。
When the transmission /
送受信部61dが撮影画像を受信すると、制御部61の各部は、第1の実施の形態(図5)で説明したステップS105からステップS112までと同様の処理をステップS207からステップS214までで実行し、携帯機器5へメッセージMEや周辺画像APを送信する。ユーザが撮影画像の受信を希望しない場合は、サーバ6は周辺画像APを送信せず、処理は終了する。
When the transmission /
以上、第2の実施の形態は、車両2外部に設置されたサーバ6が車両2の周辺の状況変化の検出、及び状況変化を示す撮影画像の選択等を行う。これにより、状況検出装置3の処理負荷を低減できる。特に、状況検出装置3は、パターンマッチングに伴う画像認識処理を省略できるので、処理負荷が低減される
<3.変形例>
以上、本発明の実施の形態について説明した。しかし、本発明は上記実施の形態に限定されることはない。本発明は様々な変形が可能である。以下、変形例を説明する。なお、上記及び下記の実施の形態は、適宜組み合わせ可能である。
As described above, in the second embodiment, the server 6 installed outside the
The embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment. The present invention can be variously modified. Hereinafter, modified examples will be described. Note that the embodiments described above and below can be appropriately combined.
上記実施の形態では、車両周辺に状況変化があった場合に、ユーザへメッセージを通知し、ユーザの希望に応じて撮影画像を送信した。しかし、車両周辺に状況変化がない場合に、ユーザへメッセージを通知し、ユーザの希望に応じて撮影画像を送信してもよい。すなわち、車両周辺に状況変化がなくとも、パターンと画像の合致度合いが一定以下の場合には、メッセージを通知してもよい。パターンと画像の合致度合いが一定以下の場合には、車両周辺は車両を安全に駐車することが困難な状況となっている恐れがある。このような状況下では、状況に変化がなくとも、ユーザに車両周辺の状況を定期的に通知すべきだからである。 In the above embodiment, when there is a change in the situation around the vehicle, a message is notified to the user, and the captured image is transmitted according to the user's wish. However, when there is no change in the situation around the vehicle, a message may be notified to the user, and the captured image may be transmitted according to the user's wish. That is, even if there is no change in the situation around the vehicle, a message may be notified when the degree of matching between the pattern and the image is below a certain level. When the degree of matching between the pattern and the image is below a certain level, there is a possibility that it is difficult to park the vehicle safely around the vehicle. This is because, under such circumstances, even if there is no change in the situation, the user should be periodically notified of the situation around the vehicle.
また、上記実施の形態では、車両周辺の状況変化の判断を計時部31eの計時により10[分]毎に行った。しかし、10[分]毎でなくともよい。車両周辺の状況変化に対応した時間間隔であればよい。例えば、天候の悪化等の状況変化が見込まれる場合には5[分]間隔とし、好転が見込まれる場合には1[時間]間隔とすればよい。また、ユーザが駐車中に間隔を変更できるようにしてもよい。例えば駐車位置付近で災害等の発生が判明した場合、ユーザは間隔を短縮して状況変化を把握したいと考えられるからである。
Moreover, in the said embodiment, the judgment of the situation change around a vehicle was performed every 10 [minutes] by the
また、上記実施の形態では、携帯機器5の例として携帯電話やスマートフォンを列挙した。しかし、携帯機器5は携帯電話やスマートフォンに限定されない。ノートパソコン等でもよい。要するに携帯機器5は、画像表示機能や情報ネットワークと接続する機能等を備える情報通信端末であればよい。
Moreover, in the said embodiment, the mobile telephone and the smart phone were enumerated as an example of the
また、上記実施の形態では、状況検出装置3及びカメラ4は車両2に設置されると説明した。しかし、車両2でなくともよい。住宅やビルディング等でもよい。要するに、周辺の状況を監視すべき土地や建物、物品であればよい。
In the above embodiment, the
また、上記実施の形態では、状況検出装置3とカメラ4とを別体の装置として説明した。しかし、状況検出装置3とカメラ4とを一体の装置として構成してもよい。
In the above-described embodiment, the
また、上記実施の形態では、各機能はプログラムに従ったソフトウェアとして実現されると説明した。しかし、ソフトウェアでなくともよい。電気的なハードウェア回路として実現されてもよい。 Further, in the above embodiment, each function has been described as being realized as software according to a program. However, it does not have to be software. It may be realized as an electrical hardware circuit.
1 状況検出システム
2 車両
3 状況検出装置
4 カメラ
4a フロントカメラ
4b リアカメラ
4c 左サイドカメラ
4d 右サイドカメラ
5 携帯機器
DESCRIPTION OF
Claims (6)
前記検出装置は、 The detection device includes:
前記車両の駐車中に、該車両の周辺を撮影する複数のカメラの撮影画像を取得する取得手段と、 An acquisition means for acquiring captured images of a plurality of cameras that capture the periphery of the vehicle during parking of the vehicle;
前記複数の撮影画像を前記サーバに送信する第1送信手段と、 First transmission means for transmitting the plurality of captured images to the server;
を備え、 With
前記サーバは、 The server
前記複数の撮影画像に基づき、前記車両の周辺の状況変化を検出する検出手段と、 Detecting means for detecting a situation change around the vehicle based on the plurality of captured images;
前記複数の撮影画像のうち、前記状況変化を示す撮影画像を選択する選択手段と、 A selection means for selecting a photographed image indicating the status change among the plurality of photographed images;
前記選択手段に選択された撮影画像を前記車両のユーザの所有する表示装置へ送信する第2送信手段と、 Second transmission means for transmitting the captured image selected by the selection means to a display device owned by the user of the vehicle;
を備えることを特徴とする検出システム。A detection system comprising:
前記検出装置は、
前記複数のカメラを前記取得手段に順次に接続する接続手段、
をさらに備え、
前記取得手段は、接続されたカメラから前記撮影画像を取得することを特徴とする検出システム。 The detection system according to claim 1,
The detection device includes:
Connection means for sequentially connecting the plurality of cameras to the acquisition means;
Further comprising
The detection system characterized in that the acquisition means acquires the captured image from a connected camera.
前記取得手段は、前記撮影画像を周期的に取得することを特徴とする検出システム。 The detection system according to claim 1 or 2,
It said acquisition means, detection system and acquires the captured image periodically.
前記サーバは、
物体の形状を示すパターンデータを記憶する記憶手段、
をさらに備え、
前記検出手段は、前記撮影画像と前記パターンデータとの比較に基づき、前記車両の周辺の状況変化を検出することを特徴とする検出システム。 The detection system according to any one of claims 1 to 3,
The server
Storage means for storing pattern data indicating the shape of the object;
Further comprising
The detecting device, the detection system, wherein the photographing image on the basis of a comparison of the pattern data to detect a change in circumstances around the vehicle.
前記サーバは、
前記選択手段で選択された撮影画像に対し、該撮影画像を生成したカメラを識別する識別情報を重畳する画像処理手段、
をさらに備えることを特徴とする検出システム。 The detection system according to any one of claims 1 to 4,
The server
Image processing means for superimposing identification information for identifying the camera that generated the photographed image on the photographed image selected by the selection means;
A detection system further comprising:
前記サーバは、
前記状況変化の度合いを判定する判定手段、
をさらに備え、
前記選択手段は、前記状況変化の度合いが最も高い一の撮影画像を選択することを特徴とする検出システム。 The detection system according to any one of claims 1 to 5,
The server
Determination means for determining the degree of the situation change;
Further comprising
The detection system is characterized in that the selection means selects one photographed image having the highest degree of change in the situation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015090286A JP6571974B2 (en) | 2015-04-27 | 2015-04-27 | DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015090286A JP6571974B2 (en) | 2015-04-27 | 2015-04-27 | DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016203886A JP2016203886A (en) | 2016-12-08 |
JP6571974B2 true JP6571974B2 (en) | 2019-09-04 |
Family
ID=57488708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015090286A Active JP6571974B2 (en) | 2015-04-27 | 2015-04-27 | DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6571974B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6958273B2 (en) * | 2017-11-16 | 2021-11-02 | トヨタ自動車株式会社 | Driverless transportation system |
JP2021192467A (en) * | 2018-09-04 | 2021-12-16 | ソニーセミコンダクタソリューションズ株式会社 | Information processing apparatus, information processing system, information processing method, and program |
JP7063256B2 (en) * | 2018-12-14 | 2022-05-09 | トヨタ自動車株式会社 | Information processing systems, programs, and information processing methods |
WO2022070616A1 (en) * | 2020-09-30 | 2022-04-07 | 本田技研工業株式会社 | Monitoring device, vehicle, monitoring method, and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04163696A (en) * | 1990-10-29 | 1992-06-09 | Sogo Keibi Hoshiyou Kk | Picture guard system |
JP2001061129A (en) * | 1999-08-20 | 2001-03-06 | Fujitsu General Ltd | Drive recorder system |
JP2003279661A (en) * | 2002-03-26 | 2003-10-02 | Nagoya Electric Works Co Ltd | Method of detecting road surface condition, and detector therefor |
JP2008155862A (en) * | 2006-12-26 | 2008-07-10 | Rohm Co Ltd | Car security device |
JP2008207627A (en) * | 2007-02-23 | 2008-09-11 | Auto Network Gijutsu Kenkyusho:Kk | In-vehicle imaging system, imaging device, and display control device |
CN103080990B (en) * | 2011-06-07 | 2015-04-01 | 株式会社小松制作所 | Work vehicle vicinity monitoring device |
-
2015
- 2015-04-27 JP JP2015090286A patent/JP6571974B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016203886A (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109166261B (en) | Image processing method, device and equipment based on image recognition and storage medium | |
CN107978157B (en) | Vehicle management method, device and computer readable storage medium | |
EP3575159B1 (en) | Image transmitting device | |
JP6571974B2 (en) | DETECTING DEVICE, DETECTING SYSTEM, DETECTING METHOD, AND PROGRAM | |
CN108352114B (en) | Parking space detection method and system | |
CN109792508B (en) | Fail-safe inspection using thermal imaging analysis | |
EP3754618B1 (en) | Recording control device, recording control system, recording control method, and recording control program | |
US20160140778A1 (en) | Method and system for identifying damage caused to a vehicle | |
US9205826B2 (en) | Wiper system and control method thereof | |
JP2007199840A (en) | Theft prevention system for vehicle, theft prevention device for vehicle, theft prevention program for vehicle, and management system | |
KR20140089999A (en) | Parking Area Guidance System and Method | |
CN105857252A (en) | Automobile anti-theft tracing method and system | |
EP3483852A1 (en) | Rescue system and rescue method, and server used for rescue system and rescue method | |
CN105336173A (en) | Image information acquisition method and related device | |
CN112085964A (en) | Vehicle parking position guidance system and method | |
US20150117705A1 (en) | Hybrid Parking Detection | |
KR20150013422A (en) | Parking Area Guidance System and Method | |
KR102099394B1 (en) | Vehicle recognition device, method and computer program | |
KR102217651B1 (en) | Method for providing information of parking location based on image and vehicle for carrying out the same | |
JP6664411B2 (en) | Security device, security control method, program, and storage medium | |
KR20170007872A (en) | System and method for automated notification where you have parked | |
KR102711616B1 (en) | Vehicle and controlling method of vehicle | |
KR20130110821A (en) | Method and apparatus for detecting vehicle through detection of license plate | |
JP4032408B2 (en) | Parking lot management system | |
KR20200038226A (en) | Vehicle recognition device, method and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6571974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |