JP6613999B2 - Driving support system - Google Patents
Driving support system Download PDFInfo
- Publication number
- JP6613999B2 JP6613999B2 JP2016078319A JP2016078319A JP6613999B2 JP 6613999 B2 JP6613999 B2 JP 6613999B2 JP 2016078319 A JP2016078319 A JP 2016078319A JP 2016078319 A JP2016078319 A JP 2016078319A JP 6613999 B2 JP6613999 B2 JP 6613999B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- unit
- information
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 73
- 238000012545 processing Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000010365 information processing Effects 0.000 description 37
- 238000000034 method Methods 0.000 description 35
- 238000004891 communication Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 28
- 239000000470 constituent Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 6
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 6
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、車両の周囲を撮像した画像を解析して運転支援を行う技術に関する。 The present invention relates to a technology for performing driving support by analyzing an image obtained by imaging the periphery of a vehicle.
車両の周囲を撮像した画像を解析して、FCWやPCWなどの運転支援を行うADASが知られている。ADASは、「Advanced Driver Assistance System」とも表記され、高度運転支援システムのことである。FCWは、「Forward Collision Warning」とも表記され、前方車接近警報のことである。PCWは、「Pedestrian Collision Warning」とも表記され、通行人接近警報のことである。 ADAS that performs driving support such as FCW and PCW by analyzing an image captured around the vehicle is known. ADAS is also referred to as “Advanced Driver Assistance System” and is an advanced driving assistance system. FCW is also written as “Forward Collision Warning” and is a front vehicle approach warning. PCW is also written as “Pedestrian Collision Warning” and is a passerby warning.
特許文献1には、車両の周囲を撮像した画像をADASが無線でIVISに送信し、IVISでは、受信した画像を解析して、誤方向検知や降雨検知、ワイパー制御、ヘッドライト制御などの運転支援を行う技術が開示されている。IVISは、「In-Vehicle Infotainment System」とも表記され、車載インフォテイメントシステムのことである。
In
しかしながら、次のような問題があった。すなわち、FCWやPCWなどの即応性が求められる処理である即応性処理については、ADASで行うのが一般的である。しかし、即応性処理をADASにて行う場合、画像解析に割り当てられるリソースに制約があると、高精度な画像解析が行われず、画像解析による物標の認識結果の信頼性が低くなるおそれがあった。なお、即応性処理をIVISなどの他の機器にて行うようにした場合、ADASと他の機器との間で画像データおよび画像解析結果を常時送受信する必要があり、通信負担が増加するという問題があった。 However, there were the following problems. That is, the quick response processing that requires quick response, such as FCW and PCW, is generally performed by ADAS. However, when the responsive processing is performed by ADAS, if there are restrictions on resources allocated to image analysis, high-accuracy image analysis is not performed, and the reliability of the target recognition result by image analysis may be lowered. It was. In addition, when the responsive processing is performed by other devices such as IVIS, it is necessary to constantly transmit and receive image data and image analysis results between ADAS and other devices, which increases the communication burden. was there.
本発明は、こうした問題にかんがみてなされたものであり、車両の周囲を撮像した撮像画像から物標を検出した結果である物標検出結果を用いて運転支援を行う際に、システムの通信負担を抑制しながら、物標検出結果の信頼性を向上させる技術を提供することを目的としている。 The present invention has been made in view of these problems, and when performing driving assistance using a target detection result that is a result of detecting a target from a captured image obtained by imaging the periphery of a vehicle, the communication burden of the system It aims at providing the technique which improves the reliability of a target detection result, suppressing this.
本発明の運転支援システム(1)は、車載装置(10)と、車外機器(20)と、を備える。車載装置は、車両(100)に搭載される装置である。車外機器は、車両の外部に設けられた機器である。車載装置と車外機器とは無線で通信可能である。 The driving support system (1) of the present invention includes an in-vehicle device (10) and an external device (20). The in-vehicle device is a device mounted on the vehicle (100). The device outside the vehicle is a device provided outside the vehicle. The in-vehicle device and the external device can communicate wirelessly.
車載装置は、取得部と、検出部と、第1判定部と、第1生成部と、実行部と、第2生成部と、第1送信部と、第2受信部と、を備える。
車外機器は、第1受信部と、第2判定部と、第2送信部と、を備える。
The in-vehicle device includes an acquisition unit, a detection unit, a first determination unit, a first generation unit, an execution unit, a second generation unit, a first transmission unit, and a second reception unit.
The device outside the vehicle includes a first reception unit, a second determination unit, and a second transmission unit.
取得部は、車両の周囲の状況を示す情報である周囲情報を取得する(S110)。
検出部は、取得部によって取得された前記周囲情報から情報処理により画像上の物標である画像物標を、その物標の種別である物標種別、その物標の大きさである物標大きさ、その物標の位置である物標位置とともに検出する(S120)。
The acquisition unit acquires ambient information that is information indicating a situation around the vehicle (S110).
The detection unit detects an image target that is a target on the image by information processing from the surrounding information acquired by the acquisition unit, a target type that is the type of the target, and a target that is the size of the target. The size and the target position which is the position of the target are detected (S120).
第1判定部は、検出部によって検出された物標種別が予め設定された種別に該当する場合に、検出部による前記物標種別の検出結果である種別検出結果を評価し、種別検出結果を評価した値である評価値が予め設定された設定閾値以上である場合には、種別検出結果の信頼性が高いと判定し、評価値が設定閾値未満である場合には、種別検出結果の信頼性が低いと判定する(S130、S140、S150)。 When the target type detected by the detection unit corresponds to a preset type, the first determination unit evaluates a type detection result that is a detection result of the target type by the detection unit, and determines the type detection result. If the evaluation value, which is the evaluated value, is greater than or equal to a preset threshold value, it is determined that the reliability of the type detection result is high. If the evaluation value is less than the set threshold value, the reliability of the type detection result is determined. It is determined that the property is low (S130, S140, S150).
第1生成部は、種別検出結果の信頼性が高いと第1判定部によって判定された場合に、画像物標に関する情報として、物標種別、物標大きさ、物標位置を含む物標情報を生成する(S200)。 The first generation unit includes target information including a target type, a target size, and a target position as information on the image target when the first determination unit determines that the reliability of the type detection result is high. Is generated (S200).
実行部は、第1生成部によって生成された物標情報に従い、各種車載機器を制御して運転支援を行う(S210)。
第2生成部は、種別検出結果の信頼性が低いと第1判定部によって判定された場合に、周囲情報のうち画像物標が含まれる部分である部分情報を生成する(S160)。
The execution unit performs driving support by controlling various in-vehicle devices according to the target information generated by the first generation unit (S210).
If the first determination unit determines that the reliability of the type detection result is low, the second generation unit generates partial information that is a portion including the image target in the surrounding information (S160).
第1送信部は、第2生成部によって生成された部分情報を車外機器に送信する(S170)。
第1受信部は、車載装置から送信された部分情報を受信する(S310)。
The first transmission unit transmits the partial information generated by the second generation unit to the external device (S170).
The first receiving unit receives the partial information transmitted from the in-vehicle device (S310).
第2判定部は、第1受信部が受信した部分情報に基づき、種別検出結果の適否を判定する(S320)。
第2送信部は、第2判定部による判定結果を判定情報として車載装置に送信する(S330)。
The second determination unit determines whether the type detection result is appropriate based on the partial information received by the first reception unit (S320).
A 2nd transmission part transmits the determination result by a 2nd determination part to vehicle equipment as determination information (S330).
第2受信部は、車外機器から送信された判定情報を受信する(S180)。
第1生成部は、種別検出結果の信頼性が低いと第1判定部によって判定された場合において、種別検出結果が適切である旨を第2受信部によって受信された判定情報が示す場合に、前記物標情報を生成する(S190、S200)。
The second receiving unit receives the determination information transmitted from the external device (S180).
When the determination information received by the second reception unit indicates that the type detection result is appropriate when the first determination unit determines that the reliability of the type detection result is low, the first generation unit, The target information is generated (S190, S200).
このような構成によれば、種別検出結果の信頼性が高い場合には、車載装置において、画像物標に関する情報として物標情報を生成し、物標情報に従い、各種車載機器を制御して運転支援を行う。種別検出結果の信頼性が低い場合には、部分情報を車外機器に送信し、車外機器にて種別検出結果の適否を判定し、判定結果を示す判定情報を車載装置に返送してもらう。これに対して、車載装置では、種別検出結果が適切である旨を受信した判定情報が示す場合に、物標情報を生成し、物標情報に従い、各種車載機器を制御して運転支援を行う。 According to such a configuration, when the reliability of the type detection result is high, the in-vehicle device generates target information as information on the image target, and controls various in-vehicle devices according to the target information for operation. Provide support. When the reliability of the type detection result is low, the partial information is transmitted to the external device, the suitability of the type detection result is determined by the external device, and the determination information indicating the determination result is returned to the in-vehicle device. On the other hand, in the in-vehicle device, when the determination information received that the type detection result is appropriate indicates, target information is generated, and various in-vehicle devices are controlled according to the target information to provide driving support. .
このように、種別検出結果の信頼性が低い場合には、車外機器にて種別検出結果の適否を判定するので、種別検出結果の信頼性を向上させることができる。また、車載装置と車外機器との間で通信を行うのは、種別検出結果の信頼性が低い場合のみであり、運転支援システムの通信負担が抑制される。 In this way, when the reliability of the type detection result is low, the suitability of the type detection result is determined by the external device, so that the reliability of the type detection result can be improved. Further, communication between the in-vehicle device and the external device is performed only when the reliability of the type detection result is low, and the communication load of the driving support system is suppressed.
したがって、車両の周囲の状況を示す情報である周囲情報から物標を検出した結果である物標検出結果を用いて運転支援を行う際に、システムの通信負担を抑制しながら、物標検出結果の信頼性を向上させることができる。 Therefore, when driving support is performed using the target detection result that is the result of detecting the target from the surrounding information that is information indicating the situation around the vehicle, the target detection result while suppressing the communication burden of the system Reliability can be improved.
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.
以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.全体構成]
図1に示すように、本実施形態の運転支援システム1は、車載装置10と、車外機器20と、を備える。車載装置10は、自車両100に搭載される装置である。車外機器20は、管理センターやクラウドサーバーなど自車両100の外部に設けられた機器である。車載装置10と車外機器20とは、互いに無線で通信可能である。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. overall structure]
As shown in FIG. 1, the
[1.1.車載装置10の構成]
車載装置10は、センサ11と、情報処理部12と、実行部13と、通信部14と、を備える。情報処理部12は、センサ11、実行部13、および通信部14のそれぞれと通信可能に接続されている。
[1.1. Configuration of in-vehicle device 10]
The in-
センサ11の具体例としては、画像センサやステレオカメラ、レーザレーダー、ミリ波レーダーなどが挙げられる。以下の説明では、センサ11として、画像センサを採用した例を挙げる。
Specific examples of the
センサ11は、自車両100の中央付近に配置される。センサ11は、自車両100の周囲を撮像する。図2には、自車両100にセンサ11が取り付けられている位置が示されている。本実施形態では、センサ11は、自車両100に設定された探査領域を撮像する。センサ11は、図2に示すように、撮像した画像である撮像画像を表す撮像データに対して、テンプレートマッチング等の周知の画像処理を行うことにより、撮像画像から物標を検出する。物標の種別としては、車両や白線、通行人等が挙げられる。
The
情報処理部12は、CPU12Aと、RAM12B、ROM12C、フラッシュメモリ12D等の半導体メモリと、を有する周知のマイクロコンピュータを中心に構成される。情報処理部12の各種機能は、CPU12Aが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、半導体メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、情報処理部12を構成するマイクロコンピュータの数は1つでも複数でもよい。
The
実行部13は、各種車載機器を制御して所定の運転支援を実行する。実行部13は、制御対象となる車載機器として、各種画像を表示するモニタや、警報音や案内音声を出力するスピーカを少なくとも備える。また、実行部13は、制御対象となる車載機器として、さらに、自車両100に搭載された内燃機関、パワートレイン機構、ブレーキ機構等を制御する各種制御装置を含んでいてもよい。
The
通信部14は、車外機器20の通信部21と無線で各種データの送受信を行う。
[1.2.車外機器20の構成]
車外機器20は、通信部21と、情報処理部22と、を備える。通信部21と情報処理部22とは互いに通信可能に接続されている。
The
[1.2. Configuration of External Device 20]
The
通信部21は、車載装置10の通信部14と無線で各種データの送受信を行う。
情報処理部22は、CPU22Aと、RAM22B、ROM22C、フラッシュメモリ22D等の半導体メモリと、を有する周知のマイクロコンピュータを中心に構成される。情報処理部22の各種機能は、CPU22Aが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、半導体メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、情報処理部22を構成するマイクロコンピュータの数は1つでも複数でもよい。
The
The
[2.処理]
運転支援システム1が実行する各種処理について説明する。
[2.1.運転支援処理]
車載装置10が実行する運転支援処理について、図4のフローチャートを用いて説明する。
[2. processing]
Various processes executed by the driving
[2.1. Driving support processing]
The driving support process executed by the in-
最初のステップS110では、センサ11が、自車両100に設定された探査領域を撮像する。その後、S120に移行する。
S120では、センサ11が、撮像した画像である撮像画像を表す撮像データに対して、テンプレートマッチング等の周知の画像処理を行うことにより、撮像画像から画像上の物標である画像物標をその種別である物標種別、大きさである物標大きさ、位置である物標位置とともに検出する。撮像画像は、車両の周囲の状況を示す情報である周囲情報の一例である。図2には、撮像画像から物標を検出した例が示されている。この例では、通行人が6箇所で検出されている。このうち、通行人を正しく検出しているのは、4箇所である。また、通行人がいない部分を通行人として検出しているのは2箇所である。また、通行人が検出されていない箇所が1箇所ある。図6に示す例では、撮像画像から物標「1」と物標「2」を検出する。そして、センサ11が、この処理により検出された画像物標に関する情報である画像物標情報を情報処理部12へ送信する。画像物標情報には、物標種別、物標大きさ、物標位置についての情報が含まれている。その後、S130に移行する。
In the first step S <b> 110, the
In S120, the
S130では、情報処理部12が、画像物標情報に含まれる物標種別が予め設定された種別に該当するか否かを判断する。本実施形態では、当該種別には通行人が設定されている。物標種別が予め設定された種別に該当すると判断された場合には、S140に移行する。物標種別が予め設定された種別に該当しないと判断された場合には、本処理を終了する。
In S <b> 130, the
S140では、情報処理部12が、物標種別の検出結果である種別検出結果の信頼性を判定する。図3には、種別検出結果の信頼性を判定する例が示されている。情報処理部12が、通行人として検出された画像物標と通行人モデルとを比較することにより、通行人として検出された画像物標の通行人らしさを示すスコア値を算出する。スコア値は、種別検出結果を評価した値である評価値に該当する。通行人モデルには、通行人を単純化した形状が多数登録されている。画像物標と通行人モデルに登録される形状とが近似する場合には近似度合いに応じた値をスコア値に加算する。画像物標と通行人モデルに登録される形状とが近似しない場合にはその度合いに応じた値をスコア値から減算する。スコア値が
予め設定された判定閾値以上である場合には、情報処理部12が、種別検出結果の信頼性が高いと判断する。本実施形態では、判定閾値は数値「0」に設定されている。スコア値が判定閾値未満である場合には、情報処理部12が、種別検出結果の信頼性が低いと判断する。図6に示す例では、物標「1」および物標「2」のそれぞれの種別検出結果の信頼性が低いと判断している。その後、S150に移行する。
In S140, the
S150では、情報処理部12が、種別検出結果の信頼性が高いか否かを判断する。種別検出結果の信頼性が高いと判定された場合には、S200に移行する。種別検出結果の信頼性が低いと判定された場合には、S160に移行する。
In S150, the
S160では、情報処理部12が、撮像画像のうち画像物標が含まれる部分である物標画像を生成する。物標画像は、周囲情報のうち画像物標が含まれる部分である部分情報の一例である。本実施形態では、情報処理部12が、物標画像を生成する際に、撮像画像のうち車外機器20に送信済みの物標画像と重複する部分を削除する。
In S160, the
図7には、事例1として、BOX1およびBOX2が一部重複する例、事例2として、BOX1にBOX2が含まれる例、事例3として、BOX1、BOX2およびBOX3が一部重複する例が示されている。BOX1、BOX2およびBOX3は物標画像に該当する。ここでは、BOX1、BOX2、BOX3の順に撮像されたとする。
FIG. 7 shows an example in which BOX1 and BOX2 partially overlap as
事例1では、図8に示すように、BOX1については、BOX1すべてを物標画像として生成する。BOX1を示す画像データには、当該BOXに関する情報である基本情報が含まれる。基本情報には、画像の番号、画像の高さ、画像の幅、データの先頭を示す符号、データ本体が含まれる。BOX2については、BOX2のうちBOX1と重複する部分を削除した部分を物標画像として生成する。BOX2を示す画像データには、BOX2に関する基本情報、重複関連情報が含まれる。重複関連情報は、BOX同士が重複する部分に関する情報であり、重複関連情報の先頭を示す符号、重複先の番号、重複部分の隅部の数量、重複先での重複部分の各隅部のアドレス、当該画像での重複部分の各隅部のアドレスが含まれる。
In
事例2では、図8に示すように、BOX1およびBOX2について事例1と同様である。
事例3では、図9に示すように、BOX1およびBOX2について事例1と同様である。BOX3については、BOX3のうちBOX1またはBOX2と重複する部分を削除した部分を物標画像として生成する。BOX3を示す画像データには、BOX3に関する基本情報、他のBOXとの重複に関する重複関連情報が含まれる。すなわち、N個の他のBOXと重複する場合には、N個の他のBOXのそれぞれに対応する重複関連情報が含まれるようにする。このように、重複部分については、一度だけ送信するように物標画像が生成される。
In
In
図6に示す例では、物標の種別の認識結果の信頼性が低いと判断された物標「1」および物標「2」について物標画像を生成する。
その後、S170に移行する。
In the example illustrated in FIG. 6, target images are generated for the target “1” and the target “2” that are determined to have low reliability in the recognition result of the target type.
Thereafter, the process proceeds to S170.
S170では、通信部14が、情報処理部12によって生成された物標画像を車外機器20に送信する。図6に示す例では、物標「1」および物標「2」についての物標画像を車外機器20に送信する。その後、S180に移行する。
In S <b> 170, the
S180では、通信部14が、車外機器20から送信された判定情報を受信したか否かを判断する。判定情報は、種別検出結果が適切であるか否かを示す情報である。判定情報
を受信していないと判断された場合には、S180を再度実行することにより、判定情報を受信するまで待機する。判定情報を受信したと判断された場合には、S190に移行する。
In S180, the
S190では、情報処理部12が、通信部14が受信した判定情報に示される判定結果に基づき、種別検出結果が適切であるか否かを判断する。本実施形態では、情報処理部12が、判定情報が記号「1」である場合には、種別検出結果が適切であると判断し、判定情報が記号「0」である場合には、種別検出結果が適切ではないと判断する。種別検出結果が適切であると判断された場合には、S200に移行する。種別検出結果が適切ではないと判断された場合には、そのまま本処理を終了する。
In S190, the
S200では、情報処理部12が、画像物標に関する情報として、物標種別、物標大きさ、物標位置を含む物標情報を生成する。その後、S210に移行する。
S210では、実行部13が、情報処理部12によって作成された物標情報に従い、各種車載機器を制御して所定の運転支援を実行する。その後、本処理を終了する。
In S200, the
In S <b> 210, the
[2.2.機器側補助処理]
車外機器20が実行する機器側補助処理について、図5のフローチャートを用いて説明する。
[2.2. Device side auxiliary processing]
Device side auxiliary processing executed by the
最初ステップS310では、通信部21が、車載装置10から送信された物標画像を受信したか否かを判断する。物標画像を受信していないと判断された場合には、S310を再度実行することにより、物標画像を受信するまで待機する。物標画像を受信したと判断された場合には、S320に移行する。
First, in step S310, the
S320では、情報処理部22が、通信部21が受信した物標画像に基づき、種別検出結果の適否を判定する。ここでは、S130で説明した手法を用いる。但し、情報処理部22は、情報処理部12に比べて、処理に割り当てられるリソースが豊富であり、処理速度が大きく、通行人モデルに登録される形状がきめ細かく、その数量が多い、といった特徴を有する。スコア値が予め設定された判定閾値以上である場合には、情報処理部22が、種別検出結果が適切であると判定する。スコア値が判定閾値未満である場合には、情報処理部22が、種別検出結果が適切ではないと判断する。図6に示す例では、種別検出結果が適切であると判定された場合には、判定結果を示す判定情報として、記号「1」を付与し、種別検出結果が適切ではないと判定された場合には、判定結果を示す判定情報として、記号「0」を付与する。記号「1」および記号「0」は、判定情報として予め設定された記号の一例である。その後、S330に移行する。
In S320, the
S330では、通信部21が、情報処理部22による判定結果として予め設定された記号で表現した判定情報を車載装置10に送信する。その後、本処理を終了する。
[2.3.特許請求の範囲との対応関係]
S110が取得部に該当する。S120が検出部に該当する。S130、S140およびS150が第1判定部に該当する。S160が第1生成部に該当する。S170が第1送信部に該当する。S180が第2受信部に該当する。S190およびS200が第2生成部に該当する。S210が実行部に該当する。S310が第2受信部に該当する。S320が第2判定部に該当する。S330が第2送信部に該当する。
In S <b> 330, the
[2.3. Correspondence with Claims]
S110 corresponds to the acquisition unit. S120 corresponds to the detection unit. S130, S140, and S150 correspond to the first determination unit. S160 corresponds to the first generation unit. S170 corresponds to the first transmission unit. S180 corresponds to the second receiving unit. S190 and S200 correspond to the second generation unit. S210 corresponds to the execution unit. S310 corresponds to the second receiving unit. S320 corresponds to the second determination unit. S330 corresponds to the second transmission unit.
[3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)種別検出結果の信頼性が高い場合には、車載装置10において、画像物標に関する情報として物標情報を生成し、物標情報に従い、各種車載機器を制御して運転支援を
行う。種別検出結果の信頼性が低い場合には、物標画像を車外機器20に送信し、車外機器20にて種別検出結果の適否を判定し、判定結果を示す判定情報を車載装置10に返送してもらう。車載装置10では、種別検出結果が適切である旨を受信した判定情報が示す場合に、物標情報を生成し、物標情報に従い、各種車載機器を制御して運転支援を行う。
[3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) When the reliability of the type detection result is high, the in-
このように、種別検出結果の信頼性が低い場合には、車外機器20にて種別検出結果の適否を判定するので、種別検出結果の信頼性を向上させることができる。また、車載装置10と車外機器20との間で通信を行うのは、種別検出結果の信頼性が低い場合のみであり、運転支援システム1の通信負担が抑制される。
Thus, when the reliability of the type detection result is low, the suitability of the type detection result is determined by the out-of-
したがって、車両の周囲の状況を示す情報である周囲情報から物標を検出した結果である物標検出結果を用いて運転支援を行う際に、運転支援システム1の通信負担を抑制しながら、物標検出結果の信頼性を向上させることができる。
Therefore, when performing driving support using the target detection result that is the result of detecting the target from the ambient information that is information indicating the situation around the vehicle, the communication burden of the driving
(1b)情報処理部12が、物標画像を生成する際に、撮像画像のうち車外機器20に送信済みの物標画像と重複する部分を削除する。このため、運転支援システム1の通信負担を更に抑制することができる。
(1b) When the
(1c)通信部21が、情報処理部22による判定結果として予め設定された記号で表現した判定情報を車載装置10に送信する。このため、運転支援システム1の通信負担を更に抑制することができる。
(1c) The
[4.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[4. Other Embodiments]
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.
(3a)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。 (3a) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.
(3b)上述した運転支援システム1の他、当該運転支援システム1を構成する車載装置10および車外機器20、車載装置10および車外機器20のそれぞれとしてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運転支援方法や機器側補助方法など、種々の形態で本発明を実現することもできる。
(3b) In addition to the above-described
1…運転支援システム、10…車載装置、11…センサ、12…情報処理部、12A…CPU、12B…RAM、12C…ROM、12D…フラッシュメモリ、13…実行部、14…通信部、20…車外機器、21…通信部、22…情報処理部、22A…CPU、22B…RAM、22C…ROM、22D…フラッシュメモリ、100…自車両。
DESCRIPTION OF
Claims (4)
車載装置(10)と、車外機器(20)と、を備え、
前記車載装置は、車両(100)に搭載される装置であり、前記車外機器は、前記車両の外部に設けられた機器であり、前記車載装置と前記車外機器とは無線で通信可能であり、
前記車載装置は、
前記車両の周囲の状況を撮像した画像である撮像画像を取得する取得部(S110)と、
前記取得部によって取得された前記撮像画像から画像処理により画像上の物標である画像物標を、前記物標の種別である物標種別、前記物標の大きさである物標大きさ、前記物標の位置である物標位置とともに検出する検出部(S120)と、
前記検出部によって検出された前記物標種別が予め設定された種別に該当する場合に、前記検出部による前記物標種別の検出結果である種別検出結果を評価し、前記種別検出結果を評価した値である評価値が予め設定された設定閾値以上である場合には、前記種別検出結果の信頼性が高いと判定し、前記評価値が前記設定閾値未満である場合には、前記種別検出結果の信頼性が低いと判定する第1判定部(S130、S140、S150)と、
前記種別検出結果の信頼性が高いと前記第1判定部によって判定された場合に、前記画像物標に関する情報として、前記物標種別、前記物標大きさ、前記物標位置を含む物標情報を生成する第1生成部(S200)と、
前記第1生成部によって生成された前記物標情報に従い、各種車載機器を制御して運転支援を行う実行部(S210)と、
前記種別検出結果の信頼性が低いと前記第1判定部によって判定された場合に、前記撮像画像のうち前記画像物標が含まれる部分である物標画像を生成する第2生成部(S160)と、
前記第2生成部によって生成された前記物標画像を前記車外機器に送信する第1送信部(S170)と、を備え、
前記車外機器は、
前記車載装置から送信された前記物標画像を受信する第1受信部(S310)と、
前記第1受信部が受信した前記物標画像に基づき、前記種別検出結果の適否を判定する第2判定部(S320)と、
前記第2判定部による判定結果を判定情報として前記車載装置に送信する第2送信部(S330)と、を備え、
前記車載装置は、さらに、
前記車外機器から送信された前記判定情報を受信する第2受信部(S180)を備え、
前記第1生成部は、前記種別検出結果の信頼性が低いと前記第1判定部によって判定された場合において、前記種別検出結果が適切である旨を前記第2受信部によって受信された前記判定情報が示す場合に、前記物標情報を生成する(S190、S200)
運転支援システム。 A driving support system (1),
An in-vehicle device (10) and an external device (20),
The in-vehicle device is a device mounted on the vehicle (100), the out-of-vehicle device is a device provided outside the vehicle, and the in-vehicle device and the out-of-vehicle device can communicate wirelessly,
The in-vehicle device is
An acquisition unit (S110) that acquires a captured image, which is an image obtained by capturing the situation around the vehicle;
An image target that is a target on an image by image processing from the captured image acquired by the acquisition unit, a target type that is a type of the target, a target size that is a size of the target, A detection unit (S120) that detects the target position that is the position of the target;
When the target type detected by the detection unit corresponds to a preset type, the type detection result that is the detection result of the target type by the detection unit is evaluated, and the type detection result is evaluated When the evaluation value, which is a value, is greater than or equal to a preset threshold value, it is determined that the type detection result is highly reliable, and when the evaluation value is less than the set threshold value, the type detection result A first determination unit (S130, S140, S150) that determines that the reliability of the
Target information including the target type, the target size, and the target position as information about the image target when the first determination unit determines that the reliability of the type detection result is high A first generation unit (S200) for generating
In accordance with the target information generated by the first generation unit, an execution unit (S210) that performs driving support by controlling various in-vehicle devices,
A second generation unit (S160) that generates a target image that is a portion including the image target in the captured image when the first determination unit determines that the reliability of the type detection result is low. When,
A first transmission unit (S170) that transmits the target image generated by the second generation unit to the vehicle exterior device,
The outside equipment is
A first receiving unit (S310) for receiving the target image transmitted from the in-vehicle device;
A second determination unit (S320) that determines the suitability of the type detection result based on the target image received by the first reception unit;
A second transmission unit (S330) that transmits the determination result by the second determination unit to the in-vehicle device as determination information,
The in-vehicle device further includes
A second receiving unit (S180) for receiving the determination information transmitted from the vehicle equipment;
The first generation unit, when the first determination unit determines that the reliability of the type detection result is low, the determination received by the second reception unit that the type detection result is appropriate When the information indicates, the target information is generated (S190, S200).
Driving support system.
前記第2生成部は、前記物標画像を生成する際に、前記撮像画像のうち前記車外機器に送信済みの前記物標画像と重複する部分を削除した部分の前記物標画像を示す画像データを生成し、前記画像データには、重複する部分に関する情報である重複関連情報が含まれ、前記重複関連情報には、前記重複関連情報の先頭を示す符号、重複先の番号、重複部分の隅部の数量、重複先での重複部分の各隅部のアドレス、当該物標画像での重複部分の各隅部のアドレスが含まれる
運転支援システム。 The driving support system according to claim 1,
The second generating unit is the target when generating the image, image data representing the target object image of the transmitted of the target portion to delete the portion overlapping with the image on the outside apparatus out of the captured image The image data includes duplication related information that is information relating to an overlapping portion, and the duplication related information includes a code indicating a head of the duplication related information, a duplication destination number, and a corner of the duplication portion. The driving support system includes the number of parts, the address of each corner of the overlapping part at the overlapping destination, and the address of each corner of the overlapping part in the target image .
前記車載装置は、前記種別検出結果の信頼性が低い場合のみ前記車外機器との間で通信を行う The in-vehicle device communicates with the external device only when the reliability of the type detection result is low.
運転支援システム。 Driving support system.
前記第2送信部は、前記判定結果を予め設定された記号で表現した前記判定情報を前記車載装置に送信する
運転支援システム。 The driving support system according to any one of claims 1 to 3 , wherein
The second transmission unit transmits the determination information expressing the determination result with a preset symbol to the in-vehicle device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078319A JP6613999B2 (en) | 2016-04-08 | 2016-04-08 | Driving support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078319A JP6613999B2 (en) | 2016-04-08 | 2016-04-08 | Driving support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017188035A JP2017188035A (en) | 2017-10-12 |
JP6613999B2 true JP6613999B2 (en) | 2019-12-04 |
Family
ID=60045684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016078319A Active JP6613999B2 (en) | 2016-04-08 | 2016-04-08 | Driving support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6613999B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7236835B2 (en) * | 2018-09-28 | 2023-03-10 | 株式会社デンソー | Output device and output method |
DE112019005949T5 (en) * | 2018-11-30 | 2021-08-19 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD |
US11474518B2 (en) | 2019-05-13 | 2022-10-18 | International Business Machines Corporation | Event validation using multiple sources |
US11669071B2 (en) | 2020-01-08 | 2023-06-06 | International Business Machines Corporation | Organizing a temporary device group for collaborative computing |
KR102536446B1 (en) * | 2021-11-29 | 2023-05-26 | 주식회사 와이즈오토모티브 | Apparatus and method for evaluating obstacle recognition performance of an autonomous vehicle using plurality of evaluation devices in real road environment |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4209303B2 (en) * | 2003-10-17 | 2009-01-14 | アルパイン株式会社 | Vehicle face image processing apparatus |
JP4539722B2 (en) * | 2008-01-14 | 2010-09-08 | 株式会社デンソー | Map distribution server and map distribution system |
JP2009217371A (en) * | 2008-03-07 | 2009-09-24 | Nissan Motor Co Ltd | Information processor, information processing system and information processing method |
US9092981B2 (en) * | 2010-03-03 | 2015-07-28 | Panasonic Intellectual Property Management Co., Ltd. | Road condition management system and road condition management method |
JP5835243B2 (en) * | 2013-02-07 | 2015-12-24 | 株式会社デンソー | Target recognition device |
JP5561396B1 (en) * | 2013-02-19 | 2014-07-30 | 日本電気株式会社 | Driving support system and driving support method |
-
2016
- 2016-04-08 JP JP2016078319A patent/JP6613999B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017188035A (en) | 2017-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6613999B2 (en) | Driving support system | |
JP6675448B2 (en) | Vehicle position detecting method and device | |
JP5143235B2 (en) | Control device and vehicle surrounding monitoring device | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
JP6743732B2 (en) | Image recording system, image recording method, image recording program | |
JP2019079397A (en) | On-vehicle device, information processing system and information processing method | |
JP2018133072A (en) | Information processing apparatus and program | |
KR20180007412A (en) | Multi sensor based obstacle detection apparatus and method | |
US20220327329A1 (en) | Obstacle recognition assistance device, obstacle recognition assistance method, and storage medium | |
JP4556742B2 (en) | Vehicle direct image display control apparatus and vehicle direct image display control program | |
JPWO2017115732A1 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program | |
WO2022005478A1 (en) | Systems and methods for detecting projection attacks on object identification systems | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
CN110843775B (en) | Obstacle identification method based on pressure sensor | |
JP6458577B2 (en) | Image ranging device | |
CN111832347B (en) | Method and device for dynamically selecting region of interest | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP5145138B2 (en) | Driving support device, driving support control method, and driving support control processing program | |
US20220237921A1 (en) | Outside environment recognition device | |
JP2020052634A (en) | Dashboard camera and image storage system | |
KR102180193B1 (en) | Method and apparatus for parking space pose detection using parking stripe template matching | |
US11080536B2 (en) | Image processing device, non-transitory readable recording medium storing program, information processing system, and control method of image processing device | |
CN114511834A (en) | Method and device for determining prompt information, electronic equipment and storage medium | |
CN112348993A (en) | Dynamic graph resource establishing method and system capable of providing environment information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191021 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6613999 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |