[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020087217A - Information providing system, server, onboard device, vehicle, program and information providing method - Google Patents

Information providing system, server, onboard device, vehicle, program and information providing method Download PDF

Info

Publication number
JP2020087217A
JP2020087217A JP2018224113A JP2018224113A JP2020087217A JP 2020087217 A JP2020087217 A JP 2020087217A JP 2018224113 A JP2018224113 A JP 2018224113A JP 2018224113 A JP2018224113 A JP 2018224113A JP 2020087217 A JP2020087217 A JP 2020087217A
Authority
JP
Japan
Prior art keywords
vehicle
server
status information
removal status
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018224113A
Other languages
Japanese (ja)
Other versions
JP7192443B2 (en
Inventor
伸 桜田
Shin Sakurada
伸 桜田
岡本 淳
Atsushi Okamoto
淳 岡本
丈亮 山根
Josuke Yamane
丈亮 山根
梨紗子 山本
Risako Yamamoto
梨紗子 山本
和紀 杉江
Kazuki Sugie
和紀 杉江
正俊 小見山
Masatoshi Komiyama
正俊 小見山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018224113A priority Critical patent/JP7192443B2/en
Priority to US16/684,701 priority patent/US11631326B2/en
Priority to CN201911128467.3A priority patent/CN111243332A/en
Publication of JP2020087217A publication Critical patent/JP2020087217A/en
Application granted granted Critical
Publication of JP7192443B2 publication Critical patent/JP7192443B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

To improve prediction accuracy of clearing of a traffic jam to contribute convenience for a user.SOLUTION: An information providing system 1 has a server 10 and an onboard device 11 which transmits and receives information to and from the server 10. The onboard device 11 has an imaging section for imaging a vicinity of a vehicle, and a first transmission section for transmitting position information and captured image data to the server 10. The server 10 has a removal state information generation section for generating removal state information including a position of a road obstacle and a predicted time required to remove the road obstacle on the basis of the captured image data, and a second transmission section for transmitting the removal state information. The removal state information transmitted from the server 10 is output in another onboard device.SELECTED DRAWING: Figure 1

Description

本開示は、情報提供システム、サーバ、車載装置、車両、プログラム及び情報提供方法に関する。 The present disclosure relates to an information providing system, a server, an in-vehicle device, a vehicle, a program, and an information providing method.

渋滞時の車両の運転を支援する方法が提案されている。たとえば、特許文献1には、渋滞の先頭に対する自車両の先行車の位置を判定し、その先行車の位置に基づいて先行車の挙動を予測して、先行車に対する自車両の追従走行を制御する車両制御装置が開示されている。 A method for supporting driving a vehicle during a traffic jam has been proposed. For example, in Patent Document 1, the position of the preceding vehicle of the own vehicle with respect to the beginning of the traffic jam is determined, the behavior of the preceding vehicle is predicted based on the position of the preceding vehicle, and the following traveling of the own vehicle to the preceding vehicle is controlled. There is disclosed a vehicle control device that does.

特開2011−068308号公報JP, 2011-068308, A

しかしながら、特許文献1の技術は、渋滞中に自車両の制御を支援できるとしても、渋滞そのものの解消の目途をユーザが把握することは、必ずしも容易ではない。渋滞解消予測の精度が低いと、ユーザがストレスを覚えるおそれがある。よって、渋滞解消予測の精度に改善の余地がある。 However, even if the technique of Patent Document 1 can support the control of the own vehicle during the traffic jam, it is not always easy for the user to grasp the purpose of eliminating the traffic jam itself. If the accuracy of the traffic congestion elimination prediction is low, the user may feel stress. Therefore, there is room for improvement in the accuracy of traffic congestion elimination prediction.

そこで、上記に鑑み、本発明の目的は、渋滞解消予測の精度を向上させてユーザの利便性に資するような、渋滞解消予測に関する情報提供システム等を提供することにある。 Therefore, in view of the above, an object of the present invention is to provide an information providing system or the like relating to traffic congestion elimination prediction that improves the accuracy of traffic congestion elimination prediction and contributes to the convenience of the user.

本開示の一実施形態に係る情報提供システムは、サーバと、前記サーバと情報を送受信する車載装置とを有し、前記車載装置は、車両周辺を撮像する撮像部と、位置情報と撮像画像データとを前記サーバに送信する第1の送信部とを有し、前記サーバは、前記撮像画像データに基づき路上障害物の位置と当該路上障害物の除去にかかる予測時間とを含む除去状況情報を生成する除去状況情報生成部と、前記除去状況情報を送信する第2の送信部とを有し、前記サーバから送信される前記除去状況情報が他の車載装置にて出力される。 An information providing system according to an embodiment of the present disclosure includes a server and an in-vehicle device that transmits and receives information to and from the server, and the in-vehicle device includes an image capturing unit that captures an image around the vehicle, position information, and captured image data. And a first transmission unit for transmitting to the server, the server based on the captured image data, removal status information including the position of the road obstacle and the estimated time taken to remove the road obstacle. It has a removal status information generation unit to generate and a second transmission unit to transmit the removal status information, and the removal status information transmitted from the server is output to another in-vehicle device.

本開示の別の態様に係るサーバは、車載装置にて所定の車両状況のときに撮像された車両周辺の撮像画像の撮像画像データを当該車載装置から受信する受信部と、前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報を生成する除去状況情報生成部と、前記除去状況情報を他の車載装置に送信する送信部とを有する。 A server according to another aspect of the present disclosure includes a receiving unit that receives, from the in-vehicle device, captured image data of a captured image of the surroundings of a vehicle captured by the in-vehicle device in a predetermined vehicle condition. Based on the removal status information generation unit that generates removal status information including a predicted time taken to remove the obstacle on the road, and a transmission unit that transmits the removal status information to another in-vehicle device.

本開示の別の態様に係る車載装置は、所定の車両状態のときに車両周辺を撮像する撮像部と、撮像画像データをサーバに送信する送信部とを有し、前記サーバにて、前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報が生成されて当該除去状況情報が他の車載装置に送信され、当該他の車載装置にて前記除去状況情報が出力される。 An in-vehicle device according to another aspect of the present disclosure includes an image capturing unit that captures an image of a vehicle surroundings in a predetermined vehicle state, and a transmitting unit that transmits captured image data to a server. Removal status information including a predicted time taken to remove a road obstacle is generated based on image data, the removal status information is transmitted to another in-vehicle device, and the removal status information is output in the other in-vehicle device. ..

本開示の別の態様に係る車載装置は、サーバにて他の車載装置から受信する撮像画像データに基づき生成される、路上障害物の除去にかかる予測時間を含む除去状況情報を、当該サーバから受信する受信部と、
前記除去状況情報を出力する出力部とを有する。
An in-vehicle device according to another aspect of the present disclosure includes, from the server, removal status information including a predicted time taken to remove a road obstacle, which is generated based on captured image data received from another in-vehicle device by a server. A receiving unit for receiving,
And an output unit that outputs the removal status information.

本開示の別の態様に係るプログラムは、車載装置に、所定の車両状態のときに車両周辺を撮像する手順と、撮像画像データをサーバに送信する手順とを実行させ、前記サーバにて、前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報が生成されて当該除去状況情報が他の車載装置に送信され、当該他の車載装置にて前記除去状況情報が出力される。 A program according to another aspect of the present disclosure causes an in-vehicle device to execute a procedure of capturing an image of a vehicle periphery in a predetermined vehicle state and a procedure of transmitting captured image data to a server, and the server, Based on the captured image data, the removal status information including the estimated time taken to remove the obstacle on the road is generated, the removal status information is transmitted to the other in-vehicle device, and the removal status information is output in the other in-vehicle device. It

本開示の別の態様に係るプログラムは、車載装置に、サーバにて他の車載装置から受信する撮像画像データに基づき生成される、路上障害物の除去にかかる予測時間を含む除去状況情報を、当該サーバから受信する手順と、前記除去状況情報を出力する手順とを実行させる。 A program according to another aspect of the present disclosure includes, in an in-vehicle device, removal status information including a predicted time taken to remove a road obstacle, which is generated based on captured image data received from another in-vehicle device by a server, The procedure of receiving from the server and the procedure of outputting the removal status information are executed.

本開示の別の態様に係る情報提供方法は、サーバと、前記サーバと情報を送受信する車載装置とにより実行され、前記車載装置が、車両周辺を撮像し、 位置情報と撮像画像データを前記サーバに送信し、前記サーバが、前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報を生成し、前記除去状況情報を送信し、他の車載装置が、前記サーバから送信される前記除去状況情報を出力する。 An information providing method according to another aspect of the present disclosure is executed by a server and an in-vehicle device that transmits and receives information to and from the server, the in-vehicle device captures an image of a vehicle periphery, and position information and captured image data are stored in the server. And the server generates removal status information including a predicted time taken to remove a road obstacle based on the captured image data, sends the removal status information, and another in-vehicle device sends the removal status information from the server. The removal status information is output.

本開示における情報提供システム等によれば、渋滞解消予測の精度を向上させてユーザの利便性に資するような、情報提供システム等を提供することができる。 According to the information providing system and the like in the present disclosure, it is possible to provide an information providing system and the like that improves the accuracy of traffic congestion elimination prediction and contributes to user convenience.

情報提供システムの構成を示す図である。It is a figure which shows the structure of an information provision system. サーバの構成を示す図である。It is a figure which shows the structure of a server. 車載装置の構成を示す図である。It is a figure which shows the structure of an in-vehicle apparatus. 車載装置の動作手順を示すフローチャート図である。It is a flowchart figure which shows the operation procedure of a vehicle-mounted apparatus. 車載装置の動作手順を示すフローチャート図である。It is a flowchart figure which shows the operation procedure of a vehicle-mounted apparatus. サーバの動作手順を示すフローチャート図である。It is a flowchart figure which shows the operation procedure of a server. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 除去時間DBの例を示す図である。It is a figure which shows the example of removal time DB. 除去状況情報の表示例を示す図である。It is a figure which shows the example of a display of removal status information.

以下、図面を参照しつつ、本発明の一実施形態について説明する。 An embodiment of the present invention will be described below with reference to the drawings.

図1は、一実施形態に係る情報提供システム1の構成を示す。情報提供システム1は、サーバ10と、車両14に搭載される車載装置11とを有する。車両14は、たとえば自動車であるが、これに限られずユーザが乗車可能な任意の車両であってもよい。車載装置11は、ナビゲーション機能と撮像機能のいずれかまたは両方を有する。サーバ10と車載装置は、有線または無線により、ネットワーク13を介して互いにデータ通信可能に接続される。情報提供システム1は、複数の車両14にそれぞれ搭載される複数の車載装置11を有してもよい。かかる構成において、サーバ10及び車載装置11は、それぞれ相互に各種情報を送受信する。 FIG. 1 shows the configuration of an information providing system 1 according to an embodiment. The information providing system 1 includes a server 10 and an in-vehicle device 11 mounted on the vehicle 14. The vehicle 14 is, for example, an automobile, but is not limited to this, and may be any vehicle that the user can ride in. The in-vehicle device 11 has either or both of a navigation function and an imaging function. The server 10 and the vehicle-mounted device are connected to each other via a network 13 so as to be able to perform data communication with each other by wire or wirelessly. The information providing system 1 may include a plurality of vehicle-mounted devices 11 mounted on a plurality of vehicles 14, respectively. In such a configuration, the server 10 and the vehicle-mounted device 11 each transmit and receive various information.

車両14は、走行中に渋滞に巻き込まれることがある。渋滞原因の1つは、路上障害物による車線の封鎖である。渋滞中には、車両14は、たとえば、頻繁なブレーキ使用、低速走行といった、特徴的な車両状態を呈する。このような車両状態をトリガとして車載装置11が車両周辺を撮像することで、高確率で路上障害物が撮像される。サーバ10は、車両14から撮像画像データを収集し、撮像画像データから路上障害物の除去が完了するまでの予測時間を含む除去状況情報を生成する。そして、サーバ10は、除去状況情報を車載装置11に送信する。すると、車載装置11は、除去状況情報を出力する。そうすることで、ユーザは、たとえば、他の車両14による撮像結果をサーバ10経由で利用し、除去状況情報から路上障害物の除去が完了するまでの予測時間を把握できる。このように、情報提供システム1によれば、渋滞原因の除去予測の精度を向上させることができる。よって、渋滞解消の予測精度を向上させ、ユーザの利便性に資することができる。 The vehicle 14 may be caught in a traffic jam while traveling. One of the causes of congestion is the blockage of lanes due to road obstacles. During a traffic jam, the vehicle 14 exhibits a characteristic vehicle state such as frequent use of brakes and low speed traveling. When the vehicle-mounted device 11 captures an image around the vehicle by using such a vehicle state as a trigger, a road obstacle is captured with high probability. The server 10 collects captured image data from the vehicle 14 and generates removal status information including a predicted time until completion of removal of a road obstacle from the captured image data. Then, the server 10 transmits the removal status information to the in-vehicle device 11. Then, the vehicle-mounted device 11 outputs the removal status information. By doing so, for example, the user can use the imaging result of another vehicle 14 via the server 10 and grasp the estimated time until the removal of the obstacle on the road is completed from the removal status information. As described above, according to the information providing system 1, it is possible to improve the accuracy of prediction of removal of the cause of the traffic jam. Therefore, it is possible to improve the accuracy of prediction of congestion elimination and contribute to the convenience of the user.

図2は、サーバ10の構成を示す。サーバ10は、通信部20、記憶部21、及び制御部22を有する。サーバ10は、1つ又は互いに通信可能な複数のコンピュータである。 FIG. 2 shows the configuration of the server 10. The server 10 includes a communication unit 20, a storage unit 21, and a control unit 22. The server 10 is one or a plurality of computers that can communicate with each other.

通信部20は、ネットワーク13に接続する1つ以上の通信モジュールを含む。たとえば、通信部20は、有線LAN(Local Area Network)規格に対応する通信モジュールを含んでもよい。本実施形態において、サーバ10は、通信部20を介してネットワーク13に接続される。 The communication unit 20 includes one or more communication modules connected to the network 13. For example, the communication unit 20 may include a communication module compatible with a wired LAN (Local Area Network) standard. In the present embodiment, the server 10 is connected to the network 13 via the communication unit 20.

記憶部21は、1つ以上のメモリを含む。記憶部21に含まれる各メモリは、例えば主記憶装置、補助記憶装置、またはキャッシュメモリとして機能する。記憶部21は、サーバ10の動作に用いられる任意の情報、制御・処理プログラム、及びデータベースを記憶する。また、記憶部21は、路上障害物の除去時間を有する除去時間DB23を格納する。除去時間DB23の詳細については後述する。 The storage unit 21 includes one or more memories. Each memory included in the storage unit 21 functions as, for example, a main storage device, an auxiliary storage device, or a cache memory. The storage unit 21 stores arbitrary information used for the operation of the server 10, a control/processing program, and a database. The storage unit 21 also stores a removal time DB 23 having a removal time for road obstacles. Details of the removal time DB 23 will be described later.

制御部22は、1つ以上のプロセッサを有する。各プロセッサは、汎用のプロセッサ、または特定の処理に特化した専用のプロセッサであるが、これらに限られない。制御部22は、記憶部21に格納される制御・処理プログラムに従ってサーバ10の動作を制御する。また、制御部22は、現在時刻を把握する計時機能を有する。 The control unit 22 has one or more processors. Each processor is a general-purpose processor or a dedicated processor specialized for specific processing, but is not limited to these. The control unit 22 controls the operation of the server 10 according to the control/processing program stored in the storage unit 21. Further, the control unit 22 has a timekeeping function for grasping the current time.

図3は、車載装置11の構成を示す。車載装置11は、入出力部30、通信部31、記憶部32、検出部33、撮像部34、ナビゲーション部35、及び制御部36を有する。車載装置11は、単一の装置であってもよいし、複数の装置により構成されてもよい。 FIG. 3 shows the configuration of the vehicle-mounted device 11. The in-vehicle device 11 includes an input/output unit 30, a communication unit 31, a storage unit 32, a detection unit 33, an imaging unit 34, a navigation unit 35, and a control unit 36. The in-vehicle device 11 may be a single device or may be composed of a plurality of devices.

入出力部30は、ユーザの入力を検出し、入力情報をナビゲーション部35、制御部36等に送る入力インタフェースを有する。かかる入力インタフェースは、たとえば、物理キー、静電容量キー、パネルディスプレイと一体的に設けられたタッチスクリーン、または音声入力を受け付けるマイクロフォン等であるが、これらに限られず、任意の入力インタフェースであってもよい。また、入出力部30は、ナビゲーション部35または制御部36が生成したりサーバ10から取得したりする情報をユーザに対して出力する出力インタフェースを有する。かかる出力インタフェースは、たとえば、情報を画像・映像として出力するパネルディスプレイ、ヘッドアップディスプレイまたは情報を音声として出力するスピーカ等であるが、これらに限られず、任意の出力インタフェースであってもよい。 The input/output unit 30 has an input interface that detects a user input and sends the input information to the navigation unit 35, the control unit 36, and the like. Such an input interface is, for example, a physical key, a capacitance key, a touch screen provided integrally with a panel display, a microphone that receives a voice input, or the like, but is not limited to these, and any input interface may be used. Good. Further, the input/output unit 30 has an output interface for outputting information generated by the navigation unit 35 or the control unit 36 or acquired from the server 10 to the user. Such an output interface is, for example, a panel display that outputs information as an image/video, a head-up display, a speaker that outputs information as audio, or the like, but is not limited to these and may be any output interface.

通信部31は、1つ以上の通信モジュールを有する。通信モジュールは、たとえば、4G(4th Generation)及び5G(5th Generation)等の移動体通信規格に対応するモジュールを含む。また、通信部31は、DCM(Data Communication Module)等の通信機を有してもよい。車載装置11は、通信部31を介してネットワーク13に接続され、サーバ10とデータ通信を行う。また、通信モジュールは、GPS(Global Positioning System)受信モジュールを含む。車載装置11は、通信部31によりGPS信号を受信する。 The communication unit 31 has one or more communication modules. The communication module includes, for example, a module compatible with mobile communication standards such as 4G (4th Generation) and 5G (5th Generation). The communication unit 31 may have a communication device such as a DCM (Data Communication Module). The in-vehicle device 11 is connected to the network 13 via the communication unit 31 and performs data communication with the server 10. Further, the communication module includes a GPS (Global Positioning System) receiving module. The vehicle-mounted device 11 receives the GPS signal by the communication unit 31.

記憶部32は、1つ以上のメモリを含む。記憶部32に含まれる各メモリは、たとえば半導体メモリ、磁気メモリ、または光メモリ等であるが、これらに限られない。各メモリは、たとえば主記憶装置、補助記憶装置、またはキャッシュメモリとして機能する。記憶部32は、車載装置11の動作に用いられる任意の情報を記憶する。たとえば、記憶部32は、制御・処理プログラム、及び組み込みソフトウェア等を記憶してもよい。 The storage unit 32 includes one or more memories. Each memory included in the storage unit 32 is, for example, a semiconductor memory, a magnetic memory, an optical memory, or the like, but is not limited to these. Each memory functions as, for example, a main storage device, an auxiliary storage device, or a cache memory. The storage unit 32 stores arbitrary information used for the operation of the vehicle-mounted device 11. For example, the storage unit 32 may store a control/processing program, embedded software, and the like.

検出部33は、たとえば、車速、ブレーキの制動、加速度、舵角、ヨーレート、オートクルーズコントロールのON/OFF等を検出する、各種センサを有する。検出部33は、所定の周期で、各種センサの検出結果をナビゲーション部35及び制御部36に送る。 The detection unit 33 includes various sensors that detect, for example, vehicle speed, brake braking, acceleration, steering angle, yaw rate, ON/OFF of auto cruise control, and the like. The detection unit 33 sends the detection results of various sensors to the navigation unit 35 and the control unit 36 in a predetermined cycle.

撮像部34は、車載装置11による撮像機能を実現する。撮像部34は、たとえば、車両14の進行方向前方、車両14の側面方向、及び車両14の後方の風景・被写体を撮像するカメラのいずれか1つまたは複数を有する。撮像部34が有するカメラは、単眼カメラであってもよく、ステレオカメラであってもよい。撮像部34は、自車両の外部の風景・被写体を撮像して撮像画像データを生成して制御部36に送る。 The imaging unit 34 realizes the imaging function of the vehicle-mounted device 11. The image capturing unit 34 includes, for example, one or more of a camera that captures an image of a scene or subject in front of the vehicle 14 in the traveling direction, in the side direction of the vehicle 14, and behind the vehicle 14. The camera included in the imaging unit 34 may be a monocular camera or a stereo camera. The image capturing unit 34 captures an image of a landscape or subject outside the host vehicle, generates captured image data, and sends the captured image data to the control unit 36.

ナビゲーション部35は、車載装置11によるナビゲーション機能を実現する。ナビゲーション部35は、経路案内に関する処理を実行する1つ以上のプロセッサを有する。ナビゲーション部35は、記憶部32から地図情報を、入出力部30からユーザによる入力情報を取得する。また、ナビゲーション部35は、制御部36が検出する車両14の現在位置(たとえば、緯度及び経度)を制御部36から取得する。ナビゲーション部35は、ユーザによる入力情報、現在位置等に基づいて、経路案内のための情報を入出力部30によりユーザに提示する。さらに、ナビゲーション部35は、通信部31を介してサーバ10から路上障害物の除去状況情報及び撮像画像データを取得し、入出力部30によりユーザに提示する。 The navigation unit 35 realizes the navigation function of the vehicle-mounted device 11. The navigation unit 35 includes one or more processors that execute processing related to route guidance. The navigation unit 35 acquires map information from the storage unit 32 and input information by the user from the input/output unit 30. The navigation unit 35 also acquires from the control unit 36 the current position (for example, latitude and longitude) of the vehicle 14 detected by the control unit 36. The navigation unit 35 presents information for route guidance to the user via the input/output unit 30 based on the information input by the user, the current position, and the like. Furthermore, the navigation unit 35 acquires the roadside obstacle removal status information and the captured image data from the server 10 via the communication unit 31, and presents it to the user via the input/output unit 30.

制御部36は、1つ以上のプロセッサを有する。各プロセッサは、汎用のプロセッサ、または特定の処理に特化した専用のプロセッサであるが、これらに限られない。たとえば、車両14に搭載されたECU(Electronic Control Unit)が、制御部36として機能してもよい。制御部36は、車載装置11の動作を統括的に制御する。また、制御部36は、現在時刻を把握する計時機能を有する。 The control unit 36 has one or more processors. Each processor is a general-purpose processor or a dedicated processor specialized for specific processing, but is not limited to these. For example, an ECU (Electronic Control Unit) mounted on the vehicle 14 may function as the control unit 36. The control unit 36 centrally controls the operation of the in-vehicle device 11. Further, the control unit 36 has a timekeeping function for grasping the current time.

図4〜図8を用いて、情報提供システム1の動作について説明する。図4A、4B、5は、本実施形態における情報提供システム1の動作を示すフローチャート図である。図4A、4Bは、車載装置11の動作手順を示す。図5は、サーバ10の動作手順を示す。図6A〜6Cは、車両14の進行方前方における撮像画像データの例を示す。図7は、除去時間DB23の例を示す。そして、図8は、車載装置11における除去状況情報等の表示例を示す。 The operation of the information providing system 1 will be described with reference to FIGS. 4 to 8. 4A, 4B, and 5 are flowcharts showing the operation of the information providing system 1 in this embodiment. 4A and 4B show an operation procedure of the vehicle-mounted device 11. FIG. 5 shows an operation procedure of the server 10. 6A to 6C show examples of captured image data in the forward direction of the vehicle 14. FIG. 7 shows an example of the removal time DB 23. Then, FIG. 8 shows a display example of removal status information and the like in the in-vehicle apparatus 11.

図4Aに示すように、車載装置11は、所定の車両状態を検出する(ステップS400)。所定の車両状態は、渋滞に巻き込まれたことを示しうる、たとえば、ブレーキの制動、低速走行(たとえば、車速度が時速5km以下)、停車または略停車状態から低速への加速、オートクルーズコントロールの使用、またはこれらの組合せである。たとえば、制御部36が、所定の周期(たとえば、数ミリ秒〜数秒周期)で検出部33から検出結果を取得し、渋滞を示す車両状態を検出する。なお、渋滞を示す車両状態の検出には、機械学習等、任意の方法を用いてもよい。 As shown in FIG. 4A, the vehicle-mounted device 11 detects a predetermined vehicle state (step S400). The predetermined vehicle state may indicate that the vehicle is caught in a traffic jam, for example, braking of a brake, low-speed traveling (for example, a vehicle speed is 5 km/hour or less), acceleration from a stopped state or a substantially stopped state to a low speed, and automatic cruise control. Use, or a combination of these. For example, the control unit 36 acquires a detection result from the detection unit 33 at a predetermined cycle (for example, a cycle of several milliseconds to several seconds), and detects a vehicle state indicating congestion. It should be noted that any method such as machine learning may be used to detect the vehicle state indicating congestion.

所定の車両状態を検出すると、車載装置11は、車両周辺を撮像する(手順S402)。たとえば、制御部36が撮像部34に撮像を指示し、撮像部34が車外の風景・被写体を撮像する。ここで、車両が例えば渋滞区間の先頭付近に位置する場合、撮像画像には、車外の風景・被写体として、渋滞原因である路上障害物が含まれる蓋然性が高い。路上障害物は、たとえば、事故車両、落石、倒木、積雪、轢死した大型動物などである。 When the predetermined vehicle state is detected, the in-vehicle device 11 captures an image of the vehicle surroundings (step S402). For example, the control unit 36 instructs the image capturing unit 34 to capture an image, and the image capturing unit 34 captures an image of a landscape/subject outside the vehicle. Here, when the vehicle is located, for example, near the beginning of a traffic jam section, the captured image is highly likely to include a road obstacle that is a cause of traffic jam as a scenery/subject outside the vehicle. The obstacles on the road are, for example, an accident vehicle, a rock fall, a fallen tree, a snowfall, and a large animal that has been killed.

次いで、車載装置11は、撮像画像データ、撮像時刻、及び位置情報をサーバ10に送信する(手順S404)。車載装置11では、制御部36は撮像画像データを撮像部34から取得し、撮像時刻を内部の計時機能により取得する。また、制御部36は、撮像時のGPS信号を通信部31から取得して、GPS信号から車両14の現在位置を検出する。そして、制御部36は、撮像画像データ、撮像時刻、及び検出した位置情報を通信部31によりサーバ10に送信する。 Next, the vehicle-mounted device 11 transmits the captured image data, the captured time, and the position information to the server 10 (step S404). In the vehicle-mounted device 11, the control unit 36 acquires captured image data from the image capturing unit 34, and acquires the image capturing time by the internal time counting function. The control unit 36 also acquires a GPS signal at the time of image capturing from the communication unit 31 and detects the current position of the vehicle 14 from the GPS signal. Then, the control unit 36 transmits the captured image data, the captured time, and the detected position information to the server 10 by the communication unit 31.

図5に示すように、サーバ10は、撮像画像データ、撮像時刻、及び位置情報を車載装置11から受信する(手順S500)。サーバ10では、たとえば制御部22が、通信部20により車載装置11から撮像画像データ、撮像時刻、及び位置情報を受信する。サーバ10は、複数の車両14の車載装置11がそれぞれ周期的に手順S400〜S404を実行することにより、地図上の位置ごとに、その位置を通過する異なる車載装置11により撮像され時間的に連続した複数の撮像画像データを取得する。 As shown in FIG. 5, the server 10 receives the captured image data, the capturing time, and the position information from the vehicle-mounted device 11 (step S500). In the server 10, for example, the control unit 22 receives the picked-up image data, the picked-up time, and the position information from the vehicle-mounted device 11 by the communication unit 20. In the server 10, the in-vehicle devices 11 of the plurality of vehicles 14 cyclically perform the steps S400 to S404, respectively, so that images are captured by different in-vehicle devices 11 passing through the positions for each position on the map. The captured plurality of captured image data are acquired.

そして、サーバ10は、位置ごとの撮像画像データから、路上障害物を検出し(手順S501)、路上障害物の除去状況を判定する(手順S502)。そして、サーバ10は、路上障害物の種別と除去状況とに応じた、路上障害物の除去にかかる予測時間を含む除去状況情報を生成する(手順S503)。手順S501〜S503を実行して除去状況情報を生成するサーバ10の制御部22が、「除去状況情報生成部」に対応する。 Then, the server 10 detects a road obstacle from the captured image data for each position (step S501), and determines the removal status of the road obstacle (step S502). Then, the server 10 generates removal status information including a predicted time taken to remove the on-road obstacle according to the type of the on-road obstacle and the removal status (step S503). The control unit 22 of the server 10 that executes the steps S501 to S503 and generates the removal status information corresponds to the “removal status information generation unit”.

除去状況情報生成部は、たとえば、撮像画像データに付随する位置情報に従って、地図上の位置ごとに、撮像画像から、エッジ認識、画像のパターン認識等の画像認識処理により道路上また路側近傍の物体を検出する。そして、除去状況情報生成部は、撮像画像から路上障害物を検出し、路上障害物の種別を判断する。また、除去状況情報生成部は、撮像画像から路上障害物の除去状況を判断する。除去状況は、路上障害物の種別ごとに、1〜数段階で判断される。なお、撮像画像データに対する画像認識処理には、機械学習等、任意の方法を用いてもよい。そして、除去状況情報生成部は、路上障害物の種別と除去状況とに応じた路上障害物の除去にかかる予測時間を、除去時間DB23から取得する。 The removal status information generation unit, for example, according to the position information attached to the captured image data, for each position on the map, the image recognition processing such as edge recognition and image pattern recognition from the captured image, the object on the road or near the roadside. To detect. Then, the removal status information generation unit detects a road obstacle from the captured image and determines the type of the road obstacle. The removal status information generation unit also determines the removal status of the road obstacle from the captured image. The removal status is determined in one to several stages for each type of road obstacle. Note that any method such as machine learning may be used for the image recognition processing on the captured image data. Then, the removal status information generation unit acquires, from the removal time DB 23, a predicted time taken to remove the road obstacle according to the type of the road obstacle and the removal status.

図6A〜6Dは、車両14の車載装置11にて、渋滞時に特徴的な車両状態に応答して撮像された、渋滞時の撮像画像の例を示す。図6Aは、渋滞時に先行車両をとらえた撮像画像、図6Bは路上障害物をとらえた撮像画像、図6C、6Dは図6Bと同じ位置で路上障害物の除去作業をとらえた撮像画像の例である。 6A to 6D show examples of captured images at the time of traffic congestion, which are captured by the in-vehicle device 11 of the vehicle 14 in response to the characteristic vehicle state at the time of traffic congestion. 6A is a captured image of a preceding vehicle during a traffic jam, FIG. 6B is an captured image of a road obstacle, and FIGS. 6C and 6D are captured images of a road obstacle removal operation at the same position as in FIG. 6B. Is.

図6Aでは、除去状況情報生成部は、撮像画像60aから、道路61のほか、先行車両62を検出する。ここにおいて、路上障害物は検出されない。つまり、撮像画像60aは、渋滞原因となる路上障害物の付近以外の渋滞区間で撮像された撮像画像である。よって、このとき、除去状況情報生成部は、たとえば、路上障害物の種別を「該当無し」、除去状況を「該当無し」と判断する。 In FIG. 6A, the removal status information generation unit detects the preceding vehicle 62 in addition to the road 61 from the captured image 60a. Here, no road obstacles are detected. That is, the picked-up image 60a is a picked-up image picked up in a traffic jam section other than the vicinity of the road obstacle causing the traffic jam. Therefore, at this time, the removal status information generation unit determines, for example, the type of the road obstacle is “not applicable” and the removal status is “not applicable”.

図6Bでは、除去状況情報生成部は、撮像画像60bから、道路61、先行車両62に加え、路上障害物65を検出する。つまり、撮像画像60bは、渋滞原因である路上障害物付近で撮像された撮像画像である。除去状況情報生成部は、路上障害物65を先行車両62から峻別するとともに、その種別を判断する。ここでは、路上障害物65が事故車両である場合が示される。事故車両は、道路上における位置、車体の向き、ハザードランプの点灯、破損による特徴的形状などに基づいて識別される。さらに、路上に設置される車線誘導用の標識64を認識し、標識64から所定の方向(たとえば車両14の進行方向前方)、距離範囲内(たとえば、20〜30メートル以内)に位置することを、事故車両識別の条件としてもよい。また、路上障害物65が落石、倒木、積雪、轢死した大型動物などの場合、これらの特徴的な形状または色、画像の大きさ(たとえば、干渉する車線の本数)等を認識することで、除去状況情報生成部は、路上障害物65を識別する。また、同じ位置での過去の、つまり通常時の撮像画像データをたとえば記憶部21に格納しておき、除去状況情報生成部が過去の撮像画像データとの差分を数値化して、数値の大小により路上障害物の有無を判断してもよい。このとき、除去状況情報生成部は、たとえば、除去状況を「進捗度0」と判断する。さらに、除去状況情報生成部は、撮像画像が撮像された位置を路上障害物65の位置として特定する。なお、以降の処理では、路上障害物65の位置以外で撮像された撮像画像データの処理を省略してもよい。 In FIG. 6B, the removal status information generation unit detects a road obstacle 65 in addition to the road 61 and the preceding vehicle 62 from the captured image 60b. That is, the picked-up image 60b is a picked-up image picked up near an obstacle on the road that causes traffic congestion. The removal status information generation unit distinguishes the road obstacle 65 from the preceding vehicle 62 and determines the type. Here, a case where the road obstacle 65 is an accident vehicle is shown. The accident vehicle is identified based on the position on the road, the direction of the vehicle body, the lighting of a hazard lamp, the characteristic shape due to damage, and the like. Further, it recognizes the lane guidance sign 64 installed on the road, and determines that it is located within a predetermined range (for example, in front of the traveling direction of the vehicle 14) and within a distance range (for example, within 20 to 30 meters) from the sign 64. The condition for identifying the accident vehicle may be used. When the road obstacle 65 is a rock fall, a fallen tree, a snowfall, or a large dead animal, it is possible to recognize the characteristic shape or color of the obstacle, the size of the image (for example, the number of lanes that interfere with each other), and the like. The removal status information generation unit identifies the road obstacle 65. Further, the past, that is, the normal time captured image data at the same position is stored in, for example, the storage unit 21, and the removal status information generation unit digitizes the difference from the past captured image data to determine whether the numerical value is large or small. The presence or absence of an obstacle on the road may be determined. At this time, the removal status information generation unit determines that the removal status is “progress level 0”, for example. Furthermore, the removal status information generation unit specifies the position where the captured image is captured as the position of the road obstacle 65. In the subsequent processing, the processing of the captured image data captured at a position other than the position of the road obstacle 65 may be omitted.

図6Cでは、除去状況情報生成部は、撮像画像60cから、路上障害物65のほかに、さらに障害物除去のためのレッカー車、トラックといった、作業車両66を検出する。このように、路上障害物65に加えて作業車両66を検出すると、除去状況情報生成部は、たとえば、路上障害物の種別を「事故車両」、除去状況を「進捗度1」と判断する。なお、作業車両66は、路上障害物65の種別ごとに異なってもよい。たとえば、路上障害物65が積雪の場合には、作業車両66は除雪車であってもよい。 In FIG. 6C, the removal status information generation unit detects, from the captured image 60c, a work vehicle 66 such as a tow truck or a truck for removing obstacles in addition to the road obstacle 65. In this way, when the work vehicle 66 is detected in addition to the road obstacle 65, the removal status information generation unit determines, for example, the type of the road obstacle is “accident vehicle” and the removal status is “progress level 1”. The work vehicle 66 may be different depending on the type of the road obstacle 65. For example, when the road obstacle 65 is covered with snow, the work vehicle 66 may be a snowplow.

図6Dでは、除去状況情報生成部は、撮像画像60dから、路上障害物が概ね除去された後、残骸67の清掃を行う作業車両68を検出する。たとえば、残骸67、作業車両68は、それぞれ、画像のサイズ及びパターン認識により検出される。このように、作業車両68を検出すると、除去状況情報生成部は、たとえば、路上障害物の種別を「事故車両」、除去状況を「進捗度2」と判断する。なお、路上障害物65が積雪の場合には、路上障害物65の有無及び残骸67の有無は、積雪の残量により判断することができる。たとえば、画像認識される積雪の量が一定量より多ければ路上障害物65、少なければ残骸67と判断してもよい。また、その場合、除雪車を作業車両68として検出してもよい。 In FIG. 6D, the removal status information generation unit detects, from the captured image 60d, the work vehicle 68 that cleans the debris 67 after the road obstacles are substantially removed. For example, the debris 67 and the work vehicle 68 are detected by image size and pattern recognition, respectively. In this way, when the work vehicle 68 is detected, the removal status information generation unit determines that the type of road obstacle is “accident vehicle” and the removal status is “progress level 2”, for example. When the road obstacle 65 is snow, the presence or absence of the road obstacle 65 and the presence of the debris 67 can be determined by the remaining amount of snow. For example, if the amount of snow covered by the image recognition is larger than a certain amount, it may be determined that it is the road obstacle 65, and if it is small, it is the wreckage 67. In that case, a snowplow may be detected as the work vehicle 68.

なお、路上障害物65の除去が完了して車両通行が復旧すると、図6Aの状態に戻る。このとき、除去状況判断部は、路上障害物の種別を「該当無し」、除去状況を「該当無し」と判断する。 When the removal of the road obstacle 65 is completed and the vehicle traffic is restored, the state of FIG. 6A is restored. At this time, the removal status determination unit determines that the type of road obstacle is “not applicable” and the removal status is “not applicable”.

除去状況情報生成部は、路上障害物65の種別と除去状況とを判断すると、除去時間DB23を参照して、路上障害物65の種別と除去状況とに対応する、路上障害物の除去にかかる予測時間を取得する。図7に示すように、除去時間DB23は、たとえば、路上障害物種別71と除去状況72に予測時間73を対応づけて有する。予測時間は、過去の実績値に基づいて統計的に算出されてもよいが、任意に定められてもよい。たとえば、図6Aの場合は、路上障害物種別71が「該当無し」、除去状況72が「該当無し」であり、対応する予測時間73は「0時間」である。また、たとえば、図6Bの場合は、路上障害物種別71が「事故車両」、除去状況72が「進捗度0」であり、対応する予測時間73は「5時間」である。さらに、たとえば、図6Bの場合は、路上障害物種別71が「事故車両」、除去状況72が「進捗度1」であり、対応する予測時間73は「2.5時間」である。さらに、たとえば、図6Cの場合は、路上障害物種別71が「事故車両」、除去状況72が「進捗度2」であり、対応する予測時間73は「0.5時間」である。 When the removal status information generation unit determines the type and removal status of the on-road obstacle 65, the removal status information removal unit refers to the removal time DB 23 to remove the on-road obstacle corresponding to the type and removal status of the on-road obstacle 65. Get the estimated time. As shown in FIG. 7, the removal time DB 23 has, for example, a road obstacle type 71 and a removal status 72 in association with a predicted time 73. The prediction time may be statistically calculated based on past performance values, but may be set arbitrarily. For example, in the case of FIG. 6A, the road obstacle type 71 is “not applicable”, the removal status 72 is “not applicable”, and the corresponding predicted time 73 is “0 hour”. Further, for example, in the case of FIG. 6B, the road obstacle type 71 is “accident vehicle”, the removal status 72 is “progress degree 0”, and the corresponding predicted time 73 is “5 hours”. Further, for example, in the case of FIG. 6B, the road obstacle type 71 is “accident vehicle”, the removal status 72 is “progress level 1”, and the corresponding predicted time 73 is “2.5 hours”. Further, for example, in the case of FIG. 6C, the road obstacle type 71 is “accident vehicle”, the removal status 72 is “progress level 2”, and the corresponding predicted time 73 is “0.5 hour”.

図5に戻り、サーバ10は、路上障害物の位置と予測時間とを含む除去状況情報を、車載装置11に送信する(手順S505)。除去状況情報は、さらに、除去状況情報生成時点における撮像画像データ、またはこれに加えて撮像時刻を含んでもよい。たとえば、制御部22は、生成した除去状況情報を通信部41に送信させる。 Returning to FIG. 5, the server 10 transmits the removal status information including the position of the road obstacle and the predicted time to the in-vehicle device 11 (step S505). The removal status information may further include captured image data at the time of generation of the removal status information, or in addition to this, imaging time. For example, the control unit 22 causes the communication unit 41 to transmit the generated removal status information.

図4Bに示すように、車載装置11は、サーバ10から除去状況情報及び撮像画像データを受信し(手順S410)、出力する(手順S412)。たとえば、車載装置11は、制御部36が、入出力部30のパネルディスプレイに、除去状況情報を画像として出力する。車載装置11は、たとえば、除去状況情報に含まれる予測時間、またはこれに加えて撮像画像と撮像時刻を表示してもよい。図4Bの手順は、図4Aの手順を実行する車載装置11とは異なる車両14に搭載される車載装置11により実行されてもよい。その場合、図4Aの手順を実行する車載装置11と図4Bを実行する車載装置11は、それぞれ図3に示した構成を全て有さなくてもよい。車載装置11は、自らの車両14が渋滞に巻き込まれていなくても、既に渋滞原因である路上障害物の近傍を走行する車両14からの撮像結果をサーバ10経由で利用し、路上障害物の除去状況をユーザに提示できる。 As shown in FIG. 4B, the in-vehicle device 11 receives the removal status information and the captured image data from the server 10 (step S410) and outputs (step S412). For example, in the in-vehicle device 11, the control unit 36 outputs the removal status information as an image on the panel display of the input/output unit 30. The in-vehicle device 11 may display, for example, the predicted time included in the removal status information, or the captured image and the captured time in addition to the predicted time. The procedure of FIG. 4B may be executed by the vehicle-mounted device 11 mounted in the vehicle 14 different from the vehicle-mounted device 11 that executes the procedure of FIG. 4A. In that case, the vehicle-mounted device 11 that executes the procedure of FIG. 4A and the vehicle-mounted device 11 that executes FIG. 4B may not have all the configurations shown in FIG. 3, respectively. The in-vehicle device 11 uses the imaging result from the vehicle 14 running near the road obstacle that is already causing the traffic congestion via the server 10 even if the vehicle 14 itself is not involved in the traffic congestion, and The removal status can be presented to the user.

図8に示すように、車載装置11は、ナビゲーション部35により現在位置から目的地までの経路案内を行う際、ナビゲーション部35で生成する経路情報を、入出力部30によりたとえば経路案内画面80として表示出力する。そして、経路案内画面80には、地図上に現在位置81、目的地82、及び経路83が示される。車載装置11が、路上障害物が発生した場合の除去状況情報を受信すると、経路案内画面80には路上障害物の位置84、除去にかかる予測時間85、撮像時刻87がさらに表示される。ここでは、たとえば、路上障害物除去までの予測時間が20分である場合が示される。なお、路上障害物の位置84または予測時間85は、音声出力により出力されてもよい。さらに、運転に支障のないような停車時に、撮像画像86を表示してもよい。このように、車両14のユーザは、たとえば、除去状況情報から路上障害物の除去が完了するまでの予測時間を把握でき、また、撮像画像から直観的に路上障害物の除去状況を把握できるので、ユーザがストレスを覚えるおそれを低減できる。 As shown in FIG. 8, when the navigation unit 35 guides the route from the current position to the destination, the vehicle-mounted apparatus 11 uses the route information generated by the navigation unit 35 as the route guidance screen 80 by the input/output unit 30, for example. Display output. Then, on the route guidance screen 80, the current position 81, the destination 82, and the route 83 are shown on the map. When the vehicle-mounted device 11 receives the removal status information when a road obstacle occurs, the route guidance screen 80 further displays the position 84 of the road obstacle, the estimated time 85 required for removal, and the imaging time 87. Here, for example, a case is shown in which the predicted time until the removal of the obstacle on the road is 20 minutes. The position 84 of the road obstacle or the predicted time 85 may be output by voice output. Furthermore, the captured image 86 may be displayed when the vehicle is stopped so as not to interfere with driving. In this way, the user of the vehicle 14 can grasp the estimated time until the removal of the road obstacle is completed from the removal status information, and can intuitively grasp the road obstacle removal status from the captured image. , It is possible to reduce the possibility that the user will feel stress.

さらに、路上障害物の位置84が経路83上に位置する場合において、ナビゲーション部35は、路上障害物付近で渋滞に巻き込まれる前に、迂回経路88を検索して、ユーザに提示する。このように、すでに路上障害物付近を走行する車両14から撮像画像データをサーバ10にて取得することで、サーバ10から、事前に渋滞を回避することに資する情報提供を受けることができる。 Further, when the position 84 of the road obstacle is located on the route 83, the navigation unit 35 searches the detour route 88 and presents it to the user before being caught in the traffic jam near the road obstacle. In this way, by acquiring the captured image data from the vehicle 14 already running near the obstacle on the road by the server 10, it is possible to receive information from the server 10 in advance, which contributes to avoiding traffic congestion.

情報提供システム1では、車載装置11及びサーバ10が、それぞれ図4A、4B、5の手順を周期的に実行することで、時々刻々変化する撮像画像に基づいて、路上障害物の除去状況を更新してユーザに提示することができる。たとえば、除去状況情報生成部が除去状況を判定する際(図5の手順S503)、直前の判定に用いた撮像画像から現時点の撮像画像への経時変化、たとえば、図6Aから図6Bに遷移したときの路上障害物65の出現、図6Bから図6Cに遷移したときの作業車両66の出現、または図6Cから図6Dに遷移したときの作業車両68の出現といった変化に基づいて、除去状況を新たに判断し、予測時間を更新することができる。 In the information providing system 1, the vehicle-mounted device 11 and the server 10 periodically execute the procedures of FIGS. 4A, 4B, and 5, respectively, to update the removal status of road obstacles based on the captured images that change from moment to moment. And then present it to the user. For example, when the removal status information generation unit determines the removal status (step S503 in FIG. 5), a temporal change from the captured image used in the immediately previous determination to the current captured image, for example, transition from FIG. 6A to FIG. 6B. Based on changes such as the appearance of the road obstacle 65, the appearance of the work vehicle 66 at the time of transition from FIG. 6B to FIG. 6C, or the appearance of the work vehicle 68 at the time of transition from FIG. 6C to FIG. A new judgment can be made and the estimated time can be updated.

なお、図5において説明したサーバ10の動作手順のうち、たとえば、路上障害物検出(手順S501)及び除去状況判定(手順S502)を車載装置11にて実行してもよい。その場合、図4Aの手順S402の後、車載装置11の制御部36が手順S501、S502を行い、検出結果等をサーバ10に送信し、サーバ10にて予測時間導出(手順S503)を行ってもよい。 In the operation procedure of the server 10 described in FIG. 5, for example, road obstacle detection (procedure S501) and removal status determination (procedure S502) may be executed by the in-vehicle device 11. In that case, after step S402 in FIG. 4A, the control unit 36 of the vehicle-mounted device 11 performs steps S501 and S502, transmits the detection result and the like to the server 10, and the server 10 performs the estimated time derivation (step S503). Good.

本発明を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本発明の範囲に含まれることに留意されたい。たとえば、各手段または各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段またはステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、本実施形態では、上述した動作を実行するための手順を記述したプログラムを、サーバ10の制御部22、車載装置11の制御部36が、それぞれ記憶部21、32から読み出して実行する。よって、サーバ10の制御部22、車載装置11の制御部36に本実施形態にかかる動作を行わせるプログラムも本発明の範囲に含まれる。なお、情報提供システム1は、車載装置11の代わりに、車載装置11と同等の機能を有する携帯端末を有してもよい。 Although the present invention has been described based on the drawings and the embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions or the like included in each means or each step can be rearranged so as not to logically contradict, and a plurality of means or steps or the like can be combined into one or divided. . Further, in the present embodiment, the control unit 22 of the server 10 and the control unit 36 of the vehicle-mounted device 11 read out the programs describing the procedure for executing the above-described operations from the storage units 21 and 32 and execute the programs. Therefore, a program that causes the control unit 22 of the server 10 and the control unit 36 of the vehicle-mounted device 11 to perform the operations according to the present embodiment is also included in the scope of the present invention. The information providing system 1 may include a mobile terminal having the same function as the in-vehicle device 11 instead of the in-vehicle device 11.

さらに、本実施形態におけるネットワーク13には、上述した例以外にも、アドホックネットワーク、LAN(Local Area Network)、MAN(Metropolitan Area Network)、セルラーネットワーク、WPAN(Wireless Personal Area Network)、PSTN(Public Switched Telephone Network)、地上波無線ネットワーク(Terrestrial Wireless Network)、光ネットワークもしくは他のネットワークまたはこれらいずれかの組合せが含まれる。無線ネットワークの構成要素には、たとえば、アクセスポイント(たとえば、Wi-Fiアクセスポイント)、フェムトセル等が含まれる。さらに、無線通信器機は、Bluetooth(登録商標)以外にも、Wi-Fi(登録商標)、セルラー通信技術またはその他の無線技術及び技術標準を用いた無線ネットワークに接続することができる。 Further, in addition to the above-described examples, the network 13 in the present embodiment includes an ad hoc network, a LAN (Local Area Network), a MAN (Metropolitan Area Network), a cellular network, a WPAN (Wireless Personal Area Network), and a PSTN (Public Switched). Telephone Network, Terrestrial Wireless Network, Optical Network or other networks or any combination thereof. The components of the wireless network include, for example, access points (for example, Wi-Fi access points), femtocells, and the like. Further, the wireless communication device can be connected to a wireless network using Wi-Fi (registered trademark), cellular communication technology, or other wireless technology and technical standards in addition to Bluetooth (registered trademark).

このように、本開示内容の種々の側面は、多くの異なる態様で実施することができ、それらの態様はすべて本実施形態の範囲に含まれる。 Thus, the various aspects of this disclosure can be implemented in many different aspects, all of which are within the scope of this embodiment.

1:情報提供システム、 10:サーバ、 11:車載装置 1: Information providing system, 10: Server, 11: In-vehicle device

Claims (11)

サーバと、前記サーバと情報を送受信する車載装置とを有する情報提供システムにおいて、
前記車載装置は、
車両周辺を撮像する撮像部と、
位置情報と撮像画像データとを前記サーバに送信する第1の送信部とを有し、
前記サーバは、
前記撮像画像データに基づき路上障害物の位置と当該路上障害物の除去にかかる予測時間とを含む除去状況情報を生成する除去状況情報生成部と、
前記除去状況情報を送信する第2の送信部とを有し、
前記サーバから送信される前記除去状況情報が他の車載装置にて出力される、
情報提供システム。
In an information providing system including a server and an in-vehicle device that transmits and receives information to and from the server,
The in-vehicle device is
An imaging unit for imaging the surroundings of the vehicle,
A first transmission unit that transmits position information and captured image data to the server,
The server is
A removal status information generation unit that generates removal status information including a position of a road obstacle and a predicted time taken to remove the road obstacle based on the captured image data;
A second transmission unit for transmitting the removal status information,
The removal status information transmitted from the server is output to another in-vehicle device,
Information provision system.
請求項1において、
前記除去状況情報生成部は、前記撮像画像データの経時変化に基づいて前記予測時間を更新する、
情報提供システム。
In claim 1,
The removal status information generation unit updates the predicted time based on a change with time of the captured image data,
Information provision system.
請求項1または2において、
前記車載装置は、前記除去状況情報に応じた経路を案内するナビゲーション部をさらに有する、
情報提供システム。
In claim 1 or 2,
The vehicle-mounted device further includes a navigation unit that guides a route according to the removal status information.
Information provision system.
車載装置にて所定の車両状況のときに撮像された車両周辺の撮像画像の撮像画像データと位置情報とを当該車載装置から受信する受信部と、
前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報を生成する除去状況情報生成部と、
前記除去状況情報を他の車載装置に送信する送信部とを有する、
サーバ。
A receiving unit that receives, from the in-vehicle device, captured image data and position information of a captured image around the vehicle that is captured by the in-vehicle device in a predetermined vehicle condition,
A removal status information generation unit that generates removal status information including a predicted time taken to remove a road obstacle based on the captured image data;
And a transmitter that transmits the removal status information to another in-vehicle device,
server.
請求項4において、
前記除去状況情報生成部は、前記撮像画像データの経時変化に基づいて前記予測時間を更新する、
サーバ。
In claim 4,
The removal status information generation unit updates the predicted time based on a change with time of the captured image data,
server.
所定の車両状態のときに車両周辺を撮像する撮像部と、
位置情報と撮像画像データをサーバに送信する送信部とを有し、
前記サーバにて、前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報が生成されて当該除去状況情報が他の車載装置に送信され、当該他の車載装置にて前記除去状況情報が出力される、
車載装置。
An image capturing unit that captures an image around the vehicle when the vehicle is in a predetermined state,
A transmitter for transmitting the position information and the captured image data to the server,
Based on the captured image data, the server generates removal status information including a predicted time taken to remove a road obstacle, the removal status information is transmitted to another in-vehicle device, and the other in-vehicle device performs the removal. The removal status information is output,
In-vehicle device.
サーバにて他の車載装置から受信する撮像画像データに基づき生成される、路上障害物の除去にかかる予測時間を含む除去状況情報を、当該サーバから受信する受信部と、
前記除去状況情報を出力する出力部とを有する、
車載装置。
A receiving unit that receives, from the server, removal status information including a predicted time taken to remove a road obstacle, which is generated based on captured image data received from another on-vehicle device by the server,
An output unit that outputs the removal status information,
In-vehicle device.
請求項6または7に記載の車載装置を有する車両。 A vehicle comprising the vehicle-mounted device according to claim 6. 車載装置に、
所定の車両状態のときに車両周辺を撮像する手順と、
位置情報と撮像画像データをサーバに送信する手順とを実行させ、
前記サーバにて、前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報が生成されて当該除去状況情報が他の車載装置に送信され、当該他の車載装置にて前記除去状況情報が出力される、
プログラム。
For in-vehicle devices,
A procedure for imaging the surroundings of the vehicle in a predetermined vehicle state,
Execute the procedure for transmitting the position information and the captured image data to the server,
Based on the captured image data, the server generates removal status information including a predicted time taken to remove a road obstacle, the removal status information is transmitted to another in-vehicle device, and the other in-vehicle device performs the removal. The removal status information is output,
program.
車載装置に、
サーバにて他の車載装置から受信する撮像画像データに基づき生成される、路上障害物の除去にかかる予測時間を含む除去状況情報を、当該サーバから受信する手順と、
前記除去状況情報を出力する手順とを実行させる、
プログラム。
For in-vehicle devices,
A procedure for receiving, from the server, removal status information including a predicted time taken to remove a road obstacle, which is generated based on captured image data received from another vehicle-mounted device in the server,
And a procedure for outputting the removal status information,
program.
サーバと、前記サーバと情報を送受信する車載装置とによる情報提供方法において、
前記車載装置が、
車両周辺を撮像し、
位置情報と撮像画像データを前記サーバに送信し、
前記サーバが、
前記撮像画像データに基づき路上障害物の除去にかかる予測時間を含む除去状況情報を生成し、
前記除去状況情報を送信し、
他の車載装置が、前記サーバから送信される前記除去状況情報を出力する、
情報提供方法。


In an information providing method using a server and an in-vehicle device that transmits and receives information to and from the server,
The in-vehicle device is
Image around the vehicle,
Sending location information and captured image data to the server,
The server is
Generates removal status information including a predicted time taken to remove a road obstacle based on the captured image data,
Send the removal status information,
Another in-vehicle device outputs the removal status information transmitted from the server,
Information provision method.


JP2018224113A 2018-11-29 2018-11-29 Information providing system, server, in-vehicle device, vehicle, program and information providing method Active JP7192443B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018224113A JP7192443B2 (en) 2018-11-29 2018-11-29 Information providing system, server, in-vehicle device, vehicle, program and information providing method
US16/684,701 US11631326B2 (en) 2018-11-29 2019-11-15 Information providing system, server, onboard device, vehicle, storage medium, and information providing method
CN201911128467.3A CN111243332A (en) 2018-11-29 2019-11-18 Information providing system and method, server, in-vehicle device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018224113A JP7192443B2 (en) 2018-11-29 2018-11-29 Information providing system, server, in-vehicle device, vehicle, program and information providing method

Publications (2)

Publication Number Publication Date
JP2020087217A true JP2020087217A (en) 2020-06-04
JP7192443B2 JP7192443B2 (en) 2022-12-20

Family

ID=70848784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018224113A Active JP7192443B2 (en) 2018-11-29 2018-11-29 Information providing system, server, in-vehicle device, vehicle, program and information providing method

Country Status (3)

Country Link
US (1) US11631326B2 (en)
JP (1) JP7192443B2 (en)
CN (1) CN111243332A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114941448A (en) * 2021-02-07 2022-08-26 广东博智林机器人有限公司 Mortar cleaning method, device, system and storage medium
WO2022196414A1 (en) * 2021-03-19 2022-09-22 株式会社オートネットワーク技術研究所 On-board device, on-board communication system, and data transmission method
JP7520292B2 (en) 2020-02-14 2024-07-23 株式会社アイシン Traffic Jam Detection System

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019200345A1 (en) * 2019-01-14 2020-07-16 Continental Automotive Gmbh Cloud-based detection and warning of danger spots
JP7078587B2 (en) * 2019-09-30 2022-05-31 本田技研工業株式会社 Driving support system, driving support method and program
JP7484639B2 (en) * 2020-09-30 2024-05-16 トヨタ自動車株式会社 Traffic management device, traffic management method, traffic management system, and vehicle
CN112927540A (en) * 2021-01-21 2021-06-08 董龙鑫 Data sensing sharing system and method based on block chain
CN113074745B (en) * 2021-02-24 2024-03-19 南京泛析交通科技有限公司 Urban road cleaning vehicle path planning method and device
US12020566B2 (en) * 2021-05-20 2024-06-25 Bentley Systems, Incorporated Machine-learning based control of traffic operation
JP7271638B1 (en) * 2021-11-09 2023-05-11 三菱電機株式会社 Communication device and communication method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234044A (en) * 2007-03-16 2008-10-02 Pioneer Electronic Corp Information processing method, in-vehicle device, and information distribution device
JP2011068308A (en) * 2009-09-28 2011-04-07 Toyota Motor Corp Vehicle travel control device and vehicle travel control method
JP2017117005A (en) * 2015-12-21 2017-06-29 株式会社オートネットワーク技術研究所 Accident notification system, notification system, on-vehicle notification device and accident notification method
JP2017130871A (en) * 2016-01-22 2017-07-27 トヨタ自動車株式会社 Image generation device for vehicle
WO2018008122A1 (en) * 2016-07-07 2018-01-11 三菱電機株式会社 Accident information collection system, vehicle-mounted device, and accident information collection method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180934A (en) * 1991-12-27 1993-07-23 Honda Motor Co Ltd Method for estimating relative speed between vehicle and concerning obstacle
US7421334B2 (en) * 2003-04-07 2008-09-02 Zoom Information Systems Centralized facility and intelligent on-board vehicle platform for collecting, analyzing and distributing information relating to transportation infrastructure and conditions
JP4063731B2 (en) * 2003-07-30 2008-03-19 パイオニア株式会社 Information processing apparatus, system thereof, method thereof, program thereof, and recording medium recording the program
JP2005049138A (en) * 2003-07-30 2005-02-24 Pioneer Electronic Corp Traffic condition reporting apparatus, its system, its method, its program, and record medium recording the program
CN103900572A (en) * 2012-12-25 2014-07-02 上海博泰悦臻电子设备制造有限公司 Diversiform path navigation algorithm and device for short paths
AU2014223584B9 (en) * 2013-02-26 2017-03-02 Polaris Industries Inc. Recreational vehicle interactive telemetry, mapping, and trip planning system
CN103236163B (en) * 2013-04-28 2015-01-07 北京航空航天大学 Traffic jam avoiding prompting system based on collective intelligence network
JP6699230B2 (en) * 2016-02-25 2020-05-27 住友電気工業株式会社 Road abnormality warning system and in-vehicle device
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
JP2018195301A (en) * 2017-05-15 2018-12-06 キヤノン株式会社 Control device and control method
CN108437983B (en) * 2018-03-29 2020-08-25 吉林大学 Intelligent vehicle obstacle avoidance system based on prediction safety
US20190362159A1 (en) * 2018-05-23 2019-11-28 GM Global Technology Operations LLC Crowd sourced construction zone detection for autonomous vehicle map maintenance
CN108734960A (en) * 2018-05-23 2018-11-02 深圳市华慧品牌管理有限公司 Road congestion prediction technique and its device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234044A (en) * 2007-03-16 2008-10-02 Pioneer Electronic Corp Information processing method, in-vehicle device, and information distribution device
JP2011068308A (en) * 2009-09-28 2011-04-07 Toyota Motor Corp Vehicle travel control device and vehicle travel control method
JP2017117005A (en) * 2015-12-21 2017-06-29 株式会社オートネットワーク技術研究所 Accident notification system, notification system, on-vehicle notification device and accident notification method
JP2017130871A (en) * 2016-01-22 2017-07-27 トヨタ自動車株式会社 Image generation device for vehicle
WO2018008122A1 (en) * 2016-07-07 2018-01-11 三菱電機株式会社 Accident information collection system, vehicle-mounted device, and accident information collection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7520292B2 (en) 2020-02-14 2024-07-23 株式会社アイシン Traffic Jam Detection System
CN114941448A (en) * 2021-02-07 2022-08-26 广东博智林机器人有限公司 Mortar cleaning method, device, system and storage medium
CN114941448B (en) * 2021-02-07 2023-09-05 广东博智林机器人有限公司 Mortar cleaning method, device, system and storage medium
WO2022196414A1 (en) * 2021-03-19 2022-09-22 株式会社オートネットワーク技術研究所 On-board device, on-board communication system, and data transmission method

Also Published As

Publication number Publication date
US20200175863A1 (en) 2020-06-04
JP7192443B2 (en) 2022-12-20
CN111243332A (en) 2020-06-05
US11631326B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
JP7192443B2 (en) Information providing system, server, in-vehicle device, vehicle, program and information providing method
JP7314798B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING METHOD
JP7205204B2 (en) Vehicle control device and automatic driving system
JP5585194B2 (en) Accident situation recording system
JP6613623B2 (en) On-vehicle device, operation mode control system, and operation mode control method
US10535257B2 (en) Transfer of image data taken by an on-vehicle camera
JP7206854B2 (en) Information providing system, server, mobile terminal, program and information providing method
US11554777B2 (en) Travel support system, travel support method, and non-transitory computer-readable storage medium storing program
JP7486057B2 (en) Safety performance evaluation device, safety performance evaluation method, information processing device, and information processing method
JPWO2018180121A1 (en) Information processing apparatus and information processing method
US11689797B2 (en) Camera, method, non-transitory computer-readable medium, and system
JP5494411B2 (en) Driving support device
JP7348724B2 (en) In-vehicle device and display method
JP2014063241A (en) Moving body information communication device
CN115170630B (en) Map generation method, map generation device, electronic equipment, vehicle and storage medium
JP2021018636A (en) Vehicle remote instruction system
CN112567427B (en) Image processing device, image processing method, and program
US20240122780A1 (en) Autonomous vehicle with audio user guidance
JP7177114B2 (en) Driving support system, driving support method and program
US20240161513A1 (en) Electronic Device and method for Vehicle which Enhances Parking Related Function Based on Artificial Intelligence
CN115214629A (en) Automatic parking method, device, storage medium, vehicle and chip
JPWO2020255246A1 (en) Driving support device, driving support system and driving support method
JP2014064067A (en) Mobile body information communication device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220928

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221005

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151