WO2018198547A1 - 車両の電子制御装置 - Google Patents
車両の電子制御装置 Download PDFInfo
- Publication number
- WO2018198547A1 WO2018198547A1 PCT/JP2018/008904 JP2018008904W WO2018198547A1 WO 2018198547 A1 WO2018198547 A1 WO 2018198547A1 JP 2018008904 W JP2018008904 W JP 2018008904W WO 2018198547 A1 WO2018198547 A1 WO 2018198547A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- unit
- abnormality
- control device
- electronic control
- Prior art date
Links
- 230000005856 abnormality Effects 0.000 claims abstract description 74
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 230000002159 abnormal effect Effects 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 71
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000007499 fusion processing Methods 0.000 description 30
- 230000006399 behavior Effects 0.000 description 22
- 230000001360 synchronised effect Effects 0.000 description 15
- 238000004092 self-diagnosis Methods 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000007850 degeneration Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0053—Handover processes from vehicle to occupant
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V9/00—Prospecting or detecting by methods not provided for in groups G01V1/00 - G01V8/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
Definitions
- the present invention relates to a vehicle electronic control device.
- the automatic operation ECU which is a higher-level control device that controls automatic operation, can continue the automatic operation for a certain period until the driver takes over the operation even if a failure occurs in the automatic operation system. Desired.
- a failure there are, for example, an abnormality that occurs during calculation on an arithmetic processing device that performs calculation for automatic operation control, and an abnormality that occurs in a sensor.
- Patent Document 1 discloses a device that detects and corrects a value shift of a sensor that detects a state quantity of a host vehicle using a sensor of a type different from the sensor.
- abnormality is detected by evaluating the validity of a sensor output value.
- the position and speed of surrounding objects are recognized by complementing the characteristics of each sensor using multiple sensors at the same time, so complementary verification processing and abnormality detection processing using various sensors are performed. is necessary.
- the present invention has been made in view of the above problems, and an object of the present invention is to provide an electronic control device for a vehicle that can determine whether an abnormal state has occurred with a relatively simple configuration.
- an electronic control device for a vehicle includes an action prediction unit that predicts the action of an object around the vehicle based on external world information acquired from an external world information detection unit that detects external world information of the vehicle; The determination for the detection unit that determines whether an abnormality has occurred in the external information detection unit by comparing the external information acquired from the external information detection unit at the time corresponding to the prediction result of the behavior prediction unit and the prediction result of the behavior prediction unit A part.
- the behavior result of the object around the vehicle predicted based on the external information from the external information detector is compared with the external information from the external information detector at the time corresponding to the prediction result. By doing so, it can be determined whether or not an abnormality has occurred in the external information detector.
- 1 is a system configuration diagram of an electronic control device for a vehicle. It is a flowchart which shows the whole process. It is a block diagram which shows operation
- predetermined calculation is performed based on the first information detected by the information detection unit (external world information detection unit 20), and the first calculation result and the second information detected by the information detection unit (second information is: A second calculation result obtained by performing a predetermined calculation based on the second information) or detected after the first information is compared.
- second information is: A second calculation result obtained by performing a predetermined calculation based on the second information
- the outside world information detection unit 20 that detects outside world information of the vehicle 1 and the behavior (behavior) of an object located around the vehicle 1 are predicted.
- the external environment information detection unit 20 includes a behavior prediction unit (S2), and compares the information M2 (T1) obtained by predicting the behavior of the surrounding object by the behavior prediction unit with the external world information obtained from the external world information detection unit 20. Determine the abnormality that occurred.
- an abnormality occurring in the external information detecting unit 20 can be detected by comparing information predicted from past external information (prediction result of the behavior prediction unit) with the current external information. . Furthermore, according to the present embodiment, by comparing the calculation result of the integrated calculation unit (S1) that performs the integrated calculation based on the outside world information from the outside world information detection unit 20 with the prediction result of the behavior prediction unit, the total calculation unit It is also possible to detect abnormalities that occur in
- the present embodiment it is diagnosed whether an abnormality has occurred in the external information detection unit 20 or the integrated calculation unit (S1) with a relatively simple configuration without multiplexing the detection circuit, the calculation processing circuit, and the computer program. can do.
- FIG. 1 is a system configuration diagram of an electronic control device for a vehicle according to the present embodiment.
- the vehicle 1 includes, for example, a vehicle body, wheels disposed on the front, rear, left, and right sides of the vehicle body, an engine mounted on the vehicle body, a cab (not shown), and the like.
- the automatic driving ECU 10 is an electronic control device for automatically driving the vehicle 1.
- the automatic operation ECU 10 includes, for example, an arithmetic processing device (microcomputer, hereinafter referred to as a microcomputer) 11 and a memory 12 used by the microcomputer 11.
- microcomputer arithmetic processing device
- the automatic driving ECU 10 is connected to an outside world information detection unit 20 that detects outside world information of the vehicle 1.
- the external information detection unit 20 includes, for example, a millimeter wave radar 21 and a camera 22.
- a millimeter wave radar 21 and a camera 22 In addition to these sensors 21 and 22, an ultrasonic sensor, an infrared sensor, or the like may be used.
- the millimeter wave radar 21 and the camera 22 may be referred to as sensors 21 and 22.
- the automatic driving ECU 10 is also connected to a vehicle state detection unit 30 that detects an internal state of the vehicle 1.
- vehicle state detection unit 30 examples include map information 31 and a vehicle position sensor 32.
- the own vehicle position sensor 32 may be a GPS (Global Positioning System) or a position detection system combining a GPS with a vehicle speed sensor or an acceleration sensor.
- the automatic driving ECU 10 performs arithmetic processing related to automatic driving using the microcomputer 11 based on the external world information, the map information 31 and the information from the own vehicle position sensor 32 given from the external world information detection unit 20.
- the autonomous driving ECU 10 calculates the travel locus of the host vehicle as a result of the calculation, the autonomous driving ECU 10 transmits control command values to various sub ECU groups 40 including the brake control device 41, the engine control device 42, the steering control device 43, and the like. Thereby, the own vehicle 1 automatically travels on a safe route.
- the data input from the outside world information detection unit 20 to the automatic operation ECU 10 may be raw data directly output from the sensors 21 and 22 or may be pre-processed by an ECU (not shown) dedicated to the sensors 21 and 22. It may be data.
- the flowchart of FIG. 2 shows the main processing of the automatic driving ECU 10. This process is executed by the microcomputer 11 at a predetermined cycle.
- the microcomputer 11 uses the sensor fusion process S1 that integrates various external world information given from the external world information detection unit 20 and the vehicle surrounding object map obtained as a result of the sensor fusion process S1 to predict the behavior of the object surrounding the vehicle Calculations of an object behavior prediction process S2, a vehicle trajectory planning process S3 for generating a vehicle trajectory based on the behavior prediction of objects around the vehicle, and a self-diagnosis process S4 are executed.
- FIG. 3 shows an outline of the internal process of the sensor fusion process S1.
- the sensor fusion process S1 as an example of the “integrated calculation unit” performs a time synchronization process S11 and a sensor integration process S12.
- the time of sensor data given from the millimeter wave radar 21 or the camera 22 to the automatic operation ECU 10 is not synchronized. Therefore, the sensor data to which the time stamp is given is received from the external information detection unit 20, and time synchronization processing S11 is performed.
- the data for which the time synchronization processing S11 is completed is called synchronous millimeter wave radar data and synchronous camera data.
- position coordinates of a peripheral object located around the host vehicle 1 are calculated based on the synchronous millimeter wave radar data and the synchronous camera data.
- the sensor integration processing S12 uses the sensor value of the vehicle position sensor 32 in addition to the position coordinates of each surrounding object to quote the map around the vehicle from the map information 31, thereby determining the position of the surrounding object of the vehicle 1. Map on the map.
- the position and size of the vehicle surrounding object detected by the millimeter wave radar 21 and the stereo camera 22, and the moving speed information are integrated, and the vehicle surrounding object map M is displayed. Shows an example of plotting each object.
- the other vehicle position 102, the bicycle position 103, and the pedestrian position 104 are also mapped on the own vehicle surrounding object map M.
- the vehicle surrounding object map M1 includes a map indicating the current state (a map indicating the current state) and a map predicting the state at a certain time in the future.
- a real map created at time T1 is denoted by reference symbol M1 (T1).
- a map that predicts the future situation at time T2 at time T1 is denoted by reference symbol M2 (T1).
- the actual map created at time T2 is denoted by reference symbol M2 (T2).
- a predicted map may be referred to as a predicted map.
- FIG. 4 (1) shows a vehicle surrounding object map M1 (T1) indicating the current state at time T1, which is created at time T1 by the sensor fusion process S1. It is assumed that the host vehicle 101 (1) travels to the right side in the figure. Objects such as the other vehicle 102 (1), the bicycle 103 (1), and the pedestrian 104 (1) are located in the traveling direction of the host vehicle 101 (1). Here, the numbers with parentheses attached to the sign of the object correspond to the numbers with parentheses in FIGS. 4 (1) to (3). In the following description, when the creation time and the predicted time are not distinguished, they are abbreviated as own vehicle 101, other vehicle 102, bicycle 103, and pedestrian 104.
- FIG. 4 (2) shows the vehicle surrounding object map M2 (T1) that is created at the time T1 by the surrounding object action prediction process S2 and that predicts the situation at the time T2.
- the surrounding object behavior prediction process S2 predicts the behavior of the surrounding objects of the vehicle 1 on the microcomputer 11 based on the vehicle surrounding object map M1 (T1).
- the behavior of various surrounding objects 102 (1) to 104 (1) mapped on the vehicle surrounding object map M1 (T1) is predicted.
- a prediction method for example, there is a method of extrapolating a future position based on the current position and speed of each surrounding object.
- the vehicle surrounding prediction map M2 (T1) indicating the future prediction of the vehicle surrounding object as shown in FIG. 4 (2) is obtained by the surrounding object behavior prediction process S2.
- the vehicle surrounding prediction map M2 (T1) includes a predicted position 101 (2) of the own vehicle 1, a predicted position 102 (2) of another vehicle, a predicted position 103 (2) of a bicycle, and a predicted position 104 of a pedestrian ( 2) is mapped.
- the predicted position of each object by the surrounding object behavior prediction process S2 is indicated by a dotted line.
- the other vehicle position 102 (1), the bicycle position 103 (1), and the pedestrian position 104 (1) at the current time T1, which are the results of the sensor fusion process S1, are indicated by solid lines.
- the actual position is not necessarily included in the result of the actual surrounding object behavior prediction process S2.
- FIG. 4B only one predicted position of each object is shown, but the predicted positions of each object can be generated as many times as necessary for the host vehicle track planning process S3.
- the host vehicle track planning process S3 is performed on the microcomputer 11, and the host vehicle track is generated.
- a control command value to the lower ECU group 40 that satisfies the generated own vehicle track is generated and transmitted to the lower ECU group 40. Thereby, the process of the main function of automatic operation ECU10 is completed.
- the self-diagnosis process S4 diagnoses an abnormality in the input values of the sensor fusion process S1 and the sensors 21, 22 in the main function process flow of the automatic operation ECU 10.
- FIG. 5 shows the overall configuration of the self-diagnosis process S4.
- the self-diagnosis process (abnormality determination process) shown in FIG. 5 is obtained by extracting a relevant part from the main function process flow of the automatic operation ECU 10 shown in FIG.
- the main function process of the automatic operation ECU 10 is a periodic process, and after a series of processes started at a certain time T1, the same process is started again at the next time T2. Therefore, in FIG. 5, a part of the series of processes is shown in the horizontal direction, the time at which the series of processes is started is shown in the vertical direction, and the process flow in the automatic operation ECU 10 is shown. Details of the processing will be described later with reference to FIG. In FIG. 5, step numbers indicating the correspondence with the processing of FIG. 6 are described.
- the self-diagnosis process S4 is based on the diagnosis result (determination result) for the calculation result of the sensor fusion process S1 and the diagnosis result (determination result) for the sensor data.
- the automatic driving ECU 10 performs control such as notifying the driver of abnormality detection or entrusting the driver to drive the vehicle 1 in accordance with the final comprehensive determination.
- FIG. 6 is a flowchart showing a detailed example of the self-diagnosis process S4 executed by the microcomputer 11. It is assumed that the current time is T2.
- the microcomputer 11 acquires the peripheral object prediction map M2 (T1) predicted at time T1 from the peripheral object behavior prediction process S2 (S41).
- the microcomputer 11 acquires the own vehicle surrounding object map M2 (T2) calculated at time T2 (S42). Then, the microcomputer 11 compares the predicted map M2 (T1) acquired in step S41 with the current map M2 (T2) acquired in step S42, so that an abnormality has occurred in the calculation result of the sensor fusion process S1. Determine (S43).
- step S43 a method of comparing the deviation width of the position of each peripheral object with a predetermined threshold value can be mentioned.
- a position error of a little less than one grid has occurred.
- the threshold for detecting the presence / absence of abnormality is defined as “half grid”, it can be determined that an abnormality has occurred at the bicycle position 103 (3) at time T2. Thereby, in the main function process flow of the automatic operation ECU 10, it is possible to detect the presence or absence of an abnormality that has occurred up to the sensor fusion process S1.
- the determination result of step S43 is sent to the comprehensive determination step S46.
- the microcomputer 11 acquires synchronous millimeter wave radar data and synchronous camera data from the time synchronization process S11 in the sensor fusion process S1 (S44).
- the microcomputer 11 compares the synchronous data (synchronous millimeter wave radar data and synchronous camera data) acquired in step S44 with the surrounding object predicted position M2 (T1) at time T2 calculated at time T1 (S45).
- step S45 the difference between the predicted position of the peripheral object M2 (T1) at time T2 calculated at time T1 as correct data and the actual position of each peripheral object indicated by the synchronous millimeter wave radar data and the synchronous camera data. Is compared with a predetermined threshold. When the difference generated in the sensor data is equal to or greater than the threshold value, the microcomputer 11 determines whether an abnormality has occurred in the sensor data, that is, whether the abnormality has occurred in the sensors 21 and 22.
- the presence or absence of abnormality in the sensor data can be determined using the threshold value as described above.
- the synchronous millimeter-wave radar data and the synchronous camera data used for comparison may be obtained from the time synchronization process S11 so that data synchronized with the time T2 can be obtained.
- the synchronization data at the time closest to the time T2 obtained in the process of the time synchronization processing S11 may be used.
- the determination result of step S45 is sent to the comprehensive determination step S46.
- the microcomputer 11 performs a comprehensive determination based on the determination result in step S43 (determination result for the sensor fusion process S1) and the determination result in step S45 (determination result for the sensor data) (S46).
- An abnormality that has occurred in the sensor fusion process S1, an abnormality that has occurred in the millimeter wave radar 21, and an abnormality that has occurred in the camera 22 can be detected.
- the comprehensive determination table 120 associates the determination result S43 for the sensor fusion process S1, the determination result S45 for the sensor data, and the comprehensive determination result S46.
- the determination result S43 for the sensor fusion process S1 is indicated as “calculation result determination”.
- the microcomputer 11 determines whether an abnormality has occurred in the sensor fusion process S1 from the determination result S43 for the sensor fusion process S1. When it is determined that there is an abnormality in the sensor fusion process S1, the microcomputer 11 refers to the determination result S45 of the sensor data from the sensors 21 and 22. At that time, the microcomputer 11 can determine that the abnormality does not correspond to either the abnormality of the millimeter wave radar 21 or the abnormality of the camera 22 as an abnormality in the sensor fusion process S1.
- step S43 determines whether there is an abnormality or not. If it is determined in step S43 that there is an abnormality, if it is determined in step S45 that the millimeter wave radar data 21 is abnormal, the comprehensive determination result is “millimeter wave radar abnormality”. Similarly, if it is determined in step S43 that there is an abnormality, and it is determined in step S45 that the camera 22 is abnormal, the overall determination result is “camera abnormality”. Similarly, if it is determined in step S43 that there is an abnormality, and if it is determined in step S45 that there is no abnormality, the comprehensive determination result is “sensor fusion processing abnormality”.
- step 43 If it is determined in step 43 that there is no abnormality, the overall determination result is “no abnormality”. Since the sensor fusion process S1 uses sensor data from the sensors 21 and 22, if no abnormality has occurred in the sensor fusion process S1, it can be considered that there is no abnormality in the sensor data.
- the microcomputer 11 determines whether or not the result of the comprehensive determination is “abnormal” (S47), and if it is determined that there is an abnormality (S47: YES), there is an abnormality for the driver who is on the vehicle 1. Notification of the detection is made (S48).
- the microcomputer 11 outputs, for example, a message such as “Abnormality has been detected in the automatic driving system” or a display on the display.
- step S48 is performed. Notification may be performed.
- the notification in step S48 is a notification as a prior warning before the process of shifting from automatic operation to manual operation is started.
- the microcomputer 11 determines whether or not the abnormal state continues after notifying the driver in step S48 (S49). For example, when the comprehensive determination result continues to be determined as “abnormal” for a predetermined number of predetermined times or more (S49: YES), the microcomputer 11 starts the degeneration operation process (S50).
- the degeneration operation process for example, the hazard lamp is turned on, the travel control is changed to enter a predetermined stop operation, the input of the sensor determined to be abnormal is ignored, and the remaining The automatic operation mode is continued using only the normal sensor, and processing such as switching to manual operation after a predetermined time after notifying the driver is executed. This ensures the safety of passengers when an abnormality occurs in the automatic driving system.
- the notification process not only the driver in the vehicle 1 is notified, but also, for example, notification may be made to other surrounding vehicles, and notification is made to a server (not shown) that monitors the traveling of the vehicle. May be.
- Log information indicating changes in parameters during automatic operation may be stored in the memory 12, and the abnormality detection time and the type of abnormality may be stored in association with the log information. This can also be used to investigate the cause of the abnormality.
- the behavior of an object around the host vehicle is predicted based on the sensor data from the external world information detection unit 20, and whether or not the prediction result matches is determined from the external world information detection unit 20.
- the determination is made based on the current sensor data to be acquired. Therefore, according to the present embodiment, self-diagnosis can be performed with a simple configuration without multiplexing the external world information detection unit 20 and the microcomputer 11, and the reliability can be improved without increasing the manufacturing cost.
- the outside world information detection unit 20 (millimeter wave radar 21 and camera 22) used in the automatic driving ECU 10 is not multiplexed, and the sensor fusion process S1 in the automatic driving ECU 10 is not multiplexed.
- the determination method of the presence or absence of abnormality according to the present embodiment is based on a comparison operation using a map or information obtained in the process of main function processing of the automatic operation ECU 10. For this reason, even when the abnormality determination method (self-diagnosis process) of this embodiment is additionally installed in the automatic operation ECU 10, an increase in the processing load of the automatic operation ECU 10 can be suppressed.
- each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention. Further, the configurations described in the claims can be combined with combinations other than those specified in the claims.
- the method for determining the presence or absence of abnormality by comparing two pieces of map information at time T1 and time T2 has been described.
- the presence / absence of an abnormality may be determined by comparing position information and predicted position information between three or more times such as times T1, T2, and T3.
- the abnormality detection method (self-diagnosis method) described in the above embodiment verifies the validity of the automatic operation ECU process at the next time T2 on the assumption that the automatic operation ECU process at a certain time T1 is normal. . For this reason, it is preferable to confirm that the automatic driving ECU process is normal, for example, when the engine key is turned on or when the automatic driving ECU process is started.
- this confirmation method for example, there is a method of performing the same processing at the automatic operation start time and the next time, and confirming whether or not the results of the processing match. Further, during the operation of the automatic driving ECU 10, the position of an object such as a landmark whose position is known is detected, and the movement amount of the host vehicle 1 is estimated using the map information 31 and the host vehicle position sensor 32. By comparing the value with the position of an object such as a landmark, it is possible to confirm the validity of the external information detection unit 20 and the sensor fusion process S1.
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Traffic Control Systems (AREA)
- Geophysics And Detection Of Objects (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
比較的簡易な構成で、異常状態が生じたか判定することができる車両の電子制御装置を提供すること。本発明に従う車両の電子制御装置は、車両の外界情報を検出する外界情報検出部(21,22)から取得する外界情報に基づいて、車両周辺の物体の行動を予測する行動予測部(S2)と、行動予測部の予測結果に対応する時刻における外界情報検出部から取得した外界情報と行動予測部の予測結果とを比較することで、外界情報検出部に異常が生じたか判定する検出部用判定部(S45)を備える。
Description
本発明は、車両の電子制御装置に関する。
自動運転を制御する上位の制御装置である自動運転ECU(Electronic Control Unit)には、自動運転システムに障害が発生した場合でも、運転者に操作を引き継ぐまでの一定期間、自動運転動作の継続が求められる。このような障害の一例として、例えば自動運転制御のための演算を行う演算処理装置上での演算中に発生する異常や、センサに発生する異常がある。
障害発生時に一定期間の動作継続を実現するためには、異常を検出して、異常に対応した制御に切替える必要がある。このような障害や異常の検出にあたり、一般に、演算処理やセンサを多重化して出力を比較する方式、および演算結果やセンサ出力値の妥当性を別のセンサ値や演算結果を用いて検証する方式が用いられる。しかし、センサや演算装置を多重化する場合、センサ数増大によるシステム構成の複雑化、演算処理負荷の増大などの課題があるため、妥当性を検証する方式が必要となる。
特許文献1では、自車の状態量を検出するセンサの値ずれを、そのセンサとは異なる種類のセンサを用いて検出したり補正したりする装置が開示されている。特許文献1では、センサ出力値の妥当性を評価することにより、異常を検出する。
特許文献1記載の検証方式では、判定対象のセンサに発生した障害や異常を、判定対象のセンサとは異なる検証用のセンサを用いて検出することはできるものの、検証用のセンサに発生する異常を検出する手段は示されていない。
自動運転ECUでは、複数のセンサを同時に用い、それぞれのセンサの特性を補完することで周辺物体の位置や速度などが認識されるため、各種センサを用いた相補的な検証処理や異常検出処理が必要である。
本発明は上記の課題に鑑みてなされたもので、その目的は、比較的簡易な構成で、異常状態が生じたか判定することができる車両の電子制御装置を提供することにある。
上記課題を解決すべく、本発明に従う車両の電子制御装置は、車両の外界情報を検出する外界情報検出部から取得する外界情報に基づいて、車両周辺の物体の行動を予測する行動予測部と、行動予測部の予測結果に対応する時刻における外界情報検出部から取得した外界情報と行動予測部の予測結果とを比較することで、外界情報検出部に異常が生じたか判定する検出部用判定部を備える。
本発明によれば、外界情報検出部からの外界情報に基づいて予測された、車両周辺の物体の行動の結果と、その予測結果に対応する時刻における外界情報検出部からの外界情報とを比較することで、外界情報検出部に異常が生じたかを判定することができる。
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態では、情報検出部(外界情報検出部20)で検出した第1情報に基づいて所定の演算を行い、第1演算結果と情報検出部で検出した第2情報(第2情報は、第1情報の後で検出される)または第2の情報に基づいて所定の演算をした第2演算結果を比較する。これにより、本実施形態では、情報検出部または所定の演算を実行する演算処理部に異常が生じた否かを自己診断することができる。
本実施形態の一つの例によれば、以下に詳述するように、車両1の外界情報を検出する外界情報検出部20と、車両1の周辺に位置する物体の挙動(行動)を予測する行動予測部(S2)とを備え、行動予測部による周辺物体の行動を予測した情報M2(T1)と、外界情報検出部20から得られる外界情報とを比較することにより、外界情報検出部20に発生した異常を判断する。
本実施形態によれば、過去の外界情報から予測された情報(行動予測部の予測結果)と現在の外界情報とを比較することで、外界情報検出部20に生じる異常を検出することができる。さらに、本実施形態によれば、外界情報検出部20からの外界情報に基づいて統合演算する統合演算部(S1)の演算結果を行動予測部の予測結果とを比較することで、総合演算部に生じる異常を検出することもできる。
したがって、本実施形態によれば、検出回路や演算処理回路、コンピュータプログラムを多重化することなく、比較的簡易な構成で、外界情報検出部20や統合演算部(S1)に異常が生じたか診断することができる。
図1~図7を用いて実施例を説明する。図1は、本実施例に係る車両の電子制御装置のシステム構成図である。
車両1は、例えば、車体、車体の前後左右に配置される車輪、車体に搭載されるエンジン、運転室(いずれも図示せず)等を備えている。自動運転ECU10は、車両1を自動運転するための電子制御装置である。自動運転ECU10は、例えば、演算処理装置(マイクロコンピュータ、以下マイコン)11と、マイコン11により使用されるメモリ12とを備える。
自動運転ECU10には、車両1の外界情報を検出する外界情報検出部20が接続されている。外界情報検出部20は、例えば、ミリ波レーダ21、カメラ22を含む。これらセンサ21,22に加えて、超音波センサ、赤外線センサなどを用いてもよい。以下の説明では、ミリ波レーダ21,カメラ22をセンサ21,22と呼ぶ場合がある。
自動運転ECU10には、車両1の内部的な状態を検出する車両状態検出部30も接続されている。車両状態検出部30としては、例えば、地図情報31、自車位置センサ32がある。自車位置センサ32は、GPS(Global Positioning System)でもよいし、GPSに車速センサや加速度センサを組み合わせた位置検出システムでもよい。
自動運転ECU10は、外界情報検出部20から与えられる外界情報、地図情報31、および自車位置センサ32からの情報に基づき、マイコン11を用いて自動運転に関する演算処理を実施する。自動運転ECU10は、演算の結果、自車の走行軌跡を算出すると、ブレーキ制御装置41やエンジン制御装置42、ステアリング制御装置43等から成る各種下位ECU群40へそれぞれ制御指令値を送信する。これにより、自車両1は安全な経路上を自動走行する。
なお、外界情報検出部20から自動運転ECU10に入力されるデータは、センサ21,22から直接出力される生データでもよいし、各センサ21,22専用のECU(図示せず)により事前処理されたデータでもよい。
図2のフローチャートは、自動運転ECU10の主要な処理を示す。本処理は、マイコン11により所定周期で実行される。
マイコン11は、外界情報検出部20から与えられる各種外界情報を統合するセンサフュージョン処理S1と、センサフュージョン処理S1の結果得られる自車周辺物体地図を用いて自車周辺物体の行動を予測する周辺物体行動予測処理S2と、自車周辺物体の行動予測を基に自車軌道を生成する自車軌道計画処理S3と、自己診断処理S4との演算をそれぞれ実行する。
図3に、センサフュージョン処理S1の内部処理の概要を示す。「統合演算部」の一例としてのセンサフュージョン処理S1は、時刻同期処理S11とセンサ統合処理S12を実施する。
センサフュージョン処理S1内では、ミリ波レーダ21やカメラ22から自動運転ECU10へ与えられるセンサデータは時刻が同期していない。そこで、タイムスタンプを付与されたセンサデータを外界情報検出部20から受信し、時刻同期処理S11を行う。
時刻同期処理S11を完了したデータを、同期ミリ波レーダデータ、同期カメラデータと呼ぶ。センサ統合処理S12では、同期ミリ波レーダデータと同期カメラデータに基づいて、自車1の周辺に位置する周辺物体の位置座標を演算する。センサ統合処理S12は、各周辺物体の位置座標に加え、自車位置センサ32によるセンサ値を用いて地図情報31から自車周辺の地図を引用することで、自車1の周辺物体の位置を地図上にマッピングする。
図4に、センサフュージョン処理S1を用いて、ミリ波レーダ21およびステレオカメラ22で検出した、自車周辺物体の位置や大きさ、移動速度情報を統合することで、自車周辺物体地図M上に各物体をプロットした例を示す。自車周辺物体地図Mには、自車位置101に加えて、他車位置102、自転車位置103、歩行者位置104もマッピングされている。
自車周辺物体地図M1には、現状を示す地図(現在の状況を示す地図)と、将来のある時点の状況を予測した地図とがある。時刻T1に作成された現実の地図には符号M1(T1)を付す。時刻T1において、将来の時刻T2の状況を予測した地図には、符号M2(T1)を付す。時刻T2に作成された現実の地図には符号M2(T2)を付す。予測された地図は、予測地図と呼ぶことがある。
図4(1)は、センサフュージョン処理S1により時刻T1において作成される、時刻T1の現状を示す自車周辺物体地図M1(T1)を示す。自車101(1)は図中右側へ進行するものとする。自車101(1)の進行方向には、他車102(1)、自転車103(1)、歩行者104(1)といった物体が位置している。ここで、物体の符号に添えたかっこ付き数字は、図4(1)~(3)のかっこ付き数字に対応する。以下の説明では、作成時刻や予測時刻を区別しない場合、自車101、他車102、自転車103、歩行者104と略記する。
図4(2)は、周辺物体行動予測処理S2により時刻T1において作成される、時刻T2の状況を予測した自車周辺物体地図M2(T1)を示す。周辺物体行動予測処理S2は、マイコン11上で、自車周辺物体地図M1(T1)に基づき、自車1の周辺物体の行動を予測する。
周辺物体行動予測処理S2では、自車周辺物体地図M1(T1)上にマッピングされた各種周辺物体102(1)~104(1)の行動を予測する。予測方式としては、例えば現在の各周辺物体の位置と速度を基に、将来位置を外挿して求める方式がある。
周辺物体行動予測処理S2により、図4(2)に示すような自車周辺物体の将来予測を示す自車周辺予測地図M2(T1)が求められる。この自車周辺予測地図M2(T1)には、自車1の予測位置101(2)、他車の予測位置102(2)、自転車の予測位置103(2)、歩行者の予測位置104(2)がマッピングされる。
図4(2)では説明のため、周辺物体行動予測処理S2による各物体の予測位置を点線で示す。センサフュージョン処理S1の結果である現在時刻T1における他車位置102(1)、自転車位置103(1)、歩行者位置104(1)を実線で示す。しかし、実際の周辺物体行動予測処理S2の結果には、実位置は必ずしも含まれない。また図4(2)には、各物体の予測位置を1つだけ示しているが、各物体の予測位置は、後の自車軌道計画処理S3に必要となる数だけ生成することができる。
例えば、自車軌道計画処理S3において自車1の軌道が100ミリ秒毎に10秒分計画される場合、各物体(他車、自転車、歩行者等)における予測位置は最大で100個生成される(100=10000ミリ秒/100ミリ秒)。各物体の予測位置を用いることで、マイコン11上にて自車軌道計画処理S3が行われ、自車軌道が生成される。生成された自車軌道を満たすような、下位ECU群40への制御指令値が生成されて、下位ECU群40へ送信される。これにより、自動運転ECU10の主機能の処理が完了する。
一方、自己診断処理S4は、自動運転ECU10の主機能処理フローにおいて、センサフュージョン処理S1およびセンサ21,22の入力値の異常を診断する。
図5に、自己診断処理S4の全体構成を示す。ただし、図5に示す自己診断処理(異常判定処理)は、図2に示した自動運転ECU10の主機能処理フローから関連する部分を抽出したものである。
自動運転ECU10の主機能処理は周期的な処理となっており、ある時刻T1に開始される一連の処理の終了後、次の時刻T2に再度同様の処理が開始される。このため、図5では、この一連の処理の一部を横方向に、一連の処理を開始する時刻を縦方向に示し、自動運転ECU10における処理の流れを示している。処理の詳細は、図6で後述する。図5中には、図6の処理との対応関係を示すステップ番号が記載されている。
時刻T1に開始される一連の処理S1(T1),S2(T1)により、時刻T1での自車周辺物体地図M1(T1)と、時刻T1に演算される時刻T2における周辺予測地図M2(T1)とがそれぞれ求められる(図4(1),(2))。また、時刻T2に開始される一連の処理S1(T2)により、時刻T2での周辺物体の位置を示す地図である周辺物体位置M2(T2)が求められる(図4(3))。
すなわち、時刻T1で予測された自車周辺予測地図M2(T1)と、時刻T2で検出された周辺物体地図M2(T2)とを比較することで(S43)、センサフュージョン処理S1に異常が生じたか判定することができる。時刻T1で予測された自車周辺予測地図M2(T1)と、時刻T2においてセンサ21,22から取得されたセンサデータ(時刻同期処理済みのセンサデータ)とを比較することで(S45)、センサ21,22に異常が生じたか判定することができる。
図6,図7で後述するように、自己診断処理S4は、センサフュージョン処理S1の演算結果についての診断結果(判定結果)と、センサデータについての診断結果(判定結果)とに基づいて、最終的な総合判定を下す。そして、自動運転ECU10は、その最終的な総合判定にしたがって、運転者に異常発見を通知したり、運転者に車両1の運転を委ねたりする等の制御を実行する。
図6は、マイコン11の実行する自己診断処理S4の詳細な一例を示すフローチャートである。なお、現在時刻はT2であるとする。
マイコン11は、時刻T1で予測した周辺物体予測地図M2(T1)を周辺物体行動予測処理S2から取得する(S41)。マイコン11は、時刻T2で算出した自車周辺物体地図M2(T2)を取得する(S42)。そして、マイコン11は、ステップS41で取得した予測地図M2(T1)とステップS42で取得した現在の地図M2(T2)とを比較することで、センサフュージョン処理S1の演算結果に異常が生じているか判定する(S43)。
ここで、ステップS43での比較方法の例を説明する。例えば、各周辺物体の位置の乖離幅と、事前に定める閾値とを比較する方式が挙げられる。図4(2)中の時刻T1に演算される時刻T2における自転車の予測位置103(2)と、図4(3)中の時刻T2における自転車の位置103(3)との間には、図上での1グリッド弱の位置誤差が生じている。
そこで、例えば、異常の有無を検出するための閾値を「半グリッド」と定めたとすると、時刻T2における自転車位置103(3)には、異常が発生していると判定することができる。これにより、自動運転ECU10の主機能処理フローにおける、センサフュージョン処理S1までに発生した異常の有無を検出することが可能となる。ステップS43の判定結果は、総合判定ステップS46へ送られる。
一方、マイコン11は、センサフュージョン処理S1内の時刻同期処理S11から、同期ミリ波レーダデータおよび同期カメラデータを取得する(S44)。マイコン11は、ステップS44で取得した同期データ(同期ミリ波レーダデータ、同期カメラデータ)と時刻T1に演算された時刻T2における周辺物体予測位置M2(T1)とを比較する(S45)。
ステップS45の比較処理では、時刻T1に演算される時刻T2における周辺物体予測位置M2(T1)を正解データとして、同期ミリ波レーダデータおよび同期カメラデータが示す各周辺物体の実際の位置との差異を所定の閾値と比較する。センサデータに生じた差異が閾値以上の場合、マイコン11は、センサデータに異常が生じている、つまり、センサ21,22に異常が生じているか判定する。
前述のセンサフュージョン処理S1の異常判定(S43)と同様、センサデータの異常の有無は、上述のように閾値を用いて判別可能である。なお、比較に用いる同期ミリ波レーダデータおよび同期カメラデータは、時刻T2に同期させたデータが得られるように、時刻同期処理S11から得てもよい。あるいは、時刻同期処理S11の過程で得られる、時刻T2に最も近い時刻の同期データを用いてもよい。ステップS45の判定結果は、総合判定ステップS46へ送られる。
マイコン11は、ステップS43の判定結果(センサフュージョン処理S1についての判定結果)と、ステップS45の判定結果(センサデータについての判定結果)とに基づいて総合的な判定を行うことで(S46)、センサフュージョン処理S1に発生した異常、ミリ波レーダ21に発生した異常、カメラ22に発生した異常、をそれぞれ検出することができる。
図7のテーブル120を参照し、ステップS43,S45での各判定結果のパターンに応じた、総合判定方法を説明する。総合判定テーブル120は、センサフュージョン処理S1についての判定結果S43と、センサデータについての判定結果S45と、総合判定結果S46とを対応付けている。図7では、センサフュージョン処理S1についての判定結果S43を、「演算結果判定」と示している。
マイコン11は、センサフュージョン処理S1についての判定結果S43から、センサフュージョン処理S1に異常が生じたか判定する。センサフュージョン処理S1に異常有りと判定されている場合、マイコン11は、センサ21,22からのセンサデータの判定結果S45を参照する。その際、マイコン11は、ミリ波レーダ21の異常もしくはカメラ22の異常のどちらにも該当しない場合を、センサフュージョン処理S1における異常と判定することができる。
図7の判定方法を説明する。ステップS43で異常ありと判定された場合において、ステップS45でミリ波レーダデータ21に異常ありと判定されたならば、その総合判定結果は「ミリ波レーダ異常」となる。同様にステップS43で異常ありと判定された場合において、ステップS45でカメラ22に異常ありと判定されたならば、その総合判定結果は「カメラ異常」となる。同様に、ステップS43で異常ありと判定された場合において、ステップS45で異常なしと判定されたならば、その総合判定結果は「センサフュージョン処理異常」となる。
ステップ43で異常なしと判定された場合、総合判定結果は「異常なし」となる。センサフュージョン処理S1は、各センサ21,22からのセンサデータを利用しているため、センサフュージョン処理S1に異常が生じていないなら、センサデータにも異常はないと考えることができる。
図6に戻る。マイコン11は、総合判定の結果が「異常あり」であるか判定し(S47)、異常ありと判定された場合(S47:YES)、車両1に乗車している運転者に対して、異常が検出された旨を通知する(S48)。マイコン11は、例えば、「自動運転システムに異常が検知されました。」などのメッセージを、音声出力またはディスプレイ表示する。
ここで、ノイズ等でセンサ値に瞬間的異常が発生する場合もあり得るため、ステップS47において、予め定められた所定回数以上、総合判定結果が「異常あり」と判定したときに、ステップS48の通知を行ってもよい。ステップS48の通知は、自動運転から手動運転に移行するプロセスが起動する前の、事前の注意喚起としての通知である。
マイコン11は、ステップS48で運転者に通知した後、異常状態が継続しているか判定する(S49)。例えば、マイコン11は、予め定められた他の所定回数以上、総合判定結果が「異常あり」と判定され続けている場合(S49:YES)、縮退動作処理を起動させる(S50)。
図示は省略するが、縮退動作処理では、例えば、ハザードランプを点灯し、事前に定められた停止動作に入るように走行制御を変更し、異常判定されたセンサの入力を無視し、残った他の正常なセンサのみを用いて自動運転モードを継続し、運転者に通知してから一定時間後に手動運転へ切り替えるといった処理を実行する。これにより、自動運転システムの異常発生時において、乗員の安全を確保する。通知処理(S46,S48)では、車両1内の運転者に通知するだけでなく、例えば、周囲の他車両へも通知してよいし、車両の走行を監視するサーバ(図示せず)に通知してもよい。自動運転時の各パラメータの変化を示すログ情報をメモリ12に格納しておき、異常検出時刻と異常の種類とをログ情報に対応付けて保存してもよい。これにより異常の原因究明に役立てることもできる。
このように構成される本実施例によれば、外界情報検出部20からのセンサデータに基づいて自車周辺の物体の行動を予測し、その予測結果が合っているかを外界情報検出部20から取得する現在のセンサデータに基づいて判定する。したがって、本実施例によれば、外界情報検出部20やマイコン11などを多重化することなく、簡易な構成で自己診断を行うことができ、製造コストを増大させずに信頼性を向上できる。
すなわち、本実施例によれば、自動運転ECU10に用いられる外界情報検出部20(ミリ波レーダ21,カメラ22)を多重化することなく、自動運転ECU10におけるセンサフュージョン処理S1を多重化することなく、外界情報検出部20やセンサフュージョン処理S1それぞれに発生する異常を検出することができる。本実施例による異常の有無の判定方法は、自動運転ECU10の主機能処理の過程において得られる地図もしくは情報を用いた比較演算に基づく。このため、本実施例の異常の有無の判定方法(自己診断処理)を自動運転ECU10に追加実装した場合でも、自動運転ECU10の処理負荷の増大を抑えることができる。
なお、本発明は、上述した実施形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。上述の実施形態において、添付図面に図示した構成例に限定されない。本発明の目的を達成する範囲内で、実施形態の構成や処理方法は適宜変更することが可能である。
また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれる。さらに特許請求の範囲に記載された構成は、特許請求の範囲で明示している組合せ以外にも組み合わせることができる。
前記実施例では、時刻T1および時刻T2における2つの地図情報を比較することにより異常の有無を判定する方法を説明した。これに代えて、異常判定の方法として、例えば時刻T1,T2,T3など、3つ以上の時刻間で、位置情報と予測位置情報とを比較することにより異常の有無を判定してもよい。
前記実施例で述べた異常検出方法(自己診断方法)は、ある時刻T1での自動運転ECU処理が正常であることを前提として、次の時刻T2での自動運転ECU処理の妥当性を検証する。そのため、例えばエンジンキーをオンしたキーオン時や自動運転ECU処理の開始時に、自動運転ECU処理が正常であることを確認するのが好ましい。
この確認方法としては、例えば自動運転開始時刻と次の時刻とでそれぞれ同様の処理を行い、それら処理の結果が一致するか否かで確認する方法がある。さらに、自動運転ECU10の動作中に、建物等の位置が既知であるランドマーク等の物体に対する位置検出を行い、地図情報31と自車位置センサ32とを用いた自車1の移動量の推定値とランドマーク等の物体の位置とを比較することで、外界情報検出部20やセンサフュージョン処理S1の妥当性を確認することもできる。
1:車両、10:自動運転ECU、11:マイコン、20:外界情報検出部、21:ミリ波レーダ、22:カメラ、30:車両状態検出部、31:地図情報、32:自車位置センサ、40:下位ECU群
Claims (7)
- 車両の電子制御装置であって、
前記車両の外界情報を検出する外界情報検出部から取得する外界情報に基づいて、前記車両周辺の物体の行動を予測する行動予測部と、
前記行動予測部の予測結果に対応する時刻における前記外界情報検出部から取得した外界情報と前記行動予測部の予測結果とを比較することで、前記外界情報検出部に異常が生じたか判定する検出部用判定部を備える、車両の電子制御装置。 - 前記外界情報を統合演算する統合演算部と、
前記行動予測部の予測結果に対応する時刻における前記統合演算部の演算結果と前記行動予測部の予測結果とを比較することで、前記統合演算部に異常が生じたか判定する演算部用判定部とをさらに備える、請求項1に記載の車両の電子制御装置。 - 前記検出部用判定部の判定結果と前記演算部用判定部の判定結果とに基づいて、総合判定を実行する総合判定部をさらに備える、請求項2に記載の車両の電子制御装置。
- 前記総合判定部が異常ありと判定した場合、異常状態の検出を示す異常通知を前記車両の運転者に向けて出力する通知部をさらに備える、請求項3に記載の車両の電子制御装置。
- 予め設定される所定回数以上、前記総合判定部が異常ありと判定した場合に、前記通知部は前記異常通知を出力する、請求項4に記載の車両の電子制御装置。
- 前記通知部が前記異常通知を出力した後、予め設定される他の所定回数以上、前記総合判定部が異常ありと判定した場合に、前記車両の操作を運転者に移行させる処理を開始させる、請求項5に記載の車両の電子制御装置。
- 前記外界情報検出部は、レーダまたはカメラのうち少なくともいずれか一方を含む、請求項1に記載の車両の電子制御装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE112018001402.9T DE112018001402T5 (de) | 2017-04-24 | 2018-03-08 | Elektronische steuervorrichtung für fahrzeug |
US16/607,631 US11352019B2 (en) | 2017-04-24 | 2018-03-08 | Electronic control device for vehicle |
CN201880025466.3A CN110536821B (zh) | 2017-04-24 | 2018-03-08 | 车辆的电子控制装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-085139 | 2017-04-24 | ||
JP2017085139A JP6815925B2 (ja) | 2017-04-24 | 2017-04-24 | 車両の電子制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018198547A1 true WO2018198547A1 (ja) | 2018-11-01 |
Family
ID=63919633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/008904 WO2018198547A1 (ja) | 2017-04-24 | 2018-03-08 | 車両の電子制御装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11352019B2 (ja) |
JP (1) | JP6815925B2 (ja) |
CN (1) | CN110536821B (ja) |
DE (1) | DE112018001402T5 (ja) |
WO (1) | WO2018198547A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019001316A (ja) * | 2017-06-15 | 2019-01-10 | 株式会社Subaru | 自動操舵制御装置 |
WO2019142563A1 (ja) * | 2018-01-22 | 2019-07-25 | 日立オートモティブシステムズ株式会社 | 電子制御装置 |
US11142214B2 (en) * | 2019-08-06 | 2021-10-12 | Bendix Commercial Vehicle Systems Llc | System, controller and method for maintaining an advanced driver assistance system as active |
CN114008698A (zh) * | 2019-06-14 | 2022-02-01 | 马自达汽车株式会社 | 外部环境识别装置 |
US20220089179A1 (en) * | 2019-02-13 | 2022-03-24 | Hitachi Astemo, Ltd. | Vehicle control device and electronic control system |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170305438A1 (en) * | 2014-10-27 | 2017-10-26 | Fts Computertechnik Gmbh | Computer vision monitoring for a computer vision system |
US11145146B2 (en) * | 2018-01-31 | 2021-10-12 | Mentor Graphics (Deutschland) Gmbh | Self-diagnosis of faults in an autonomous driving system |
JP7210906B2 (ja) * | 2018-05-31 | 2023-01-24 | 株式会社デンソー | 車両の自動運転制御装置及びプログラム |
JP6922852B2 (ja) * | 2018-06-12 | 2021-08-18 | 株式会社デンソー | 電子制御装置および電子制御システム |
EP3598259B1 (en) * | 2018-07-19 | 2021-09-01 | Panasonic Intellectual Property Management Co., Ltd. | Information processing method and information processing system |
JP2020131860A (ja) * | 2019-02-18 | 2020-08-31 | 日立オートモティブシステムズ株式会社 | 車両搭載機器の制御装置 |
DE102019216517B3 (de) * | 2019-10-25 | 2021-03-18 | Daimler Ag | Verfahren zur Synchronisation zumindest zweier Sensor-Systeme |
US11639184B2 (en) * | 2020-02-13 | 2023-05-02 | Wipro Limited | Method and system for diagnosing autonomous vehicles |
JP7466396B2 (ja) * | 2020-07-28 | 2024-04-12 | 株式会社Soken | 車両制御装置 |
CN113454613B (zh) * | 2020-10-30 | 2022-08-09 | 华为技术有限公司 | 信息传输方法、控制装置、电磁信号收发装置及信号处理设备 |
JP7380542B2 (ja) * | 2020-12-23 | 2023-11-15 | トヨタ自動車株式会社 | 自動運転システム、及び異常判定方法 |
CN112622935B (zh) * | 2020-12-30 | 2022-04-19 | 一汽解放汽车有限公司 | 一种车辆自动驾驶方法、装置、车辆及存储介质 |
JP7351321B2 (ja) * | 2021-04-13 | 2023-09-27 | トヨタ自動車株式会社 | センサ異常推定装置 |
KR102418566B1 (ko) * | 2021-12-22 | 2022-07-08 | 재단법인 지능형자동차부품진흥원 | 엣지 인프라 기반의 자율 주행 안전 제어 시스템 및 방법 |
CN114248790B (zh) * | 2022-03-02 | 2022-05-03 | 北京鉴智科技有限公司 | 一种视觉报警方法、装置及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010126130A (ja) * | 2008-12-01 | 2010-06-10 | Toyota Motor Corp | 異常診断装置 |
WO2017010264A1 (ja) * | 2015-07-10 | 2017-01-19 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
JP2017047694A (ja) * | 2015-08-31 | 2017-03-09 | 日立オートモティブシステムズ株式会社 | 車両制御装置および車両制御システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4848027B2 (ja) * | 2004-01-30 | 2011-12-28 | 日立オートモティブシステムズ株式会社 | 車両制御装置 |
JP2006024106A (ja) * | 2004-07-09 | 2006-01-26 | Honda Motor Co Ltd | 車両の接触回避制御装置 |
JP2006240453A (ja) * | 2005-03-02 | 2006-09-14 | Daihatsu Motor Co Ltd | センサ異常検出装置及びセンサ異常検出方法 |
JP4720566B2 (ja) * | 2006-03-22 | 2011-07-13 | トヨタ自動車株式会社 | 走行制御装置および故障診断装置 |
JP4976964B2 (ja) | 2007-09-06 | 2012-07-18 | トヨタ自動車株式会社 | 車両走行制御装置 |
JP2009147555A (ja) * | 2007-12-12 | 2009-07-02 | Autonetworks Technologies Ltd | 車載用電子制御ユニットの故障予測システム |
US10875525B2 (en) * | 2011-12-01 | 2020-12-29 | Microsoft Technology Licensing Llc | Ability enhancement |
JP2014149218A (ja) * | 2013-02-01 | 2014-08-21 | Hitachi Automotive Systems Ltd | 慣性力検出装置 |
JP6307383B2 (ja) * | 2014-08-07 | 2018-04-04 | 日立オートモティブシステムズ株式会社 | 行動計画装置 |
JP2016037149A (ja) * | 2014-08-07 | 2016-03-22 | 日立オートモティブシステムズ株式会社 | 車両制御システム、およびこれを備えた行動計画システム |
JP2016084092A (ja) * | 2014-10-28 | 2016-05-19 | 富士重工業株式会社 | 車両の走行制御装置 |
US20210166323A1 (en) * | 2015-08-28 | 2021-06-03 | State Farm Mutual Automobile Insurance Company | Determination of driver or vehicle discounts and risk profiles based upon vehicular travel environment |
KR20170028125A (ko) * | 2015-09-03 | 2017-03-13 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 차량 |
US10118612B2 (en) * | 2017-03-02 | 2018-11-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicles, electronic control units, and methods for effecting vehicle changes based on predicted actions of target vehicles |
-
2017
- 2017-04-24 JP JP2017085139A patent/JP6815925B2/ja active Active
-
2018
- 2018-03-08 DE DE112018001402.9T patent/DE112018001402T5/de active Pending
- 2018-03-08 WO PCT/JP2018/008904 patent/WO2018198547A1/ja active Application Filing
- 2018-03-08 US US16/607,631 patent/US11352019B2/en active Active
- 2018-03-08 CN CN201880025466.3A patent/CN110536821B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010126130A (ja) * | 2008-12-01 | 2010-06-10 | Toyota Motor Corp | 異常診断装置 |
WO2017010264A1 (ja) * | 2015-07-10 | 2017-01-19 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
JP2017047694A (ja) * | 2015-08-31 | 2017-03-09 | 日立オートモティブシステムズ株式会社 | 車両制御装置および車両制御システム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019001316A (ja) * | 2017-06-15 | 2019-01-10 | 株式会社Subaru | 自動操舵制御装置 |
WO2019142563A1 (ja) * | 2018-01-22 | 2019-07-25 | 日立オートモティブシステムズ株式会社 | 電子制御装置 |
US11511763B2 (en) | 2018-01-22 | 2022-11-29 | Hitachi Astemo, Ltd. | Electronic control device |
US20220089179A1 (en) * | 2019-02-13 | 2022-03-24 | Hitachi Astemo, Ltd. | Vehicle control device and electronic control system |
CN114008698A (zh) * | 2019-06-14 | 2022-02-01 | 马自达汽车株式会社 | 外部环境识别装置 |
US11142214B2 (en) * | 2019-08-06 | 2021-10-12 | Bendix Commercial Vehicle Systems Llc | System, controller and method for maintaining an advanced driver assistance system as active |
Also Published As
Publication number | Publication date |
---|---|
JP6815925B2 (ja) | 2021-01-20 |
DE112018001402T5 (de) | 2019-12-19 |
US20200070847A1 (en) | 2020-03-05 |
CN110536821A (zh) | 2019-12-03 |
JP2018184021A (ja) | 2018-11-22 |
US11352019B2 (en) | 2022-06-07 |
CN110536821B (zh) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018198547A1 (ja) | 車両の電子制御装置 | |
JP6923458B2 (ja) | 電子制御装置 | |
CN110709303B (zh) | 车辆控制装置 | |
CN112004730B (zh) | 车辆控制装置 | |
US11220288B2 (en) | Method and device for the control of a safety-relevant process and transportation vehicle | |
CN105515739B (zh) | 具有第一计算单元和第二计算单元的系统和运行系统的方法 | |
WO2020066304A1 (ja) | 車載電子制御システム | |
JP6864992B2 (ja) | 車両制御システム検証装置及び車両制御システム | |
JP7281000B2 (ja) | 車両制御方法および車両制御システム | |
US12030488B2 (en) | Electronic control device | |
CN110035939B (zh) | 车辆控制装置 | |
KR20170134710A (ko) | 차량 안전 전자 제어 시스템 | |
KR101816238B1 (ko) | 가속페달의 위치 변화량과 가속도정보를 이용한 차량의 안전상태 진단시스템 및 그 진단방법 | |
CN110775073A (zh) | 用于识别传感器的减退的性能的方法、控制器和存储介质 | |
KR101591975B1 (ko) | 자동차의 보조 출발 시스템의 동작 상태를 진단하는 방법 및 시스템 | |
US9852502B2 (en) | Image processing apparatus | |
CN111665849B (zh) | 一种自动驾驶系统 | |
CN114802168B (zh) | 驻车制动控制系统及方法 | |
JP2020537277A (ja) | 車両を運転するための方法およびシステム | |
KR20200022674A (ko) | 차량 고장 처리 제어 장치 및 그 방법 | |
JP2010502918A (ja) | 駆動システム及び液圧駆動装置を監視する方法 | |
US11994855B2 (en) | Method for controlling a motor vehicle remotely | |
JP7206410B2 (ja) | 安全システムおよび安全システムの作動方法 | |
CN112550313A (zh) | 通过云计算的容错嵌入式汽车应用程序 | |
US20220402512A1 (en) | Method and system for operating an at least partially automated vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18791045 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18791045 Country of ref document: EP Kind code of ref document: A1 |