[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023127186A1 - 電子制御装置、及びオブジェクトの管理方法 - Google Patents

電子制御装置、及びオブジェクトの管理方法 Download PDF

Info

Publication number
WO2023127186A1
WO2023127186A1 PCT/JP2022/028120 JP2022028120W WO2023127186A1 WO 2023127186 A1 WO2023127186 A1 WO 2023127186A1 JP 2022028120 W JP2022028120 W JP 2022028120W WO 2023127186 A1 WO2023127186 A1 WO 2023127186A1
Authority
WO
WIPO (PCT)
Prior art keywords
blind spot
area
obstacle
solid
unit
Prior art date
Application number
PCT/JP2022/028120
Other languages
English (en)
French (fr)
Inventor
英弘 豊田
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to JP2023570643A priority Critical patent/JPWO2023127186A1/ja
Priority to DE112022005214.7T priority patent/DE112022005214T5/de
Publication of WO2023127186A1 publication Critical patent/WO2023127186A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an electronic control device, and more particularly to technology for managing objects outside the vehicle in an in-vehicle electronic control device.
  • sensors In automated driving and advanced driving assistance, sensors detect objects outside the vehicle, control the vehicle, and assist the driver.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2011-248870 describes a blind spot area detection device that is mounted on a vehicle and detects a blind spot area representing a blind spot area around the own vehicle.
  • an object information acquisition means for acquiring object information representing information about a shape including a height of a surrounding object representing the object and a distance to the surrounding object; and blind spots caused by the surrounding object based on the acquired object information.
  • a blind spot area detection means for detecting the size of the blind spot area, which is an area.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2020-135215 describes a behavior control method for controlling the behavior of the vehicle, which is used in a vehicle equipped with an environment recognition unit that recognizes the driving environment, and includes at least one processor identifies a blind spot area that is a blind spot of the environment recognition unit with respect to the travel route of the vehicle that is set to include right/left turns or lane changes, and moves from the blind spot area to the travel route determining the possibility of an object jumping out; if there is the possibility of the object jumping out of the blind spot area, performing a possibility reduction action that transitions the probability of the object jumping out to a low state;
  • a behavior control method is described that includes the step of causing a driving behavior of the vehicle to follow a driving route.
  • the blind spot area (sometimes referred to as occlusion) caused by obstacles is behind the obstacles, so the size of the obstacles and objects hidden behind them cannot be detected. Furthermore, it is difficult to estimate the risk inherent in the blind area. For example, an object hidden behind an obstacle can jump into the path of the vehicle. Furthermore, it is difficult to accurately estimate the size and shape of blind spots that do not include obstacles that interfere with object observation.
  • the purpose of the present invention is to accurately estimate objects hidden in blind spots, and to accurately predict risks caused by hidden objects, thereby improving the driving safety of vehicles.
  • the electronic control device includes an object recognition unit that recognizes surrounding objects based on external world information acquired by an external sensor; and a blind spot object management unit that manages a blind spot area created by the obstacle object as a blind spot object, wherein the object recognizing unit is configured to: Among them, solid object information about an object that can enter and exit the blind spot area is generated, and the blind spot object management unit associates the solid object that entered the blind spot area with the blind spot object in the blind spot area, and exits the blind spot area. It is characterized by canceling the association of the solid object with the blind spot object of the blind spot area.
  • objects hidden in blind spots can be accurately predicted. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
  • FIG. 1 is a block diagram showing the logical configuration of an electronic control unit according to an embodiment of the invention
  • FIG. 4 is a block diagram showing the configuration of a blind spot object management unit
  • FIG. 10 is a diagram showing a configuration example of a fault object database
  • FIG. 4 is a diagram showing a configuration example of a solid object database
  • It is a figure which shows the structural example of a blind spot object database.
  • FIG. 4 is a diagram showing a configuration example of a virtual solid object database
  • 9 is a flowchart of blind spot object management processing
  • It is a figure which shows the example of the object processed by the electronic controller of a present Example.
  • FIG. 5 is a diagram showing an example of another object processed by the electronic control device of the embodiment;
  • the electronic control unit 10 detects obstacles that generate a blind area that hinders observation by the external sensor 32 from among the observed objects, and manages solid objects entering and exiting the blind area in chronological order. do. That is, the once recognized object is continuously managed even if it enters the blind area. Also, the area or volume of the blind area is accurately grasped, and virtual solid objects such as pedestrians, motorcycles, and automobiles included in the blind area are set according to the shape and size of the blind area. Then, the risk of impeding the progress of the own vehicle is calculated according to the number and details of objects included in the blind spot area.
  • FIG. 1 is a block diagram showing the logical configuration of the electronic control unit 10 of the embodiment of the invention.
  • the electronic control unit 10 of this embodiment has an arithmetic device, a storage device, and a communication interface.
  • Arithmetic devices are processors (for example, CPUs) that execute programs stored in storage devices.
  • An arithmetic unit operates as a functional unit that provides various functions by executing a predetermined program.
  • the memory includes non-volatile storage areas and volatile storage areas.
  • the non-volatile storage area includes a program area for storing programs executed by the arithmetic unit and a data area for temporarily storing data used by the arithmetic unit when executing the program.
  • the volatile storage area stores data used by the arithmetic unit during program execution.
  • the communication interface connects with other electronic control devices via networks such as CAN and Ethernet.
  • the electronic control unit 10 includes a vehicle position estimation unit 11, an external world information acquisition unit 12, an object recognition unit 13, a vehicle information acquisition unit 14, a peripheral map generation unit 15, a map storage unit 16, a communication unit 17, and a current peripheral map search unit. 18, obstacle object detection / judgment unit 19, blind spot detection unit 20, blind spot object management unit 21, risk calculation unit 22, driving action planning unit 23, automatic driving management unit 24, automatic driving control unit 25, operation information acquisition unit 26, and a manual/automatic operation switching unit 27 .
  • the position information 31 is position information (latitude/longitude and relative position information) output from a GNSS unit or an inertial navigation unit (not shown).
  • the external sensor 32 is a sensor that observes the state of the exterior of the vehicle and outputs external world information, such as a camera, radar, and LiDAR.
  • the vehicle sensor 33 is a sensor that measures vehicle behavior (acceleration, speed, roll, pitch, yaw, etc.). Further, the electronic control unit 10 receives an operation angle from the steering device 34 , an operation amount of the accelerator pedal 35 , and an operation amount of the brake pedal 36 .
  • the vehicle position estimator 11 estimates the position of the vehicle based on the position information 31 input to the electronic control unit 10, the vehicle information output from the vehicle information acquisition unit 14, and the operation information output from the operation information acquisition unit 26. Estimate location.
  • the external world information acquisition unit 12 generates surrounding information from observation results (captured images, point cloud data, etc.) by the external world sensor 32 .
  • the object recognition unit 13 recognizes an object included in the surrounding information generated by the external world information acquisition unit 12, and generates solid object information representing the recognized object.
  • Solid object information includes pedestrians, two-wheeled vehicles, automobiles, walls, guardrails, etc. recognized as a result of observation by the external sensor 32, and moving and fixed objects that actually exist and have clear attributes such as volume or bottom area. is.
  • Solid object information maintains its attributes even if the solid object becomes unobservable due to movement into the blind area or deformation of the blind area due to changes in the relative positions of the vehicle and the obstacle. do it.
  • the vehicle information acquisition unit 14 generates vehicle information indicating the state of the vehicle from the vehicle behavior information from the vehicle sensor 33 .
  • the surrounding map generation unit 15 generates a map of the surroundings of the vehicle based on the vehicle position estimated by the vehicle position estimation unit 11, the surrounding information generated by the external world information acquisition unit 12, and the object information generated by the object recognition unit 13. Generate.
  • the communication unit 17 wirelessly communicates with a map distribution server (not shown) to acquire map update information and update risk calculation parameters (calculation formulas).
  • the map storage unit 16 stores the peripheral map generated by the peripheral map generation unit 15 and the map acquired from the server via the communication unit 17 .
  • the map stored in the map storage unit 16 should have a higher accuracy than the map used by the navigation device (for example, an accuracy of about several tens of centimeters), and should be able to distinguish between roadways and sidewalks, and between lanes.
  • It may be a high-precision map for automatic driving, a map generated from observation results of the own vehicle, or a map acquired from a map distribution server and updated with a surrounding map generated by the surrounding map generation unit 15 .
  • the current peripheral map search unit 18 acquires from the map storage unit 16 a current map around the vehicle position estimated by the vehicle position estimation unit 11 .
  • the obstacle object detection/judgment unit 19 selects an obstacle object that hinders observation from the own vehicle from the surrounding information generated by the external world information acquisition unit 12 and the object information generated by the object recognition unit 13, and obtains the obstacle object information. Generate.
  • the blind spot detection unit 20 calculates a blind spot area where observation is hindered from the current map acquired by the current surrounding map search unit 18 and the obstacle object information generated by the obstacle object detection/judgment unit 19, and generates blind spot information. .
  • the blind spot detection unit 20 calculates the net blind spot area excluding the area occupied by the obstacle object using the map information of the current position. Also, the net shape of the blind spot area may be accurately estimated by subtracting the shape of the obstacle object and the objects in the blind spot area estimated using the observation results of a plurality of times.
  • the blind spot object management unit 21 represents a blind spot area based on the blind spot information generated by the blind spot detection unit 20, the obstacle object information generated by the obstacle object detection/judgment unit 19, and the solid object information generated by the object recognition unit 13. Generate blind spot object information. The details of the blind spot object management unit 21 will be described with reference to FIGS. 2 and 7. FIG.
  • a blind spot object is an object that continuously manages, in chronological order, an irregularly shaped blind spot area caused by an obstacle object that interferes with observation from the own vehicle.
  • the blind spot object is composed of polygons in two-dimensional space and polygonal prisms or polygons in three-dimensional space.
  • the blind spot object is preferably represented by planar or solid vertex coordinates so that the area in two-dimensional space and the volume in three-dimensional space can be calculated.
  • a blind spot object is associated with the obstacle object causing the blind spot area by a corresponding obstacle object 2145 of the blind spot object database 214 .
  • An obstacle object that creates a blind spot area is an object observed by the external sensor 32 and recognized by the object recognition unit 13 (a non-moving building, a moving vehicle, etc.), or an obstacle object observed by the external sensor 32 but detected by the object recognition unit 13.
  • An object whose type cannot be recognized by the method may be treated as an obstacle object of unknown type if it has a certain shape.
  • the risk calculation unit 22 calculates the degree of travel risk on the route of the vehicle from the blind spot object information generated by the blind spot object management unit 21, and generates latent risk information indicating the degree of travel risk. That is, since the blind spot object information includes association with solid object information and virtual solid object information included in the blind spot area, there is a possibility that these solid objects and virtual solid objects may interfere with the running of the vehicle.
  • Calculate the risk value that is For example, it calculates the probability that a pedestrian (a solid object) behind a parked vehicle will jump into the roadway, or that a vehicle (a virtual solid object) that may be behind a building will come into the lane. .
  • the risk value may be calculated according to the density of each type of object included in the blind spot object.
  • the calculated risk value is assigned to each partitioned area of the map to generate latent risk information.
  • the driving action planning unit 23 generates driving actions from the latent risk information generated by the risk calculating unit 22. For example, low-risk driving behavior can be generated by selecting low-risk areas around the vehicle's path.
  • the automatic driving management unit 24 generates a control command for automatic driving and a manual driving/automatic driving switching signal from the driving behavior generated by the driving behavior planning unit 23 .
  • the automatic driving control unit 25 generates a steering control signal 37, an acceleration control signal 38, and a deceleration control signal 39 according to the control command generated by the automatic driving management unit 24.
  • the operation information acquisition unit 26 acquires the operation angle from the steering device 34, the operation amount of the accelerator pedal 35, and the operation amount of the brake pedal 36, and generates operation information.
  • the manual/automatic operation switching unit 27 switches between manual operation and automatic operation according to the manual operation/automatic operation switching signal generated by the automatic operation management unit 24.
  • the operation information generated from the operation amounts of the steering device 34, the accelerator pedal 35, and the brake pedal 36 are respectively a steering control signal 37, an acceleration control signal 38, and a deceleration control signal.
  • the signal circuit is switched so that it is output as 39.
  • the signal circuit is switched so that the steering control signal 37 generated by the automatic driving control unit 25, the acceleration control signal 38, and the deceleration control signal 39 are output.
  • FIG. 2 is a block diagram showing the configuration of the blind spot object management unit 21. As shown in FIG.
  • the blind spot object manager 21 has a blind spot object generator 211 , an obstacle object database 212 , a solid object database 213 , a blind spot object database 214 and a virtual solid object database 215 .
  • Blind spot information from the blind spot detection unit 20 , obstacle object information from the obstacle object detection/judgment unit 19 , and solid object information from the object recognition unit 13 are input to the blind spot object management unit 21 .
  • the blind spot object management unit 21 also outputs blind spot object information.
  • the blind spot object generation unit 211 generates blind spot object information using the input blind spot information, obstacle object information, and solid object information, and stores the generated blind spot object information in the blind spot object database 214. Details of the processing executed by the blind spot object generation unit 211 will be described with reference to FIG.
  • the obstacle object database 212 is a database in which obstacle objects are registered, the details of which will be described with reference to FIG.
  • the solid object database 213 is a database in which solid objects are registered, the details of which will be described with reference to FIG.
  • the blind spot object database 214 is a database in which blind spot objects are registered, the details of which will be described with reference to FIG.
  • the virtual solid object database 215 is a database in which virtual solid objects are registered, the details of which will be described with reference to FIG.
  • a virtual solid object is a virtual moving object that may exist within the blind area. For the virtual solid object, the type (pedestrian, motorcycle, automobile) and attributes similar to those of the solid object, and the average shape and base area or volume for
  • FIG. 3 is a diagram showing a configuration example of the failure object database 212. As shown in FIG. 3
  • the obstacle object database 212 is a database in which obstacle objects are registered. include.
  • the ID 2121 is identification information for uniquely identifying the obstacle object.
  • the type 2122 is the type of obstacle object, such as an automobile or a structure.
  • a shape 2123 is the shape of the obstacle object, such as a regular cube, an irregular cube, or the like.
  • the bottom surface shape 2124 is the shape of the bottom surface of the obstacle object, and is represented, for example, by the vertical and horizontal sizes of the bottom surface in a regular cube, and by the coordinates forming the bottom surface in an irregular cube.
  • Base area 2125 is the base area of the obstacle object, expressed in square meters.
  • Volume 2126 is the volume of the obstacle object, expressed in cubic meters.
  • a mode 2127 is an attribute of an obstacle object, such as a dynamic object that moves or changes shape, or a static object that does not move.
  • TTL (Time to Live) 2128 is a counter value used to organize obstacle objects detected in the past. When an obstacle object is detected, the upper limit is set, and when the obstacle object is not detected, it is decre
  • FIG. 4 is a diagram showing a configuration example of the solid object database 213.
  • FIG. 4 is a diagram showing a configuration example of the solid object database 213.
  • the solid object database 213 is a database in which solid objects are registered, and includes data of ID 2131, type 2132, bottom shape 2133, bottom area 2134, volume 2135, and TTL 2136.
  • the ID2131 is identification information for uniquely identifying a solid object.
  • the type 2132 is the type of solid object, such as a pedestrian, a two-wheeled vehicle, and an automobile.
  • the bottom surface shape 2133 is the shape of the bottom surface of the solid object, and is represented, for example, by the vertical and horizontal sizes of the rectangle occupied by the solid object, and the coordinates forming the bottom surface.
  • Base area 2134 is the base area of the solid object, expressed in square meters.
  • Volume 2135 is the volume of the solid object, expressed in cubic meters.
  • TTL (Time to Live) 2136 is a counter value used to sort out solid objects detected in the past. When a solid object is detected, the upper limit is set, and when the solid object is not detected, it is decremented. be done.
  • FIG. 5 is a diagram showing a configuration example of the blind spot object database 214.
  • FIG. 5 is a diagram showing a configuration example of the blind spot object database 214.
  • the blind spot object database 214 is a database in which blind spot objects are registered, and includes data of an ID 2141, a shape 2142, a base area 2143, a volume 2144, a corresponding obstacle object 2145, an inclusion object 2146, and a TTL 2147.
  • the ID 2141 is identification information for uniquely identifying the blind spot object.
  • the shape 2142 is the shape of the blind spot object, and is represented, for example, by the vertex coordinates of the solid occupied by the blind spot object.
  • the bottom area 2143 is the bottom area of the blind spot object (the size of the blind spot area) and is expressed in square meters.
  • Volume 2144 is the volume of the blind spot object, expressed in cubic meters.
  • the corresponding obstacle object 2145 is the identification information of the obstacle object that generates the blind spot object, that is, prevents the blind spot area of the blind spot object from being observed from the own vehicle.
  • An inclusion object 2146 is identification information of a virtual solid object included in the blind spot object.
  • TTL (Time to Live) 2147 is a counter value used to organize previously detected blind spot objects. When a blind spot object is detected, an upper limit value is set, and when the blind spot object is not detected, it is decremented. be done.
  • FIG. 6 is a diagram showing a configuration example of the virtual solid object database 215.
  • FIG. 6 is a diagram showing a configuration example of the virtual solid object database 215.
  • the virtual solid object database 215 is a database in which virtual solid objects are registered, and includes data of an ID 2151, a type 2152, a bottom shape 2153, a bottom area 2154, and a volume 2155.
  • the ID 2151 is identification information for uniquely identifying the virtual solid object.
  • the type 2152 is the type of virtual solid object, such as a pedestrian, a two-wheeled vehicle, and an automobile.
  • the bottom surface shape 2153 is the shape of the bottom surface of the virtual solid object, and is represented, for example, by the vertical and horizontal sizes of the rectangle occupied by the virtual solid object, and the coordinates forming the bottom surface.
  • Base area 2154 is the base area of the virtual solid object, expressed in square meters.
  • Volume 2155 is the volume of the virtual solid object, expressed in cubic meters.
  • FIG. 7 is a flowchart of blind spot object management processing executed by the blind spot object management unit 21, that is, the blind spot object generation unit 211.
  • FIG. 7 is a flowchart of blind spot object management processing executed by the blind spot object management unit 21, that is, the blind spot object generation unit 211.
  • the electronic control unit 10 is activated when the ignition of the vehicle is turned on, the blind spot object management unit 21 is activated, and the processes of steps S2 to S6 are repeatedly executed at predetermined time intervals.
  • the blind spot object generator 211 initializes the obstacle object database 212, the solid object database 213, and the blind spot object database 214 (step S1). For example, erase all data recorded in each database.
  • the blind spot object generation unit 211 executes preprocessing (step S2). This pre-processing is executed as a pre-stage of the processing after step S3, and may be executed synchronously with the processing after step S3, or may be repeatedly executed at an independent timing. Specifically, the blind spot object generation unit 211 searches for a map around the current position and acquires the map around the current position. Then, the blind spot object generation unit 211 determines an object larger than a predetermined size to be an obstacle object based on the information on the surrounding objects described in the obtained surrounding map and the object information recognized by the external sensor 32 . Also, the blind spot object generation unit 211 determines a solid object from the object recognition result (solid object information) by the object recognition unit 13 . Furthermore, the blind spot object generation unit 211 calculates the blind spot area from the current position (observation point) based on the obstacle object information from the obstacle object detection/judgment unit 19 and the blind spot information detected from the current map by the blind spot detection unit 20. do.
  • the blind spot object generation unit 211 updates the obstacle object database 212 (step S3). Specifically, the blind spot object generator 211 records the newly detected obstacle object in the obstacle object database 212 (step S3). Note that if the detected obstacle object is recorded in the obstacle object database 212, the blind spot object generation unit 211 sets the TTL 2128 of the record to the upper limit.
  • the blind spot object generator 211 updates the blind spot object database 214 (step S4). Specifically, the blind spot object generation unit 211 searches the obstacle object database 212, extracts an obstacle object that is detected by the blind spot detection unit 20 and generates a blind spot area larger than a predetermined size, and extracts an obstacle object that generates a blind spot area larger than a predetermined size. A record of the area is newly registered in the blind spot object database 214 .
  • a virtual solid object included in the blind spot object is determined according to the size of the blind spot object.
  • a virtual solid object included in a blind spot object may be determined according to the type and area of the blind spot object. Specifically, the number of virtual solid objects contained in a blind spot object of unit area is determined for each type of blind spot object (sidewalk, roadway, etc.) and for each type of virtual solid object, and the type of blind spot object to be registered and a virtual solid object encompassed by the area can be defined.
  • the virtual solid objects to be included may be determined by the number of solid objects per unit area (density) around the blind spot object.
  • the shape of the blind spot object may define the contained virtual solid object.
  • a blind spot object with a width that is too narrow for a vehicle to exist may be determined to include a pedestrian virtual solid object rather than a vehicle virtual solid object.
  • the determined virtual solid object is set in the virtual solid object database 215, and link information that associates the blind spot object and the virtual solid object is recorded.
  • the density of the virtual solid object may be changed according to the position of the blind spot object. For example, by arranging many virtual solid objects in blind spot objects near high-risk locations such as entrances and exits, gaps between parked vehicles, etc., the risk value of the high-risk locations calculated by the risk calculator 22 can be increased. can.
  • a solid object observed in the vicinity of the blind spot object may enter the blind spot object. From the observation result of the external sensor 32, the entering and exiting of the blind spot object by the solid object is grasped, and the solid objects included in the blind spot area are managed. do.
  • the TTL 2147 of the blind spot object is set as the upper limit. Also, a blind spot object that has deviated from the observation range by more than a predetermined threshold is unlikely to return to the observation range, so it may be deleted. However, if the blind spot object out of the observation range is maintained for a period of time until the TTL 2147 becomes zero, even if the obstacle object that causes the blind spot area is revived in the observation range and re-observed, the blind spot object database 214 No need to re-register. In this case, it is necessary to determine the identity of the blind spot object out of the observation range and the blind spot object re-recognized in the observation range.
  • the feature quantity of the obstacle object associated with the blind spot object is recorded in the obstacle object database 212, and the observed obstacle object is compared with the feature quantity of the observed obstacle object. or a re-observed obstacle object.
  • a blind spot object that has greatly deviated from the range in which the vehicle can move in a predetermined time is unlikely to return to the observation range, so it may be deleted.
  • a lifetime of a predetermined time (for example, 10 seconds) is set for a blind spot object within the observation range, and after the lifetime has passed since the first observation, the blind spot object is deleted from the blind spot object database 214, and the observed blind spot object becomes the blind spot object. If it is not recorded in the database 214 , it may be registered in the blind spot object database 214 . In this case, since the blind spot object is refreshed for each lifetime, life-and-death management by TTL becomes unnecessary.
  • the blind spot object generation unit 211 updates the solid object database 213 (step S5). Specifically, when a detected solid object enters a blind spot area managed as a blind spot object in the blind spot object database over time, the link information that associates the blind spot object with the virtual solid object is stored in the blind spot object database 214 . to record. If the solid object associated with the blind spot object comes out of the blind spot object, delete the association (link) between the solid object and the blind spot object.
  • the blind spot object generator 211 deletes obstacle objects, blind spot objects, and solid objects (step S6). Specifically, the blind spot object generation unit 211 determines whether an obstacle object is observed, sets the TTL 2128 to the upper limit value if an obstacle object is observed, and sets the TTL 2128 to a predetermined value ( For example: 1) Subtract. Also, the blind spot object generation unit 211 deletes from the obstacle object database 212 obstacle objects whose TTL 2128 has become zero or less. Then, the blind spot object associated with the deleted obstacle object is deleted from the blind spot object database 214 , and the virtual solid object associated with the deleted blind spot object is deleted from the virtual solid object database 215 .
  • a predetermined value For example: 1 Subtract.
  • the blind spot object generation unit 211 deletes from the obstacle object database 212 obstacle objects whose TTL 2128 has become zero or less. Then, the blind spot object associated with the deleted obstacle object is deleted from the blind spot object database 214 , and the virtual solid object associated with the deleted blind spot object is deleted
  • the blind spot object generation unit 211 determines whether a solid object is observed, sets the TTL 2136 to the upper limit if a solid object is observed, and sets the TTL 2136 to a predetermined value (for example, 1 ) decrease.
  • a solid object whose TTL 2136 has become zero or less is deleted from the solid object database 213 . Since the solid object is not observed while it is included in the blind spot object, the solid object is not deleted even if the TTL reaches the lower limit.
  • the blind spot object generation unit 211 determines whether or not an obstacle object that generates a blind spot object is observed. If not, the TTL 2147 is subtracted by a predetermined value (eg, 1). The blind spot object generation unit 211 also deletes blind spot objects whose TTL2147 is zero or less from the blind spot object database 214 . Then, the virtual solid object associated with the deleted blind spot object is deleted from the virtual solid object database 215 .
  • the blind spot object generated by the obstacle object disappears, so it is sufficient to provide the TTL to either the obstacle object or the blind spot object.
  • FIG. 8 is a diagram showing an example of an object processed by the electronic control device 10 of this embodiment.
  • a blind spot area 83 occurs on the far side of the parked vehicles 82a and 82b as seen from the own vehicle 81.
  • the blind spot area 83 is defined as a range excluding parked vehicles 82a and 82b, which are obstacle objects, and rear obstacles.
  • a solid object (pedestrian) 84 a that is about to enter the blind spot area 83 is observed from the host vehicle 81 .
  • the solid object (pedestrian) 84a enters the blind spot area 83, it becomes an inclusion object 84b within the blind spot object 83, and the association information between the blind spot object 83 and the solid object 84a is recorded in the inclusion object 2146 of the blind spot object database 214.
  • the included object (pedestrian) 84b exits the blind spot object 83 from between the parked vehicles 82a and 82b
  • the record of the included object 2146 which is the association information between the blind spot object 83 and the included object 84b, is deleted.
  • the inclusive object (pedestrian) 84b exits the blind spot object 83 from between the parked vehicles 82a and 82b, there is a risk of contact with the own vehicle 81. Therefore, an area 85 adjacent to the blind spot object 83 between the parked vehicles 82a and 82b is calculated as the high risk area.
  • a blind spot area 87 occurs in front of the preceding vehicle 86 as viewed from the own vehicle 81 .
  • There is another preceding vehicle 88 a in the blind area 87 but the preceding vehicle 88 a cannot be observed from the own vehicle 81 . Therefore, a virtual solid object (preceding vehicle) 88a that may exist in the blind spot object (blind spot area) 87 is generated, and the association information between the blind spot object 87 and the virtual solid object 88a is stored in the inclusion object 2146 of the blind spot object database 214. to record.
  • the virtual solid object 88b changes lanes, it exits the blind spot area 87 in front of the preceding vehicle 86, and the record of the inclusion object 2146, which is the association information between the blind spot object 87 and the virtual solid object 88a, is deleted.
  • the inclusive object (leading vehicle) 88b exits the blind spot area 87 caused by the leading vehicle 86, it may be necessary to change the course of the own vehicle 81. Therefore, the adjacent lane area 89 in front of the leading vehicle 86 is designated as a high risk area. Calculated.
  • FIG. 9 is a diagram showing an example of another object processed by the electronic control device 10 of this embodiment.
  • a blind spot area 91 occurs in front of the preceding vehicle 90 as seen from the own vehicle 81, in the same manner as described above with reference to FIG.
  • a blind spot area 91 is defined as a range excluding an obstacle 93 that is an obstacle object. Since the inside of the blind spot object (blind spot area) 91 cannot be observed, a virtual solid object (preceding vehicle) that may exist in the blind spot area 91 is generated, and the association information between the blind spot object 91 and the virtual solid object is stored in the blind spot object database 214. is recorded in the containing object 2146 of the .
  • the virtual solid object changes lanes, it exits the blind spot area 91 in front of the preceding vehicle 90, and the record of the inclusion object 2146, which is the association information between the blind spot object 87 and the virtual solid object 88a, is deleted.
  • the contained object (leading vehicle) leaves the blind spot area 91 created by the leading vehicle 90, the lane area 92 in front of the leading vehicle 90 is calculated as a high risk area because it may be necessary to change the course of the own vehicle 81. be done.
  • the building on the side of the road becomes an obstacle 93, hinders observation of the crossing side road from the lateral direction at the intersection, and creates a blind spot area 94.
  • a virtual solid object (pedestrian, motorcycle, car, etc.) that may exist in the blind spot area 94 is generated, and the association information between the blind spot object 94 and the virtual solid object is generated. is recorded in the inclusion object 2146 of the blind spot object database 214 .
  • the area 95 adjacent to the blind spot object 94 is calculated as a high risk area because there is a risk of contact with the own vehicle 81 .
  • a net blind spot area excluding obstacles is determined.
  • Objects entering and exiting the blind spot area are managed as inclusion objects even if they cannot be observed in the blind spot area, and potential risks are calculated in anticipation of coming out of the blind spot object.
  • potential risks are calculated by managing objects that may exist in the blind spot area as virtual solid objects and anticipating that the virtual solid objects will come out of the blind spot objects.
  • the electronic control unit 10 of the present embodiment includes the object recognition unit 13 that recognizes surrounding objects based on the external world information acquired by the external sensor, and the external sensor 32 among the recognized objects.
  • An obstacle object generation unit (obstacle object detection/judgment unit 19) that generates an obstacle object related to an object that generates a blind spot area by shielding observation by a blind spot object management unit that manages the blind spot area generated by the obstacle object as a blind spot object.
  • the object recognition unit 13 generates solid object information about objects that can enter and exit the blind spot area among the recognized objects, and the blind spot object management unit 21 recognizes the solid object that entered the blind spot area as the relevant object. Since the association with the blind spot object in the blind spot area and the association of the solid object exiting the blind spot area with the blind spot object in the blind spot area is released, the solid objects entering and exiting the blind spot area can be managed over time.
  • the blind spot object management unit registers in the database the shape of the blind spot area, the size of the blind spot area, the obstacle object that creates the blind spot area, and the solid objects that enter and leave the blind spot area, and creates the blind spot object. , the blind spot area can be accurately grasped.
  • the electronic control unit of the present embodiment includes a risk calculator that calculates the latent risk indicating the degree of driving risk of the vehicle using the blind spot object information, so the risk caused by the object hidden in the blind spot area can be accurately predicted. As a result, the running safety of the vehicle can be improved.
  • the electronic control device of the present embodiment uses at least one of the information of buildings included in the map and the shape of the object recognized by the object recognition unit to determine the blind area excluding the area occupied by the obstacle object. Since it is equipped with a blind spot detection unit that calculates, it is possible to accurately grasp the size and shape of the blind spot area that does not include the structures that generate the blind spot area, estimate the virtual solid objects contained in the blind spot area, and accurately identify unnecessary latent risks. Predictable.
  • the blind spot object management unit 21 estimates a virtual solid object included in the blind spot area based on the size and shape of the blind spot area, and associates the estimated virtual solid object with the blind spot object in the blind spot area. Because of the management, it is possible to estimate the solid objects contained in the blind area and predict the potential risks caused by the blind area. For this reason, it is possible to reduce predictions with a low risk of jumping out and suppress them within a reasonable range, thereby suppressing predictions with a low probability, oversensitive judgments due to wrong predictions, and excessive control.
  • the present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the attached claims.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the described configurations.
  • part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • the configuration of another embodiment may be added to the configuration of one embodiment.
  • additions, deletions, and replacements of other configurations may be made for a part of the configuration of each embodiment.
  • each configuration, function, processing unit, processing means, etc. described above may be realized by hardware, for example, by designing a part or all of them with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing a program to execute.
  • Information such as programs, tables, and files that implement each function can be stored in storage devices such as memories, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.
  • storage devices such as memories, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines necessary for implementation. In practice, it can be considered that almost all configurations are interconnected.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

電子制御装置であって、外界センサが取得した外界情報に基づいて、周囲の物体を認識する物体認識部と、前記認識された物体のうち、前記外界センサによる観測を遮蔽して死角領域を生成する物体に関する障害オブジェクトを生成する障害オブジェクト生成部と、前記障害オブジェクトが生成する死角領域を死角オブジェクトとして管理する死角オブジェクト管理部とを備え、前記物体認識部は、前記認識された物体のうち、前記死角領域に出入り可能な物体に関する固体オブジェクト情報を生成し、前記死角オブジェクト管理部は、前記死角領域に入った固体オブジェクトを、当該死角領域の死角オブジェクトと関連付け、前記死角領域から出た固体オブジェクトの当該死角領域の死角オブジェクトとの関連付けを解除する。

Description

電子制御装置、及びオブジェクトの管理方法 参照による取り込み
 本出願は、令和3年(2021年)12月27日に出願された日本出願である特願2021-211927の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、電子制御装置に関し、特に車載用電子制御装置において車外のオブジェクトを管理する技術に関する。
 自動運転や高度運転支援において、車外の物体をセンサで検出し、車両を制御したり、運転者を支援する。
 本技術分野の背景技術として、以下の特許文献がある。特許文献1(特開2011-248870公報)には、車両に搭載され、自車両の周囲において死角となる領域を表す死角領域を検出する死角領域検出装置であって、自車両の周囲に存在する物体を表す周囲物体の高さを含む形状および該周囲物体までの距離についての情報を表す物体情報を取得する物体情報取得手段と、前記取得した物体情報に基づいて、前記周囲物体によって死角となる領域である死角領域の大きさを検出する死角領域検出手段と、を備えたことを特徴とする死角領域検出装置が記載されている。
 また、特許文献2(特開2020-135215公報)には、走行環境を認識する環境認識部を搭載する車両において用いられ、前記車両の行動を制御する行動制御方法であって、少なくとも一つのプロセッサにて実行される処理に、右左折又は車線変更を含むよう設定された前記車両の走行ルートに対し前記環境認識部の死角となる死角領域を特定し、当該死角領域から前記走行ルートへの移動物体の飛び出し可能性を判断し、前記死角領域からの前記飛び出し可能性がある場合に、前記飛び出し可能性を低い状態に遷移させる可能性低減行動を実施させ、前記可能性低減行動の開始後に前記走行ルートに従う前記車両の走行行動を実施させ、というステップを含む行動制御方法が記載されている。
 障害物によって生じる死角領域(オクルージョンと称することがある)は、障害物の背面側にあるので、障害物の大きさや障害物に隠れた物体を検出できない。さらに、死角領域に内在するリスクの推定が困難となっている。例えば、障害物の陰に隠れた物体は車両の進路に急に飛び出す可能性がある。さらに、物体の観測を妨げる障害物を含まない死角領域の大きさや形状の正確な推定が困難である。
 本発明は、死角領域に隠れたオブジェクトを正確に推定し、さらに、隠れたオブジェクトによって生じるリスクを正確に予測して、車両の走行安全性の向上を目的とする。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、電子制御装置であって、外界センサが取得した外界情報に基づいて、周囲の物体を認識する物体認識部と、前記認識された物体のうち、前記外界センサによる観測を遮蔽して死角領域を生成する物体に関する障害オブジェクトを生成する障害オブジェクト生成部と、前記障害オブジェクトが生成する死角領域を死角オブジェクトとして管理する死角オブジェクト管理部とを備え、前記物体認識部は、前記認識された物体のうち、前記死角領域に出入り可能な物体に関する固体オブジェクト情報を生成し、前記死角オブジェクト管理部は、前記死角領域に入った固体オブジェクトを、当該死角領域の死角オブジェクトと関連付け、前記死角領域から出た固体オブジェクトの当該死角領域の死角オブジェクトとの関連付けを解除することを特徴とする。
 本発明の一態様によれば、死角領域に隠れたオブジェクトを正確に予測できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例の電子制御装置の論理的な構成を示すブロック図である。 死角オブジェクト管理部の構成を示すブロック図である。 障害オブジェクトデータベースの構成例を示す図である。 固体オブジェクトデータベースの構成例を示す図である。 死角オブジェクトデータベースの構成例を示す図である。 仮想固体オブジェクトデータベースの構成例を示す図である。 死角オブジェクト管理処理のフローチャートである。 本実施例の電子制御装置によって処理されるオブジェクトの例を示す図である。 本実施例の電子制御装置によって処理される別のオブジェクトの例を示す図である。
 本発明の実施例の電子制御装置10は、観測された物体のうち、外界センサ32による観測が妨げられる死角領域を発生する障害物を検知し、死角領域に出入りする固体オブジェクトを時系列で管理する。すなわち、一度認識されたオブジェクトは、死角領域に入っても継続して管理される。また、死角領域の面積又は体積を正確に把握し、死角領域の形状や大きさに応じて、死角領域に内包される歩行者、二輪車、自動車などの仮想固体オブジェクトを設定する。そして、死角領域に内包されるオブジェクトの数や内容に応じて、自車両の進行を妨げるリスクを計算する。
 図1は、本発明の実施例の電子制御装置10の論理的な構成を示すブロック図である。
 本実施例の電子制御装置10は、演算装置、記憶装置、及び通信インターフェイスを有する。演算装置は、記憶装置に格納されたプログラムを実行するプロセッサ(例えばCPU)である。演算装置が、所定のプログラムを実行することによって、各種機能を提供する機能部として動作する。記憶装置は、不揮発性記憶領域及び揮発性記憶領域を含む。不揮発性記憶領域は、演算装置が実行するプログラムを格納するプログラム領域と、演算装置がプログラム実行時に使用するデータを一時的に格納するデータ領域を含む。揮発性記憶領域は、演算装置がプログラム実行時に使用するデータを格納する。通信インターフェイスは、CANやイーサネットなどのネットワークを介して他の電子制御装置と接続する。
 電子制御装置10は、自車位置推定部11、外界情報取得部12、物体認識部13、車両情報取得部14、周辺地図生成部15、地図格納部16、通信部17、現在周辺地図検索部18、障害オブジェクト検知・判断部19、死角検知部20、死角オブジェクト管理部21、リスク計算部22、運転行動計画部23、自動運転管理部24、自動運転制御部25、操作情報取得部26、及び手動/自動運転切替部27を有する。
 電子制御装置10には、位置情報31と、外界センサ32からの外界情報と、車両センサ33からの車両挙動情報とが入力される。位置情報31は、GNSSユニットや慣性航法ユニット(図示省略)から出力される位置情報(緯度・経度や、相対位置の情報)である。外界センサ32は、車両外部の状態を観測して外界情報を出力するセンサであり、例えば、カメラ、レーダー、LiDARなどである。車両センサ33は、車両の挙動(加速度、速度、ロール、ピッチ、ヨーなど)を測定するセンサである。さらに、電子制御装置10には、ステアリング装置34からの操作角と、アクセルペダル35の操作量と、ブレーキペダル36の操作量とが入力される。
 自車位置推定部11は、電子制御装置10に入力される位置情報31と、車両情報取得部14から出力される車両情報と、操作情報取得部26から出力される操作情報とから、車両の位置を推定する。外界情報取得部12は、外界センサ32による観測結果(撮影画像、点群データなど)から周囲情報を生成する。物体認識部13は、外界情報取得部12が生成した周囲情報に含まれる物体を認識し、認識された物体を表す固体オブジェクト情報を生成する。固体オブジェクト情報は、外界センサ32による観測の結果として認識された歩行者、二輪車、自動車、壁、ガードレール等であり、体積又は底面積などの属性が明確であり現実に存在する移動物体及び固定物体である。固体オブジェクト情報は、当該固体オブジェクトが死角領域内に移動、又は自車両と障害物との相対位置の変化に伴い死角領域自体が変形することによって、観測不能になった場合でも、その属性を維持するとよい。車両情報取得部14は、車両センサ33からの車両挙動情報から車両の状態を示す車両情報を生成する。
 周辺地図生成部15は、自車位置推定部11が推定した車両位置と、外界情報取得部12が生成した周囲情報と、物体認識部13が生成したオブジェクト情報とから、車両の周辺の地図を生成する。通信部17は、地図配信サーバ(図示省略)と無線通信して、地図更新用情報を取得したり、リスク計算用パラメータ(計算式)更新する。地図格納部16は、周辺地図生成部15が生成した周辺地図と、通信部17を介してサーバから取得した地図とを格納する。地図格納部16が格納する地図は、ナビゲーション装置が使用する地図より高い精度(例えば、数10cm程度の精度)を有し、車道と歩道が区別できたり、車線が区別できるものであるとよく、自動運転用の高精度地図でも、自車両の観測結果から生成した地図でも、地図配信サーバから取得した地図を周辺地図生成部15が生成した周辺地図で更新したものでもよい。現在周辺地図検索部18は、自車位置推定部11が推定した車両の位置の周辺の現在地図を地図格納部16から取得する。
 障害オブジェクト検知・判断部19は、外界情報取得部12が生成した周囲情報と、物体認識部13が生成したオブジェクト情報とから、自車両からの観測を妨げる障害オブジェクトを選択し、障害オブジェクト情報を生成する。死角検知部20は、現在周辺地図検索部18が取得した現在地図と、障害オブジェクト検知・判断部19が生成した障害オブジェクト情報とから、観測が妨げられる死角領域を計算し、死角情報を生成する。初回の一方向からの観測結果では、障害オブジェクトの形状や死角領域内の物体を認識できないことから、死角領域の正味の形状の正確な推定が困難である。このとき、死角検知部20は、現在位置の地図情報を使って障害オブジェクトが占有する領域を除外した正味の死角領域を計算する。また、複数回の観測結果を用いて推定された障害オブジェクトの形状や死角領域内の物体を減じて死角領域の正味の形状を正確に推定してもよい。
 死角オブジェクト管理部21は、死角検知部20が生成した死角情報と、障害オブジェクト検知・判断部19が生成した障害オブジェクト情報と、物体認識部13が生成した固体オブジェクト情報とから、死角領域を表す死角オブジェクト情報を生成する。死角オブジェクト管理部21の詳細は図2、図7を参照して説明する。
 死角オブジェクトは、自車両からの観測を妨げる障害オブジェクトによって生じる不定形の形状の死角領域を、時系列に継続して管理するためのオブジェクトである。死角オブジェクトは、二次元空間では多角形、三次元空間では多角柱又はポリゴンで構成され、使用する地図が二次元地図か三次元地図かによって構成が異なり、時間の経過によって形状が変化する。死角オブジェクトは、二次元空間では面積、三次元空間では体積を計算できるように、平面又は立体の頂点座標で表されるとよい。死角オブジェクトは、死角オブジェクトデータベース214の対応障害オブジェクト2145によって、当該死角領域を生じている障害オブジェクトと関連付けられる。死角領域を生じる障害オブジェクトは、外界センサ32によって観測され、物体認識部13によって認識された物体(移動しない建築物、移動する車両など)や、外界センサ32によって観測されたが、物体認識部13によって種別を認識できなかった物体も、一定の形状を持つ物体であれば種別不明の障害オブジェクトとするとよい。
 リスク計算部22は、死角オブジェクト管理部21が生成した死角オブジェクト情報から車両の進路上の走行危険度を計算し、走行危険度を示す潜在リスク情報を生成する。すなわち、死角オブジェクト情報には死角領域に内包される固体オブジェクト情報及び仮想固体オブジェクト情報との関連付けが含まれていることから、これらの固体オブジェクト及び仮想固体オブジェクトによって車両の走行に支障が生じる可能性であるリスク値を計算する。例えば、駐車車両の後方にいる歩行者(固体オブジェクト)が車道に飛び出してくる可能性や、建物の陰にいる可能性がある車両(仮想固体オブジェクト)が車線に出てくる可能性を計算する。例えば、死角オブジェクトに内包される種類毎のオブジェクトの密度によってリスク値を計算するとよい。また、出入口、駐車車両の隙間等などの高リスク箇所には、所定の係数を乗じてリスク値を高くするとよい。そして、計算されたリスク値を地図の区切られた領域毎に割り当て、潜在リスク情報を生成する。
 運転行動計画部23は、リスク計算部22が生成した潜在リスク情報から運転行動を生成する。例えば、車両の進路周辺のリスクが小さい領域を選択することによって、低リスクの運転行動を生成できる。自動運転管理部24は、運転行動計画部23が生成した運転行動から自動運転のための制御指令と、手動運転/自動運転切替信号とを生成する。自動運転制御部25は、自動運転管理部24が生成した制御指令に従って、ステアリング制御信号37と、加速制御信号38と、減速制御信号39とを生成する。操作情報取得部26は、ステアリング装置34からの操作角と、アクセルペダル35の操作量と、ブレーキペダル36の操作量とを取得し、操作情報を生成する。
 手動/自動運転切替部27は、自動運転管理部24が生成した手動運転/自動運転切替信号に従って、手動運転か自動運転かを切り替える。例えば、手動運転であれば、ステアリング装置34と、アクセルペダル35と、ブレーキペダル36の操作量とから生成された操作情報が、各々、ステアリング制御信号37と、加速制御信号38と、減速制御信号39として出力されるように信号回路を切り替える。一方、自動運転であれば、自動運転制御部25が生成したステアリング制御信号37と、加速制御信号38と、減速制御信号39が出力されるように信号回路を切り替える。
 図2は、死角オブジェクト管理部21の構成を示すブロック図である。
 死角オブジェクト管理部21は、死角オブジェクト生成部211と、障害オブジェクトデータベース212と、固体オブジェクトデータベース213と、死角オブジェクトデータベース214と、仮想固体オブジェクトデータベース215とを有する。死角オブジェクト管理部21には、死角検知部20から死角情報が、障害オブジェクト検知・判断部19から障害オブジェクト情報が、物体認識部13から固体オブジェクト情報が入力される。また、死角オブジェクト管理部21は、死角オブジェクト情報を出力する。
 死角オブジェクト生成部211は、入力される死角情報と、障害オブジェクト情報と、固体オブジェクト情報とを用いて死角オブジェクト情報を生成し、生成した死角オブジェクト情報を死角オブジェクトデータベース214に格納する。死角オブジェクト生成部211が実行する処理の詳細は図7を参照して説明する。障害オブジェクトデータベース212は、障害オブジェクトが登録されるデータベースであり、その詳細は図3を参照して説明する。固体オブジェクトデータベース213は、固体オブジェクトが登録されるデータベースであり、その詳細は図4を参照して説明する。死角オブジェクトデータベース214は、死角オブジェクトが登録されるデータベースであり、その詳細は図5を参照して説明する。仮想固体オブジェクトデータベース215は、仮想固体オブジェクトが登録されるデータベースであり、その詳細は図6を参照して説明する。仮想固体オブジェクトは、死角領域内に存在する可能性がある仮想的な移動物体である。仮想固体オブジェクトには、固体オブジェクトと同様の種別(歩行者、二輪車、自動車)や属性と、種別毎の平均的な形状及び底面積又は体積が定められる。
 図3は、障害オブジェクトデータベース212の構成例を示す図である。
 障害オブジェクトデータベース212は、障害オブジェクトが登録されるデータベースであり、ID2121と、種別2122と、形状2123と、底面形状2124と、底面積2125と、体積2126と、様態2127と、TTL2128とのデータを含む。
 ID2121は、障害オブジェクトを一意に識別するための識別情報である。種別2122は、障害オブジェクトの種別であり、例えば、自動車、構造物などである。形状2123は、障害オブジェクトの形状であり、例えば、定型立方体、非定型立方体などである。底面形状2124は、障害オブジェクトの底面の形状であり、例えば、定型立方体においては底面の縦横の大きさ、非定型立方体においては底面を構成する座標で表される。底面積2125は、障害オブジェクトの底面積であり、平方メートルで表される。体積2126は、障害オブジェクトの体積であり、立方メートルで表される。様態2127は、障害オブジェクトの属性であり、例えば、移動したり形状が変わる動的物体、動かない静止物体などである。TTL(Time to Live)2128は、過去に検知された障害オブジェクトを整理するために使用されるカウンタ値であり、障害オブジェクトが検知されると上限値が設定され、当該障害オブジェクトが検知されないと減算される。
 図4は、固体オブジェクトデータベース213の構成例を示す図である。
 固体オブジェクトデータベース213は、固体オブジェクトが登録されるデータベースであり、ID2131と、種別2132と、底面形状2133と、底面積2134と、体積2135と、TTL2136とのデータを含む。
 ID2131は、固体オブジェクトを一意に識別するための識別情報である。種別2132は、固体オブジェクトの種別であり、例えば、歩行者、二輪車、自動車などである。底面形状2133は、固体オブジェクトの底面の形状であり、例えば、当該固体オブジェクトが占有する矩形の縦横の大きさや、底面を構成する座標で表される。底面積2134は、固体オブジェクトの底面積であり、平方メートルで表される。体積2135は、固体オブジェクトの体積であり、立方メートルで表される。TTL(Time to Live)2136は、過去に検知された固体オブジェクトを整理するために使用されるカウンタ値であり、固体オブジェクトが検知されると上限値が設定され、当該固体オブジェクトが検知されないと減算される。
 図5は、死角オブジェクトデータベース214の構成例を示す図である。
 死角オブジェクトデータベース214は、死角オブジェクトが登録されるデータベースであり、ID2141と、形状2142と、底面積2143と、体積2144と、対応障害オブジェクト2145と、内包オブジェクト2146と、TTL2147とのデータを含む。
 ID2141は、死角オブジェクトを一意に識別するための識別情報である。形状2142は、死角オブジェクトの形状であり、例えば、当該死角オブジェクトが占有する立体の頂点座標で表される。底面積2143は、死角オブジェクトの底面積(死角領域の広さ)であり、平方メートルで表される。体積2144は、死角オブジェクトの体積であり、立方メートルで表される。対応障害オブジェクト2145は、死角オブジェクトを生成する、すなわち、自車両からの死角オブジェクトの死角領域の観測を妨げる障害オブジェクトの識別情報である。内包オブジェクト2146は、死角オブジェクトに内包される仮想固体オブジェクトの識別情報である。TTL(Time to Live)2147は、過去に検知された死角オブジェクトを整理するために使用されるカウンタ値であり、死角オブジェクトが検知されると上限値が設定され、当該死角オブジェクトが検知されないと減算される。
 図6は、仮想固体オブジェクトデータベース215の構成例を示す図である。
 仮想固体オブジェクトデータベース215は、仮想固体オブジェクトが登録されるデータベースであり、ID2151と、種別2152と、底面形状2153と、底面積2154と、体積2155とのデータを含む。
 ID2151は、仮想固体オブジェクトを一意に識別するための識別情報である。種別2152は、仮想固体オブジェクトの種別であり、例えば、歩行者、二輪車、自動車などである。底面形状2153は、仮想固体オブジェクトの底面の形状であり、例えば、当該仮想固体オブジェクトが占有する矩形の縦横の大きさや、底面を構成する座標で表される。底面積2154は、仮想固体オブジェクトの底面積であり、平方メートルで表される。体積2155は、仮想固体オブジェクトの体積であり、立方メートルで表される。
 図7は、死角オブジェクト管理部21、すなわち死角オブジェクト生成部211が実行する死角オブジェクト管理処理のフローチャートである。
 電子制御装置10は車両のイグニッションオンで起動し、死角オブジェクト管理部21が起動し、所定時間毎にステップS2~S6の処理を繰り返し実行する。まず、死角オブジェクト生成部211は、障害オブジェクトデータベース212、固体オブジェクトデータベース213、及び死角オブジェクトデータベース214を初期化する(ステップS1)。例えば、各データベースに記録された全データを消去する。
 次に、死角オブジェクト生成部211は、事前処理を実行する(ステップS2)。この事前処理は、ステップS3以後の処理の前段階として実行されるもので、ステップS3以後の処理と同期して実行されても、独立したタイミングで繰り返し実行されてもよい。具体的には、死角オブジェクト生成部211は、現在位置の周辺地図を検索し、現在位置の周辺地図を取得する。そして、死角オブジェクト生成部211は、取得した周辺地図に記載される周囲の物体の情報と外界センサ32が認識したオブジェクト情報から、所定のサイズより大きいオブジェクトを障害オブジェクトであると判定する。また、死角オブジェクト生成部211は、物体認識部13による物体認識結果(固体オブジェクト情報)から固体オブジェクトを判定する。さらに、死角オブジェクト生成部211は、障害オブジェクト検知・判断部19からの障害オブジェクト情報及び死角検知部20が現在地図から検知した死角情報に基づいて、現在位置(観測点)からの死角領域を計算する。
 次に、死角オブジェクト生成部211は、障害オブジェクトデータベース212を更新する(ステップS3)。具体的には、死角オブジェクト生成部211は、新たに検知された障害オブジェクトを、障害オブジェクトデータベース212に記録する(ステップS3)。なお、検知された障害オブジェクトが障害オブジェクトデータベース212に記録されていれば、死角オブジェクト生成部211は、当該レコードのTTL2128を上限値に設定する。
 次に、死角オブジェクト生成部211は、死角オブジェクトデータベース214を更新する(ステップS4)。具体的には、死角オブジェクト生成部211は、障害オブジェクトデータベース212を検索し、死角検知部20が検知し、所定サイズより大きく死角領域を発生する障害オブジェクトを抽出し、当該障害オブジェクトによって発生する死角領域のレコードを新たに死角オブジェクトデータベース214に登録する。
 そして、新たに登録された死角領域のレコードの初期設定として、死角オブジェクトのサイズに応じて当該死角オブジェクトに内包される仮想固体オブジェクトを決定する。死角オブジェクトに内包される仮想固体オブジェクトは、死角オブジェクトの種類及び面積によって定めるとよい。具体的には、単位面積の死角オブジェクトに内包される仮想固体オブジェクトの数を死角オブジェクトの種類(歩道、車道など)毎かつ仮想固体オブジェクトの種類毎に定めておき、登録される死角オブジェクトの種類及び面積によって内包される仮想固体オブジェクトを定めることができる。また、当該死角オブジェクトの周囲の固体オブジェクトの単位面積当たりの数(密度)によって、内包される仮想固体オブジェクトを定めてもよい。死角オブジェクト内は周囲と同程度の密度で固体オブジェクトが存在すると推測されるからである。さらに、当該死角オブジェクトの形状によって、内包される仮想固体オブジェクトを定めてもよい。例えば、車両が存在できない程度に狭い幅の死角オブジェクトは、車両の仮想固体オブジェクトではなく、歩行者の仮想固体オブジェクトを内包するように決定するとよい。そして、決定した仮想固体オブジェクトを仮想固体オブジェクトデータベース215に設定し、死角オブジェクトと仮想固体オブジェクトを対応付けるリンク情報を記録する。死角オブジェクトの位置に応じて仮想固体オブジェクトの密度を変えてもよい。例えば、出入口、駐車車両の隙間等などの高リスク箇所の近傍にある死角オブジェクトには仮想固体オブジェクトを多く配置することによって、リスク計算部22で計算される高リスク箇所のリスク値を高めることができる。
 また、死角オブジェクトの近傍に観測された固体オブジェクトは、死角オブジェクトに入ることがある、外界センサ32の観測結果から固体オブジェクトによる死角オブジェクトの出入りを把握し、死角領域に内包される固体オブジェクトを管理する。
 死角オブジェクトに内包可能な固体オブジェクト及び仮想固体オブジェクトの数の上限を設け、多数の固体オブジェクトが死角オブジェクト内に残留しないようにするとよい。死角オブジェクトの底面積又は体積が減少し、内包する仮想固体オブジェクト及び固体オブジェクトの総面積又は総体積が死角オブジェクトの底面積又は体積を超えた場合、仮想固体オブジェクトを削減する。死角オブジェクトが小さくなるにつれて仮想固体オブジェクトが減少することで、リスク予測の確度を向上できる。
 また、死角オブジェクトの新規登録時に、当該死角オブジェクトのTTL2147を上限値に設定する。また、観測範囲から所定の閾値を超えて大きく外れた死角オブジェクトは、観測範囲に復活する可能性が低いので、消去してもよい。但し、観測範囲から外れた死角オブジェクトをTTL2147がゼロになるまでの時間だけ維持しておけば、死角領域を発生させる障害オブジェクトが観測範囲に復活して再観測されても、死角オブジェクトデータベース214に再登録する必要がない。この場合、観測範囲から外れた死角オブジェクトと観測範囲で再認識された死角オブジェクトの同一性を判定する必要がある。このため、障害オブジェクトデータベース212に死角オブジェクトと対応付けされる障害オブジェクトの特徴量を記録し、観測された障害オブジェクトの特徴量と比較して、観測された障害オブジェクトが新たに観測された障害オブジェクトであるか、再観測された障害オブジェクトであるかを判定するとよい。また、自車両の進行方向に所定時間で移動可能な範囲から大きく外れた(例えば、自車両より後方へ移動など)死角オブジェクトは、観測範囲に復活する可能性が低いので、消去してもよい。観測範囲内の死角オブジェクトを、所定時間(例えば10秒)のライフタイムを設けて、初めて観測されてからライフタイム経過後に死角オブジェクトを死角オブジェクトデータベース214から削除し、観測された死角オブジェクトが死角オブジェクトデータベース214に記録されていなければ死角オブジェクトデータベース214に登録してもよい。この場合、死角オブジェクトがライフタム毎にリフレッシュされるので、TTLによる生死管理が不要になる。
 次に、死角オブジェクト生成部211は、固体オブジェクトデータベース213を更新する(ステップS5)。具体的には、時間の経過に伴って死角オブジェクトデータベースで死角オブジェクトとして管理されている死角領域に、検知された固体オブジェクトが入る場合、死角オブジェクと仮想固体オブジェクトを対応付けるリンク情報を死角オブジェクトデータベース214に記録する。死角オブジェクトと関連付けられた固体オブジェクトが死角オブジェクトから出てきた場合、当該固体オブジェクトと死角オブジェクトの関連付け(リンク)を削除する。
 次に、死角オブジェクト生成部211は、障害オブジェクト、死角オブジェクト及び固体オブジェクトを削除する(ステップS6)。具体的には、死角オブジェクト生成部211は、障害オブジェクトが観測されているかを判定し、障害オブジェクトが観測されればTTL2128を上限値に設定し、障害オブジェクトが観測されなければTTL2128を所定値(例えば、1)減じる。また、死角オブジェクト生成部211は、TTL2128がゼロ以下になった障害オブジェクトを障害オブジェクトデータベース212から削除する。そして、削除された障害オブジェクトに関連付けられた死角オブジェクトを死角オブジェクトデータベース214から削除し、削除された死角オブジェクトに関連付けられた仮想固体オブジェクトを仮想固体オブジェクトデータベース215から削除する。さらに、死角オブジェクト生成部211は、固体オブジェクトが観測されているかを判定し、固体オブジェクトが観測されればTTL2136を上限値に設定し、固体オブジェクトが観測されなければTTL2136を所定値(例えば、1)減じる。そして、TTL2136がゼロ以下になった固体オブジェクトを固体オブジェクトデータベース213から削除する。なお、固体オブジェクトが死角オブジェクトに内包される間は観測されないので、TTLが下限値になっても、当該固体オブジェクトは削除しない。
 また、死角オブジェクト生成部211は、死角オブジェクトを生成する障害オブジェクトが観測されているかを判定し、障害オブジェクトが観測されれば死角オブジェクトデータベース214のTTL2147を上限値に設定し、障害オブジェクトが観測されなければTTL2147を所定値(例えば、1)減じる。また、死角オブジェクト生成部211は、TTL2147がゼロ以下になった死角オブジェクトを死角オブジェクトデータベース214から削除する。そして、削除された死角オブジェクトに関連付けられた仮想固体オブジェクトを仮想固体オブジェクトデータベース215から削除する。
 なお、障害オブジェクトの消滅によって、当該障害オブジェクトによって生じる死角オブジェクトが消滅することから、障害オブジェクト又は死角オブジェクトの一方にTTLを設ければ足りる。
 図8は、本実施例の電子制御装置10によって処理されるオブジェクトの例を示す図である。
 自車両81から見て駐車車両82a、82bの奥側に死角領域83が生じる。死角領域83は、障害オブジェクトである駐車車両82a、82bや、後方の障害物を除外した範囲に定められる。また、自車両81から、死角領域83に入ろうとする固体オブジェクト(歩行者)84aが観測される。固体オブジェクト(歩行者)84aは、死角領域83に入ると、死角オブジェクト83内の内包オブジェクト84bとなり、死角オブジェクト83と固体オブジェクト84aの関連付け情報が死角オブジェクトデータベース214の内包オブジェクト2146に記録される。その後、内包オブジェクト(歩行者)84bが駐車車両82a、82bの間から死角オブジェクト83を出ると、死角オブジェクト83と内包オブジェクト84bの関連付け情報である内包オブジェクト2146の記録が削除される。内包オブジェクト(歩行者)84bが駐車車両82a、82bの間から死角オブジェクト83を出ると、自車両81と接触するおそれがあるため、駐車車両82a、82bの間の死角オブジェクト83に隣接する領域85が高リスク領域として計算される。
 また、自車両81から見て先行車両86の前方に死角領域87が生じる。死角領域87には、さらなる先行車両88aがあるが、先行車両88aは自車両81から観測できない。このため、死角オブジェクト(死角領域)87内に存在する可能性がある仮想固体オブジェクト(先行車両)88aを生成し、死角オブジェクト87と仮想固体オブジェクト88aの関連付け情報を死角オブジェクトデータベース214の内包オブジェクト2146に記録する。その後、仮想固体オブジェクト88bが車線変更すると、先行車両86の前方の死角領域87から出て、死角オブジェクト87と仮想固体オブジェクト88aの関連付け情報である内包オブジェクト2146の記録が削除される。内包オブジェクト(先行車両)88bが先行車両86によって生じる死角領域87を出ると、自車両81の進路変更が必要となる可能性があるため、先行車両86前方の隣接レーン領域89が高リスク領域として計算される。
 図9は、本実施例の電子制御装置10によって処理される別のオブジェクトの例を示す図である。
 図8で前述したと同様に、自車両81から見て先行車両90の前方に死角領域91が生じる。死角領域91は、障害オブジェクトである障害物93を除外した範囲に定められる。死角オブジェクト(死角領域)91内は観測できないので、死角領域91内に存在する可能性がある仮想固体オブジェクト(先行車両)を生成し、死角オブジェクト91と仮想固体オブジェクトの関連付け情報を死角オブジェクトデータベース214の内包オブジェクト2146に記録する。その後、仮想固体オブジェクトが車線変更すると、先行車両90の前方の死角領域91から出て、死角オブジェクト87と仮想固体オブジェクト88aの関連付け情報である内包オブジェクト2146の記録が削除される。内包オブジェクト(先行車両)が先行車両90によって生じる死角領域91を出ると、自車両81の進路変更が必要となる可能性があるため、先行車両90前方の隣接レーン領域92が高リスク領域として計算される。
 また、道路脇の建物は障害物93となり、交差点において横方向から交わる脇道の観測を妨げ、死角領域94を生じる。死角オブジェクト(死角領域)94内は観測できないので、死角領域94内に存在する可能性がある仮想固体オブジェクト(歩行者、二輪車、自動車など)を生成し、死角オブジェクト94と仮想固体オブジェクトの関連付け情報を死角オブジェクトデータベース214の内包オブジェクト2146に記録する。その後、仮想固体オブジェクトが脇道から死角領域94を出ると、自車両81と接触するおそれがあるため死角オブジェクト94に隣接する領域95が高リスク領域として計算される。
 図8、図9に示すように、障害物を除外した正味の死角領域を定める。また、死角領域内に出入りするオブジェクトは、死角領域内では観測できなくても内包オブジェクトとして管理され、死角オブジェクトから出てくることを予想して、潜在的なリスクが計算される。また、死角領域内に存在する可能性があるオブジェクトを仮想固体オブジェクトとして管理し、仮想固体オブジェクトが死角オブジェクトから出てくることを予想して、潜在的なリスクが計算される。
 以上に説明したように、本実施例の電子制御装置10は、外界センサが取得した外界情報に基づいて、周囲の物体を認識する物体認識部13と、認識された物体のうち、外界センサ32による観測を遮蔽して死角領域を生成する物体に関する障害オブジェクトを生成する障害オブジェクト生成部(障害オブジェクト検知・判断部19)と、障害オブジェクトが生成する死角領域を死角オブジェクトとして管理する死角オブジェクト管理部21とを備え、物体認識部13は、認識された物体のうち、死角領域に出入り可能な物体に関する固体オブジェクト情報を生成し、死角オブジェクト管理部21は、死角領域に入った固体オブジェクトを、当該死角領域の死角オブジェクトと関連付け、死角領域から出た固体オブジェクトの当該死角領域の死角オブジェクトとの関連付けを解除するので、死角領域に出入りする固体オブジェクトを経時的に管理できる。
 また、死角オブジェクト管理部は、死角領域の形状と、死角領域の大きさと、死角領域を生成する障害オブジェクトと、死角領域に出入りする固体オブジェクトとをデータベースに登録して、死角オブジェクトを生成するので、死角領域を正確に把握できる。
 また、本実施例の電子制御装置は、死角オブジェクト情報を用いて、車両の走行危険度を示す潜在リスクを計算するリスク計算部を備えるので、死角領域に隠れたオブジェクトによって生じるリスクを正確に予測して、車両の走行安全性を向上できる。
 また、本実施例の電子制御装置は、地図に含まれる建築物の情報、及び物体認識部が認識した物体の形状の少なくとも一つを用いて、障害オブジェクトが占有する領域を除外した死角領域を計算する死角検知部を備えるので、死角領域を発生する構造物を含まない死角領域の大きさや形状を正確に把握でき、死角領域に含まれる仮想固体オブジェクトを推定でき、不要な潜在リスクを正確に予測できる。
 また、死角オブジェクト管理部21は、死角領域の大きさ及び形状に基づいて、当該死角領域に内包される仮想固体オブジェクトを推定し、推定された仮想固体オブジェクトを当該死角領域の死角オブジェクトと関連付けて管理するので、死角領域に内包される固体オブジェクトを推定でき、死角領域によって生じる潜在リスクを予想できる。このため、飛出しリスクの低い予測を減らして妥当な範囲に抑制し、可能性が低い予測や、間違った予測による過敏な判断や、過剰な制御を抑制できる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (6)

  1.  電子制御装置であって、
     外界センサが取得した外界情報に基づいて、周囲の物体を認識する物体認識部と、
     前記認識された物体のうち、前記外界センサによる観測を遮蔽して死角領域を生成する物体に関する障害オブジェクトを生成する障害オブジェクト生成部と、
     前記障害オブジェクトが生成する死角領域を死角オブジェクトとして管理する死角オブジェクト管理部とを備え、
     前記物体認識部は、前記認識された物体のうち、前記死角領域に出入り可能な物体に関する固体オブジェクト情報を生成し、
     前記死角オブジェクト管理部は、前記死角領域に入った固体オブジェクトを、当該死角領域の死角オブジェクトと関連付け、前記死角領域から出た固体オブジェクトの当該死角領域の死角オブジェクトとの関連付けを解除することを特徴とする電子制御装置。
  2.  請求項1に記載の電子制御装置であって、
     前記死角オブジェクト管理部は、前記死角領域の形状と、前記死角領域の大きさと、前記死角領域を生成する前記障害オブジェクトと、前記死角領域に出入りする固体オブジェクトとをデータベースに登録して、前記死角オブジェクトを生成することを特徴とする電子制御装置。
  3.  請求項1に記載の電子制御装置であって、
     前記死角オブジェクトの情報を用いて、車両の走行危険度を示す潜在リスクを計算するリスク計算部を備えることを特徴とする電子制御装置。
  4.  請求項1に記載の電子制御装置であって、
     地図に含まれる建築物の情報、及び前記物体認識部が認識した物体の形状の少なくとも一つを用いて、前記障害オブジェクトが占有する領域を除外した死角領域を計算する死角検知部を備えることを特徴とする電子制御装置。
  5.  請求項4に記載の電子制御装置であって、
     前記死角オブジェクト管理部は、
     前記死角領域の大きさ及び形状に基づいて、当該死角領域に内包される仮想固体オブジェクトを推定し、
     前記推定された仮想固体オブジェクトを当該死角領域の死角オブジェクトと関連付けて管理することを特徴とする電子制御装置。
  6.  電子制御装置が観測したオブジェクトの管理方法であって、
     前記電子制御装置は、プログラムを実行する演算装置と、前記演算装置がアクセス可能な記憶装置とを有し、
     前記オブジェクトの管理方法は、
     前記演算装置が、外界センサが取得した外界情報に基づいて、周囲の物体を認識する物体認識手順と、
     前記演算装置が、前記認識された物体のうち、前記外界センサによる観測を遮蔽して死角領域を生成する物体に関する障害オブジェクトを生成する障害オブジェクト生成手順と、
     前記演算装置が、前記障害オブジェクトが生成する死角領域を死角オブジェクトとして管理する死角オブジェクト管理手順と、
     前記演算装置が、前記認識された物体のうち、前記死角領域に出入り可能な物体に関する固体オブジェクト情報を生成する固体オブジェクト生成手順とを含み、
     前記死角オブジェクト管理手順では、前記演算装置は、前記死角領域に入った固体オブジェクトを、当該死角領域の死角オブジェクトと関連付け、前記死角領域から出た固体オブジェクトの当該死角領域の死角オブジェクトとの関連付けを解除することを特徴とするオブジェクトの管理方法。
PCT/JP2022/028120 2021-12-27 2022-07-19 電子制御装置、及びオブジェクトの管理方法 WO2023127186A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023570643A JPWO2023127186A1 (ja) 2021-12-27 2022-07-19
DE112022005214.7T DE112022005214T5 (de) 2021-12-27 2022-07-19 Elektronische Steuervorrichtung und Objektverwaltungsverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-211927 2021-12-27
JP2021211927 2021-12-27

Publications (1)

Publication Number Publication Date
WO2023127186A1 true WO2023127186A1 (ja) 2023-07-06

Family

ID=86998537

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028120 WO2023127186A1 (ja) 2021-12-27 2022-07-19 電子制御装置、及びオブジェクトの管理方法

Country Status (3)

Country Link
JP (1) JPWO2023127186A1 (ja)
DE (1) DE112022005214T5 (ja)
WO (1) WO2023127186A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042039A (ja) * 2005-08-05 2007-02-15 Aisin Aw Co Ltd 車両周辺監視装置
JP2009301400A (ja) * 2008-06-16 2009-12-24 Aisin Aw Co Ltd 運転支援システム、運転支援方法及び運転支援プログラム
JP2011248870A (ja) * 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
JP2013011939A (ja) * 2011-06-28 2013-01-17 Mitsubishi Motors Corp 運転支援装置
JP2018101295A (ja) * 2016-12-20 2018-06-28 トヨタ自動車株式会社 物体検知装置
WO2018198186A1 (ja) * 2017-04-25 2018-11-01 日産自動車株式会社 走行支援方法及び走行支援装置
WO2018216066A1 (ja) * 2017-05-22 2018-11-29 三菱電機株式会社 車載装置、走行支援方法および走行支援プログラム
WO2020241155A1 (ja) * 2019-05-27 2020-12-03 日立オートモティブシステムズ株式会社 電子制御装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7180436B2 (ja) 2019-02-15 2022-11-30 株式会社デンソー 行動制御方法、及び行動制御装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042039A (ja) * 2005-08-05 2007-02-15 Aisin Aw Co Ltd 車両周辺監視装置
JP2009301400A (ja) * 2008-06-16 2009-12-24 Aisin Aw Co Ltd 運転支援システム、運転支援方法及び運転支援プログラム
JP2011248870A (ja) * 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
JP2013011939A (ja) * 2011-06-28 2013-01-17 Mitsubishi Motors Corp 運転支援装置
JP2018101295A (ja) * 2016-12-20 2018-06-28 トヨタ自動車株式会社 物体検知装置
WO2018198186A1 (ja) * 2017-04-25 2018-11-01 日産自動車株式会社 走行支援方法及び走行支援装置
WO2018216066A1 (ja) * 2017-05-22 2018-11-29 三菱電機株式会社 車載装置、走行支援方法および走行支援プログラム
WO2020241155A1 (ja) * 2019-05-27 2020-12-03 日立オートモティブシステムズ株式会社 電子制御装置

Also Published As

Publication number Publication date
JPWO2023127186A1 (ja) 2023-07-06
DE112022005214T5 (de) 2024-08-14

Similar Documents

Publication Publication Date Title
JP6800899B2 (ja) 視界に制限のある交差点への接近のためのリスクベースの運転者支援
JP4207088B2 (ja) 車両走行推定装置
JP7542085B2 (ja) 離脱予測とトリアージ支援のためのシステムと方法
JP4400584B2 (ja) 障害物検出方法及び障害物検出装置
JP6650211B2 (ja) 乗り物を運転することに関して運転者を支援する方法、運転者支援システム、コンピュータソフトウェア製品、及び乗り物
JP5620147B2 (ja) 可動物予測装置及びプログラム
JP6780611B2 (ja) 自動運転装置
JP6861272B2 (ja) 衝突後の分析に基づく自動運転車の車両動作の最適化
RU2742213C1 (ru) Способ управления информацией о полосах движения, способ управления движением и устройство управления информацией о полосах движения
JP5587170B2 (ja) 運転支援装置及びプログラム
JP2022545173A (ja) 自律車両のポリライン輪郭表現
CN107836018A (zh) 车辆控制装置、车辆控制方法及车辆控制程序
JP7481239B2 (ja) 電子制御装置
JP5482323B2 (ja) 運転支援装置及びプログラム
JP2014203465A (ja) 車線ベースの位置特定
WO2022088658A1 (zh) 一种行人穿行意图估计方法、装置、设备和汽车
WO2023127186A1 (ja) 電子制御装置、及びオブジェクトの管理方法
AU2024200010A1 (en) Vehicle Safety Control Method And Apparatus, Electronic Device, And Storage Medium
JP7532569B2 (ja) 歩行者の位置を決定する方法及び装置
US12043289B2 (en) Persisting predicted objects for robustness to perception issues in autonomous driving
CN115951621B (zh) 高空作业平台避障控制方法、装置、电子设备及存储介质
US20240166204A1 (en) Vehicle Collision Threat Assessment
US20240300487A1 (en) Systems and Methods for Adjusting a Driving Path Using Occluded Regions
US20240300486A1 (en) Systems and Methods for Managing Tracks Within an Occluded Region
US20240300533A1 (en) Systems and Methods to Manage Tracking of Objects Through Occluded Regions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22915421

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023570643

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112022005214

Country of ref document: DE