[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2018180247A1 - 出力装置、制御方法、プログラム及び記憶媒体 - Google Patents

出力装置、制御方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2018180247A1
WO2018180247A1 PCT/JP2018/008346 JP2018008346W WO2018180247A1 WO 2018180247 A1 WO2018180247 A1 WO 2018180247A1 JP 2018008346 W JP2018008346 W JP 2018008346W WO 2018180247 A1 WO2018180247 A1 WO 2018180247A1
Authority
WO
WIPO (PCT)
Prior art keywords
accuracy
information
road paint
vehicle
road
Prior art date
Application number
PCT/JP2018/008346
Other languages
English (en)
French (fr)
Inventor
加藤 正浩
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to EP18774558.3A priority Critical patent/EP3605498A4/en
Priority to JP2019509087A priority patent/JPWO2018180247A1/ja
Priority to US16/499,579 priority patent/US12099361B2/en
Publication of WO2018180247A1 publication Critical patent/WO2018180247A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/646Following a predefined trajectory, e.g. a line marked on the floor or a flight path
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map

Definitions

  • the present invention relates to a technique for controlling a vehicle.
  • Patent Document 1 the degree of faintness of a white line on a running road is determined based on the output of an external sensor, and if there is a lane that can detect a white line with higher accuracy than the current lane, A technique for controlling a vehicle to change lanes to a lane is disclosed.
  • the state of the white line of the other lane may not be accurately determined when other vehicles exist in the vicinity. Also, it is impossible to grasp the state of the white line outside the measurement range of the external sensor.
  • the present invention has been made in order to solve the above-described problems, and has as its main object to provide an output device capable of suitably controlling a vehicle based on information on road paint.
  • the invention according to claim 1 is an output device, and obtains accuracy information indicating the accuracy of the collation for each road paint, and a collation unit that collates a road paint detection result by the detection device with map information.
  • the invention according to claim 12 is a control method executed by the output device, and shows a collation step of collating a road paint detection result with map information by the detection device, and accuracy of the collation for each road paint.
  • the invention according to claim 13 is a program executed by a computer, wherein a collation unit that collates a road paint detection result with map information by a detection device, and accuracy information indicating accuracy of the collation for each road paint
  • the computer is caused to function as a first acquisition unit that acquires the control information and an output unit that outputs control information for controlling the moving body so that the collation can be performed with an accuracy of a predetermined value or more based on the accuracy information.
  • the output device acquires a collation unit that collates a road paint detection result by the detection device with map information, and accuracy information indicating the accuracy of the collation for each road paint.
  • a first acquisition unit and an output unit that outputs control information for controlling the moving body so that the collation can be performed with an accuracy of a predetermined value or more based on the accuracy information.
  • the output device can obtain the accuracy information for each road paint when the detection result of the road paint detected by the detection device is compared with the map information, so that the above-described verification can be performed with an accuracy of a predetermined value or more.
  • the moving body can be suitably controlled.
  • the output unit identifies low-precision road paint with which the accuracy of the collation is less than the predetermined value from road paint provided in the path of the moving body, and from the low-precision road paint
  • the control information for controlling the moving body is output so as to keep the moving body away.
  • the output device can suitably move the vehicle so as not to detect road paint having a collation accuracy less than a predetermined value.
  • the output unit searches for a route to a destination based on the accuracy information, and outputs information on the searched route as the control information.
  • the output device can determine the route to travel in consideration of the accuracy of the comparison between the road paint detection result and the map information.
  • the output unit outputs the control information for causing the display unit to display a path that can be collated with an accuracy equal to or higher than the predetermined value as a recommended path.
  • the output device can suitably present to the user, as a recommended route, a route that can execute the comparison between the road paint detection result and the map information with an accuracy of a predetermined value or more.
  • the output unit identifies a road paint having an accuracy equal to or higher than the predetermined value from the road paint provided on the path of the moving body, and moves the road paint to the road paint.
  • the control information for controlling the moving body so as to bring the body closer is output.
  • the output device can suitably move the vehicle so that the accuracy of the collation is close to the road paint having an accuracy not exceeding the predetermined value in order to enable collation with higher accuracy.
  • the position estimation error in each of the first direction and the second direction with respect to the traveling direction of the moving body is compared with a predetermined threshold value, and a direction in which the position estimation error is larger than the threshold value is determined.
  • a detection unit for detecting, and a second acquisition unit for acquiring, for each road paint, aptitude level information indicating aptitude level when the road paint is used as a reference for estimating the position of the direction detected by the detection unit The output unit specifies the high-precision road paint based on the accuracy information and the suitability information.
  • the output device can suitably move the vehicle so that the vehicle approaches a road paint having a high degree of suitability as a reference for position estimation in the direction in which the position estimation error is determined to be larger than the threshold value.
  • the output device further includes a position estimation unit that estimates the position of the moving body based on the result of the collation. According to this aspect, the output device can control the vehicle so as to maintain the position estimation accuracy at a predetermined level using the accuracy information of the collation.
  • the output unit is required to control the moving body away from the road paint whose accuracy is less than the predetermined value based on the accuracy of the position estimation by the position estimation unit. Determine no. According to this aspect, the output device can accurately determine whether or not it is necessary to move the vehicle so as to avoid road paint in which the accuracy of matching is less than a predetermined value.
  • the position estimation unit may proceed to the position estimation based on a result of the collation when road paint with which the collation is less than the predetermined value is included in a detection range by the detection device. Reduce the reflection weight. According to this aspect, the output device can suitably reduce the decrease in the position estimation accuracy based on the collation result for road paint whose collation accuracy is less than a predetermined value.
  • the road paint in which the accuracy of the collation is less than the predetermined value in the accuracy information is a lane marking represented by a complex line.
  • the lane markings represented by complex lines are likely to cause an error between the detection result of the detection device and the map information. Therefore, preferably, in the accuracy information, the lane markings represented by the composite lines are recorded as road paint whose collation accuracy is less than a predetermined value.
  • the road paint in which the accuracy of the collation is less than the predetermined value in the accuracy information is a road paint in which fading has occurred. Since the detection accuracy of the road paint in which the blur has occurred is reduced by the detection device, an error is likely to occur between the detection result of the detection device and the map information. Therefore, preferably, in the accuracy information, the road paint in which the blur has occurred is recorded as a road paint whose collation accuracy is less than a predetermined value.
  • a control method executed by an output device wherein a collation step of collating a road paint detection result by a detection device with map information, and the collation for each road paint
  • the output device can suitably control the moving body so that the above-described collation can be performed with an accuracy of a predetermined value or more.
  • a computer-executable program for collating a road paint detection result by a detection device with map information, and accuracy of the collation for each road paint.
  • a computer as an output unit that outputs control information for controlling the moving body so that the collation can be performed with an accuracy equal to or higher than a predetermined value based on the accuracy information.
  • the output device can suitably control the moving body so that the above-described collation can be performed with an accuracy of a predetermined value or more.
  • the program is stored in a storage medium.
  • FIG. 1 is a schematic configuration diagram of a driving support system according to the present embodiment.
  • the driving support system shown in FIG. 1 is mounted on a vehicle and has an in-vehicle device 1 that performs control related to driving support of the vehicle, a lidar (Lidar: Light Detection and Ranging, or Laser Illuminated Detection And Ranging) 2, and a gyro sensor 3. And a vehicle speed sensor 4 and a GPS receiver 5.
  • a lidar Light Detection and Ranging, or Laser Illuminated Detection And Ranging
  • the in-vehicle device 1 is electrically connected to the rider 2, the gyro sensor 3, the vehicle speed sensor 4, and the GPS receiver 5, and based on these outputs, the position of the vehicle on which the in-vehicle device 1 is mounted ("own vehicle position"). Also called.) And the vehicle equipment 1 performs automatic driving
  • the in-vehicle device 1 stores a map database (DB: DataBase) 10 that stores road data and information related to features that are landmarks provided on the road.
  • DB DataBase
  • the above-mentioned landmarks include, for example, road paints such as lane markings and road markings as well as solid objects such as kiloposts and signs periodically arranged along the road.
  • the vehicle equipment 1 collates the output of the lidar 2 etc. with the information registered in map DB10, and estimates the own vehicle position.
  • the lidar 2 emits a pulse laser in a predetermined angle range in the horizontal direction and the vertical direction, thereby discretely measuring the distance to an object existing in the outside world, and a three-dimensional point indicating the position of the object Generate group information.
  • the lidar 2 includes an irradiation unit that emits laser light while changing the irradiation direction, a light receiving unit that receives reflected light (scattered light) of the irradiated laser light, and scan data based on a light reception signal output by the light receiving unit. And an output unit for outputting (point cloud data).
  • the scan data is generated based on the irradiation direction corresponding to the laser beam received by the light receiving unit and the response delay time of the laser beam specified based on the above-described received light signal.
  • the accuracy of the lidar distance measurement value is higher as the distance to the object is shorter, and the accuracy is lower as the distance is longer. Since road paint has a different reflectance from other road surface areas, it is possible to identify road paint point cloud data based on the level of a received light signal corresponding to the amount of reflected light. In the present embodiment, it is assumed that the rider 2 is installed so as to scan at least the road surface of the running road.
  • the rider 2, the gyro sensor 3, the vehicle speed sensor 4, and the GPS receiver 5 each supply output data to the in-vehicle device 1.
  • the in-vehicle device 1 is an example of the “output device” in the present invention
  • the lidar 2 is an example of the “detection device” in the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of the in-vehicle device 2.
  • the in-vehicle device 2 mainly includes an interface 11, a storage unit 12, an input unit 14, a control unit 15, and an information output unit 16. Each of these elements is connected to each other via a bus line.
  • the interface 11 acquires output data from sensors such as the lidar 2, the gyro sensor 3, the vehicle speed sensor 4, and the GPS receiver 5, and supplies the output data to the control unit 15.
  • the interface 11 supplies a signal related to the traveling control of the vehicle generated by the control unit 15 to an electronic control unit (ECU: Electronic Control Unit) of the vehicle.
  • ECU Electronic Control Unit
  • the signal transmitted from the control unit 15 to the electronic control device of the vehicle via the interface 11 is an example of “control information” in the present invention.
  • the storage unit 12 stores a program executed by the control unit 15 and information necessary for the control unit 15 to execute a predetermined process.
  • the storage unit 12 stores a map DB 10 including road paint information.
  • FIG. 3 shows an example of the data structure of road paint information.
  • the road paint information is information associated with road data of a road on which road paint is provided, for example.
  • the road paint information includes identification information for identifying individual road paint, position information indicating the position of the road paint, and detection accuracy when the road paint is detected by an external sensor such as the lidar 2.
  • Information also referred to as “detection accuracy information Idet” and road paint direction and direction perpendicular to the vehicle direction (also referred to as “side surface direction”)
  • the road paint detection accuracy indicated by the detection accuracy information Idet indicates the accuracy of matching between the position of the road paint specified based on the output of the lidar 2 and the position of the road paint specified based on the map DB 10.
  • An example of road paint with poor detection accuracy indicated by the detection accuracy information Idet is a road having an exceptional shape represented by a composite line in addition to road paint in which the road paint is faint and difficult to detect. Paint is also included. As will be described later, the latter road paint is a road paint that is likely to be shifted between the position of the road paint specified based on the output of the lidar 2 and the position of the road paint specified based on the map DB 10.
  • the detection accuracy information Idet may be flag information indicating whether or not the road paint has a low detection accuracy, or may be numerical information indicating the degree of detection accuracy stepwise. In the former case, the detection accuracy information Idet may be included only in the road paint information of road paint with low detection accuracy.
  • the detection accuracy information Idet is not limited to information that directly indicates the detection accuracy, but may be information that indirectly indicates the detection accuracy. In the latter case, the detection accuracy information may be road paint type information indicating whether or not the road paint has a complex shape.
  • the aptitude direction information Sdi is used when the vehicle-mounted device 2 compares the position of the road paint detected by the rider 2 with the position information of the road paint registered in the map DB 10 and estimates the position of the vehicle.
  • the solid lane markings are continuously extended in the direction of travel of the vehicle, it is the best standard for estimating the position of the vehicle in the lateral direction of the vehicle, It is not suitable as a standard.
  • the broken lane markings are discontinuously extended in the traveling direction of the vehicle, the lane markings are inferior to the solid lane markings, but are suitable as a reference for estimating the vehicle position in the lateral direction of the vehicle. Since the end portion can be used as a reference for estimating the vehicle position in the traveling direction of the vehicle, it is also suitable as a reference for estimating the vehicle position in the traveling direction of the vehicle.
  • the aptitude direction information Sdi stores information indicating the aptitude degree as a reference for estimating the own vehicle position in the traveling direction and the side direction of the vehicle for each road paint.
  • the aptitude direction information Sdi may be flag information indicating whether or not the road paint has a low aptitude level, or may be numerical information indicating the aptitude level step by step.
  • the suitability direction information Sdi may be included only in the road paint information of a road paint having a low suitability level.
  • the aptitude direction information Sdi is not limited to information that directly indicates the aptitude level, but may be information that indirectly indicates the aptitude level.
  • the appropriate direction information Sdi may be information indicating the type of road paint.
  • the map DB 10 may be updated periodically.
  • the control unit 15 receives partial map information related to the area to which the vehicle position belongs from a server device that manages the map information via a communication unit (not shown), and reflects it in the map DB 10.
  • the input unit 14 is a button operated by the user, a touch panel, a remote controller, a voice input device, and the like, and receives an input for specifying a destination for route search, an input for specifying on / off of automatic driving, and the like.
  • the information output unit 16 is, for example, a display or a speaker that outputs based on the control of the control unit 15.
  • the information output unit 16 is an example of the “display unit” in the present invention.
  • the control unit 15 includes a CPU that executes a program and controls the entire vehicle-mounted device 1.
  • the control unit 15 includes a host vehicle position estimation unit 17 and an automatic driving control unit 18.
  • the control unit 15 is a “computer” that executes the “collation unit”, “first acquisition unit”, “second acquisition unit”, “position estimation unit”, “output unit”, “detection unit”, and program according to the present invention. It is an example.
  • the own vehicle position estimation unit 17 is based on the distance and angle measurement values by the lidar 2 for the feature such as road paint and the feature position information extracted from the map DB 10, and the gyro sensor 3, the vehicle speed sensor 4, and / or Alternatively, the vehicle position estimated from the output data of the GPS receiver 5 is corrected.
  • the vehicle position estimation unit 17 estimates a vehicle position from output data from the gyro sensor 3 and the vehicle speed sensor 4 based on a state estimation method based on Bayesian estimation, The measurement update step for correcting the estimated value of the vehicle position calculated in the prediction step is executed alternately.
  • the automatic driving control unit 18 refers to the map DB 10 and transmits a signal necessary for automatic driving control to the vehicle based on the set route and the own vehicle position estimated by the own vehicle position estimating unit 17. Based on the set route, the automatic operation control unit 18 sets a target track, and the vehicle position estimated by the host vehicle position estimation unit 17 is set so as to be within a predetermined width from the target track. Then, a guide signal is transmitted to control the position of the vehicle.
  • the own vehicle position estimation unit 17 sequentially repeats the prediction step and the measurement update step to estimate the own vehicle position.
  • Various filters developed to perform Bayesian estimation can be used as the state estimation filter used in these steps, and examples thereof include an extended Kalman filter, an unscented Kalman filter, and a particle filter.
  • various methods have been proposed for position estimation based on Bayesian estimation. In the following, vehicle position estimation using an extended Kalman filter will be briefly described as an example.
  • FIG. 4 is a diagram showing the state variable vector x in two-dimensional orthogonal coordinates.
  • the vehicle position on a plane defined on the two-dimensional orthogonal coordinates of xy is represented by coordinates “(x, y)” and the direction “ ⁇ ” of the vehicle.
  • the azimuth ⁇ is defined as an angle formed by the traveling direction of the vehicle and the x axis.
  • the coordinates (x, y) indicate an absolute position corresponding to a combination of latitude and longitude, for example.
  • FIG. 5 is a diagram illustrating a schematic relationship between the prediction step and the measurement update step.
  • calculation and update of the estimated value of the state variable vector X are sequentially performed by repeating the prediction step and the measurement update step.
  • the state variable vector at the reference time (ie, current time) “t” to be calculated is expressed as “X ⁇ t ” or “X ⁇ t ”.
  • state variable vector X t (x t , y t , ⁇ t ) T ”.
  • the provisional estimated value estimated in the prediction step has “ - given the "updated in the measurement update step, subjecting the" ⁇ "and more accurate estimates on a character representing the value.
  • the vehicle position estimation unit 17 calculates the covariance matrix “ ⁇ ⁇ t ” corresponding to the error distribution of the prior estimated value X ⁇ t at the time t ⁇ 1 calculated in the immediately preceding measurement update step. Is calculated from the covariance matrix of “ ⁇ ⁇ t ⁇ 1 ”.
  • the host vehicle position estimation unit 17 associates the position vector of the feature registered in the map DB 10 with the scan data of the rider 2. Then, the vehicle position estimating section 17, when could this correspondence, and the measured value by the rider 2 features that could correspond with "Z t", pre-estimated value X - registered in t and map DB10
  • the measurement estimated value “Z ⁇ t ” of the feature obtained by modeling the measurement processing by the lidar 2 using the position vector of the feature is obtained.
  • the measurement value Z t is a two-dimensional vector representing the distance and scan angle of the feature measured by the lidar 2 at time t.
  • the vehicle position estimation unit 17 multiplies the difference between the measured value Z t and the measured estimated value Z ⁇ t by a Kalman gain “K t ”, and pre-estimates this.
  • K t a Kalman gain
  • X ⁇ t an updated state variable vector (also referred to as “posterior estimated value”) X ⁇ t is calculated.
  • X ⁇ t X - t + K t (Z t -Z ⁇ t) (1)
  • the vehicle position estimating section 17 similarly to the prediction step, the covariance matrix sigma ⁇ t which corresponds to the error distribution of a posteriori estimate X ⁇ t pre-covariance matrix sigma - obtained from t.
  • the parameters such as the Kalman gain K t, can be calculated for example in analogy to known self-position technique using an extended Kalman filter.
  • the detection accuracy indicated by the detection accuracy information Idet calculates the posteriori estimated value X ⁇ t from equation (1) based on the low road paint, registering the measured values Z t and a map DB10 based on the output 2 of the rider 2
  • the difference from the estimated measurement value Z ⁇ t obtained using the position vector of the feature obtained is increased. That is, in this case, the difference “Z t ⁇ Z ⁇ t ” multiplied by the Kalman gain K t in equation (1) becomes large. In this case, the estimation accuracy of the a posteriori estimated value X ⁇ t obtained by the equation (1) is lowered.
  • the automatic driving control unit 18 controls the vehicle so as to avoid position estimation based on road paint with low detection accuracy indicated by the detection accuracy information Idet. Thereby, the automatic operation control part 18 suppresses suitably that position estimation accuracy falls.
  • a specific control method will be described in detail in the following sections [First Vehicle Control Based on Road Paint Information] and [Second Vehicle Control Based on Road Paint Information].
  • FIG. 6 is a flowchart showing first vehicle control based on road paint information executed by the automatic driving control unit 18.
  • the automatic driving control unit 18 sets the vehicle that has been set in advance when road paint that is determined to have low detection accuracy based on the detection accuracy information Idet of road paint information exists in the vicinity of the target track. Correct the target trajectory. Note that when the flowchart of FIG. 6 is executed, it is assumed that the automatic operation control unit 18 has set the target trajectory of the vehicle along the route to the set destination.
  • the automatic operation control unit 18 determines whether or not the current position estimation accuracy is worse than a predetermined value (step S100). For example, the automatic operation control unit 18 determines that the current position estimation accuracy is predetermined when the major axis of the error ellipse specified based on the error covariance matrix obtained in the calculation process of position estimation based on the extended Kalman filter is longer than a predetermined length. Judged to be worse than the value. And the automatic driving
  • the automatic driving control unit 18 acquires road paint information associated with road data of a road that forms a route to the destination from the map DB 10 (step S101). In this case, the automatic driving control unit 18 acquires, for example, road paint information corresponding to a road on a route existing within a predetermined distance from the current position from the map data 10.
  • the automatic driving control unit 18 detects that the road paint whose detection accuracy indicated by the detection accuracy information Idet is lower than a predetermined threshold (also simply referred to as “low detection accuracy”) is in the vicinity of the target track (for example, the target track). And the same lane) (step S102).
  • a predetermined threshold also simply referred to as “low detection accuracy”
  • the above-described threshold value is determined in advance based on an experiment or the like in consideration of whether or not the position estimation accuracy of the host vehicle position estimation unit 17 is reduced, and stored in the storage unit 12 or the like in advance.
  • the automatic driving control unit 18 determines that road paint having low detection accuracy indicated by the detection accuracy information Idet is present in the vicinity of the target track (step S102; Yes)
  • the automatic operation control unit 18 reflects the vehicle position estimation.
  • the weight for the collation result with the map DB 10 at that time is lowered (step S103).
  • the automatic operation control unit 18 determines that “K t (Z t ⁇ Z ⁇ t )” in Expression (1) in a travel section in which road paint with low detection accuracy may be within the measurement range of the rider 2. Is multiplied by a predetermined coefficient less than 1.
  • the automatic operation control unit 18 can suitably reduce the decrease in position estimation accuracy even when the road paint having low detection accuracy is within the measurement range of the rider 2. it can.
  • the automatic driving control unit 18 corrects the target trajectory of the vehicle so as to avoid road paint with low detection accuracy (step S104). Specifically, the automatic driving control unit 18 corrects the target track so as to change the lane to a lane different from the lane where the road paint having low detection accuracy is provided. In another example, when a lane line with low detection accuracy is provided on one side of a traveling one-lane road, the automatic operation control unit 18 sets the traveling position on the lane line opposite to the lane line. Correct the target trajectory in the lane so that it is biased. Thus, the automatic operation control unit 18 can suitably prevent position estimation based on the road paint with low detection accuracy by controlling the vehicle away from the road paint with low detection accuracy. it can.
  • FIG. 7 is an overhead view of a vehicle traveling on a two-lane road 50 in which a composite road paint having low detection accuracy exists on the right side.
  • the single lane marking 61 is a lane marking composed of only white lines
  • the composite lane marking 62 is a complex lane marking including an orange line and a white line.
  • a comb-shaped white line for emphasizing the orange line is provided on both sides of the orange line.
  • a broken line “Lt” indicates a target track of the vehicle set by the automatic driving control unit 18.
  • the vehicle position estimation unit 17 uses the vehicle indicated by the point cloud data of the target feature as a reference. The barycentric coordinates of the two-dimensional coordinates are calculated.
  • the detection accuracy indicated by the road paint information detection accuracy information Idet corresponding to the composite lane line 62 is the detection of road paint information corresponding to the single lane line 61 and the other lane lines 63 and 64.
  • the detection accuracy is set to be lower than the detection accuracy indicated by the accuracy information Idet.
  • the automatic driving control unit 18 refers to the road paint information associated with the road 50 on which the vehicle is traveling from the map DB 10, and the detection accuracy indicated by the detection accuracy information Idet of the road paint information corresponding to the composite lane marking 62 is detected. Is determined to have low detection accuracy lower than a predetermined threshold. Therefore, in this case, in order to avoid performing position estimation based on the composite lane line 62, the automatic operation control unit 18 changes the lane to the left lane of the road 50 that is not close to the composite lane line 62. Lt reference) is set. When the vehicle is driven according to the target track indicated by the broken line Lt, the lane markings 63 and 64 are the closest lane markings when passing the side of the composite lane marking 62. Therefore, in this case, the host vehicle position estimation unit 17 can perform position estimation with reference to the lane marking 63 or / and the lane marking 64, and can maintain the positional accuracy in the side surface direction of the vehicle at a high level.
  • FIG. 8 is a bird's-eye view of a vehicle when road paint having low detection accuracy is provided on a one-lane road.
  • a single lane line 66 and a composite lane line 67 are provided between a single-lane road 53 and a road 54 in the opposite direction.
  • the single lane marking 66 is composed of only a white line
  • the composite lane marking 67 is composed of a white line and an orange line.
  • the point cloud data of the orange line is obtained in addition to the point cloud data of the white line.
  • point cloud data having a large variation in the width direction of the road is obtained from the lidar 2 as the point cloud data of the composite lane line 67, and the measurement value z for the composite lane line 67 has a relatively low accuracy. . Therefore, in the example of FIG. 8, the detection accuracy indicated by the detection accuracy information Idet of the road paint information corresponding to the composite lane marking 67 is set to a low detection accuracy.
  • the automatic driving control unit 18 refers to the road paint information associated with the road 53 on which the vehicle is traveling from the map DB 10, and the detection accuracy indicated by the detection accuracy information Idet of the road paint information corresponding to the composite lane line 67 is detected. Is determined to have low detection accuracy lower than a predetermined threshold. Therefore, in this case, the automatic operation control unit 18 travels in a position that is biased to the lane line 68 rather than the lane line 67 in the road 53 in order to avoid performing position estimation with the composite lane line 67 as a reference. A target trajectory (see broken line Lt) is set.
  • the host vehicle position estimation unit 17 performs position estimation with reference to the lane marking 68, and can maintain the position accuracy in the side surface direction of the vehicle at a high level.
  • FIG. 9A shows another example of road paint in which the detection accuracy of the detection accuracy information Idet is low.
  • a composite lane line 69 is provided between the road 55 and the road 56 in the opposite lane.
  • the composite lane line 69 gradually increases in width along the road 55.
  • the detection accuracy indicated by the detection accuracy information Idet of the road paint information is set to a low detection accuracy for such a composite lane marking 69 as well.
  • FIG. 9 (B) shows a two-lane road 57 provided with road markings 70-73.
  • no blur has occurred for the road markings 70, 71 provided in the left lane of the road 57
  • no blur has occurred for the road markings 72, 73 provided in the right lane of the road 57.
  • detection accuracy information Idet indicating low detection accuracy is registered. Therefore, in the example of FIG. 9B, when the vehicle passes the road 57, the automatic driving control unit 18 determines that the road markings 72 and 73 are based on the detection accuracy information Idet of the road paint information of the road markings 70 to 73. Judge that the lanes provided should be avoided. And the automatic driving
  • the automatic operation control unit 18 refers to the detection accuracy information Idet of the road paint information, and searches for the route so as to avoid road paint having low detection accuracy. May be performed.
  • the automatic operation control unit 18 searches for a route that minimizes the sum of the link costs calculated for each road according to the required time or distance. At this time, the automatic operation control unit 18 adds the cost based on the detection accuracy indicated by the detection accuracy information Idet to the link cost in addition to the required time and distance. In this case, the cost to be added based on the detection accuracy information Idet is set higher as the detection accuracy indicated by the detection accuracy information Idet is lower, for example. By doing in this way, the automatic driving
  • the automatic operation control unit 18 adds low cost to the link cost corresponding to the road including the road paint with low detection accuracy, which is significantly higher than the cost for the required time and distance. It is also possible to search for a route substantially avoiding the road having the road paint.
  • FIG. 10 is a diagram schematically showing a route selection screen displayed by the information output unit 16.
  • the automatic driving control unit 18 recommends a recommended route based on a normal route search that does not take into account the detection accuracy information Idet based on the destination specified based on the user input (also referred to as “non-detection accuracy consideration route”).
  • a recommended route also referred to as “detection accuracy-considered route” 84 based on the route search in consideration of the detection accuracy information Idet are respectively searched and displayed on the route search screen.
  • the automatic operation control unit 18 clearly indicates a low detection accuracy section, which is a road section including road paint having low detection accuracy, on the detection accuracy non-considered route 83 by a broken line.
  • a mark 81 indicates a destination and a mark 82 indicates a current position.
  • the detection accuracy non-considered route 83 includes a low detection accuracy section that is a road section including road paint having low detection accuracy, and the position estimation accuracy may be lowered in the section. is there.
  • the low detection accuracy section does not exist in the detection accuracy consideration route 84, when the detection accuracy consideration route 84 is selected as a travel route, position estimation based on road paint can be suitably executed. Is possible.
  • the automatic driving control unit 18 uses the road paint information in the route search, and allows the user to suitably select a route avoiding the road section including the road paint with low detection accuracy as the route to travel. Can do.
  • the second vehicle control based on the road paint information is based on the detection accuracy information Idet and the appropriate direction information Sdi included in the road paint information when the position estimation error in the traveling direction or the side direction is larger than a predetermined threshold.
  • a road paint suitable as a vehicle position estimation reference in a direction with a large error is searched based on a predetermined standard, and the target trajectory is corrected so as to approach the road paint suitable as the vehicle position estimation reference.
  • FIG. 11 is a flowchart showing second vehicle control based on road paint information executed by the automatic driving control unit 18.
  • the automatic driving control unit 18 is a road suitable as a vehicle position estimation reference in a direction in which the vehicle position estimation error is large based on the road paint information detection accuracy information Idet and the appropriate direction information Sdi.
  • the paint is searched, and when the appropriate road paint exists in the vicinity of the target track, the preset target track of the vehicle is corrected.
  • the automatic operation control unit 18 has set a target trajectory of the vehicle along the route to the set destination.
  • the automatic driving control unit 18 specifies an error in position estimation in the traveling direction and the side direction of the vehicle (step S201). For example, the automatic operation control unit 18 converts the error covariance matrix obtained in the position estimation calculation process based on the extended Kalman filter by a rotation matrix using the direction ⁇ of the own vehicle, so that the traveling direction of the vehicle And position estimation errors in the lateral direction are specified.
  • the automatic driving control unit 18 monitors the position estimation accuracy in the traveling direction and the position estimation accuracy in the side surface direction of the host vehicle position estimation unit 17, respectively. Then, the automatic operation control unit 18 determines whether or not there is a direction with low position estimation accuracy (also referred to as “low position accuracy direction Dtag”) (step S202). For example, the automatic operation control unit 18 compares the position estimation error in each of the traveling direction and the side direction specified in step S201 with a predetermined threshold, and determines the direction in which the position estimation error is larger than the predetermined threshold as the low position accuracy direction Dtag. Detect as. Then, it is determined whether or not the low position accuracy direction Dtag is detected.
  • the traveling direction and the side surface direction of the vehicle are examples of the “first direction” and the “second direction” in the present invention.
  • step S202 when it is determined that the low position accuracy direction Dtag does not exist (step S202; No), the automatic operation control unit 18 determines that it is not necessary to correct the target track of the vehicle, and ends the process of the flowchart. .
  • step S202 when the automatic driving control unit 18 determines that the low position accuracy direction Dtag exists (step S202; Yes), the road paint information associated with the road data of the road that forms the route to the destination is obtained from the map DB 10.
  • step S203 In this case, for example, the automatic driving control unit 18 acquires road paint information corresponding to a road on a route existing within a predetermined distance from the current position from the map DB 10.
  • the automatic operation control unit 18 determines whether or not road paint suitable as a reference for estimating the vehicle position in the low position accuracy direction Dtag exists in the vicinity of the target track (step S204). In this case, the automatic operation control unit 18 has a detection accuracy lower than a predetermined reference based on the detection accuracy information Idet and the suitability direction information Sdi included in the road paint information from the road paint in the vicinity of the target trajectory.
  • Suitable as a reference for estimating the vehicle position in the low position accuracy direction Dtag excluding road paint to be determined and the road paint determined to be unsuitable for the vehicle position estimation in the low position accuracy direction Dtag from a predetermined standard
  • the automatic operation control unit 18 determines that a road paint suitable as a reference for estimating the vehicle position in the low position accuracy direction Dtag exists in the vicinity of the target track (step S204; Yes), the automatic operation control unit 18 approaches the road paint.
  • the target trajectory of the vehicle is corrected (step S205).
  • the automatic driving control unit 18 corrects the target track so as to change the lane to a lane in which road paint suitable as a reference is provided.
  • the automatic operation control unit 18 corrects the target track so as to change the lane to the lane where the road paint having higher suitability is provided.
  • the target track may be modified so that the lane is changed to a lane in which road paint closer to the original target track is provided.
  • the automatic operation control unit 18 may adjust the traveling position toward the lane line so that the traveling position is biased. Correct the target trajectory at.
  • step S204 when the automatic driving control unit 18 determines that the low position accuracy direction Dtag does not exist (step S204; No), it determines that there is no need to correct the target trajectory of the vehicle, and performs the processing of the flowchart. finish.
  • the automatic operation control unit 18 performs control so that the vehicle approaches the road paint. By doing so, position estimation can be suitably performed on the basis of the road paint.
  • the automatic driving control unit 18 uses the road paint whose detection accuracy indicated by the detection accuracy information Idet is low detection accuracy, as in the first vehicle control based on the road paint information.
  • the road paint with low detection accuracy is temporarily within the measurement range of the lidar 2 by lowering the weight on the collation result with the map DB 10 when it is reflected in the vehicle position estimation. Even if it becomes, you may make it reduce suitably the fall of a position estimation precision.
  • FIG. 12 is an overhead view of a vehicle traveling on a two-lane road 90 where road paint having low detection accuracy exists on the left side.
  • a solid line 93 that is a lane marking that divides the road 90 and the road 91 in the opposite direction
  • a broken line 92 that is a lane marking that divides the road 90
  • a solid line 94 that is the leftmost lane marking of the road 90.
  • a broken line “Lt” indicates a target track of the vehicle set by the automatic driving control unit 18.
  • the detection accuracy indicated by the road paint information detection accuracy information Idet corresponding to the solid line 94 is the detection accuracy indicated by the road paint information detection accuracy information Idet corresponding to the broken line 92 and the solid line 93. Lower detection accuracy is set.
  • the appropriate direction information Sdi of the road paint information corresponding to the solid line 93 and the solid line 94 includes the vehicle position in the lateral direction of the vehicle. Information indicating that the suitability degree as the estimation reference is optimum and the suitability degree as the vehicle position estimation reference in the traveling direction of the vehicle is inappropriate.
  • the aptitude direction information Sdi of the road paint information corresponding to the broken line 92 is used as a reference for estimating the vehicle position in the side direction of the vehicle.
  • Information indicating that the aptitude degree is suitable and the aptitude degree as a reference for estimating the vehicle position in the traveling direction of the vehicle is also suitable.
  • the automatic driving control unit 18 determines that the error of the vehicle position estimation in the side direction of the vehicle is larger than a predetermined threshold. That is, it is assumed that the side surface direction of the vehicle is determined to be the low position accuracy direction Dtag.
  • the automatic operation control unit 18 refers to the road paint information corresponding to the broken line 92, the solid line 93, and the solid line 94 from the map DB 10.
  • the automatic operation control unit 18 excludes the solid line 94 from the position estimation reference candidates.
  • the vehicle position estimation unit 17 can maintain the position accuracy in the side surface direction of the vehicle at a high level by performing position estimation based on the solid line 93. it can.
  • the target trajectory is slightly corrected so as to approach the broken line 92 in this lane, thereby changing the traveling direction of the vehicle.
  • the position accuracy can also be maintained at a high level.
  • the automatic operation control unit 18 sets the detection accuracy indicated by the detection accuracy information Idet corresponding to each of the broken line 92, the solid line 93, and the solid line 94, and the aptitude degree indicated by the aptitude direction information Sdi, respectively, to a predetermined reference.
  • the road paint suitable for the vehicle position estimation reference in the low position accuracy direction Dtag may be determined by comprehensively determining based on the detection accuracy score and the suitability score.
  • the case where the vehicle position estimation error in the side surface direction of the vehicle is larger than the predetermined threshold value is described.
  • the case where the vehicle position estimation error in the vehicle traveling direction is larger than the predetermined threshold value is described.
  • the road paint having a high degree of suitability for the vehicle position estimation in the traveling direction of the vehicle in the suitability direction information Sdi may be determined as the position estimation reference.
  • the vehicle in the traveling direction of the vehicle in the aptitude direction information Sdi What is necessary is just to determine the road paint whose aptitude degree with respect to the position estimation and the aptitude degree with respect to the vehicle position estimation in the side direction is an aptitude degree equal to or higher than a predetermined reference as a position estimation reference.
  • the in-vehicle device 1 in the present embodiment includes the own vehicle position estimation unit 17 and the automatic operation control unit 18.
  • the own vehicle position estimation unit 17 estimates the own vehicle position by collating the detection result of road paint by the rider 2 with the map DB 10.
  • the automatic driving control unit 18 acquires road surface paint information including detection accuracy information Idet indicating the accuracy of collation for each road paint from the map DB 10. Then, the automatic operation control unit 18 outputs information for controlling the vehicle to the electronic control device or the information output unit 16 of the vehicle so that the collation can be performed with an accuracy of a predetermined value or more based on at least the detection accuracy information Idet.
  • the in-vehicle device 1 can preferably improve the accuracy of the vehicle position estimation.
  • a server device (not shown) may have the map DB 10 instead of the configuration in which the map DB 10 is stored in the storage unit 12.
  • the in-vehicle device 1 acquires necessary road surface paint information and the like by communicating with the server device through a communication unit (not shown).
  • the configuration of the driving support system shown in FIG. 1 is an example, and the configuration of the driving support system to which the present invention is applicable is not limited to the configuration shown in FIG.
  • the electronic control device of the vehicle instead of having the in-vehicle device 1, the electronic control device of the vehicle may execute processing of the own vehicle position estimating unit 17 and the automatic driving control unit 18 of the in-vehicle device 1.
  • map DB10 is memorize

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instructional Devices (AREA)

Abstract

車載機1は、自車位置推定部17と、自動運転制御部18とを有する。自車位置推定部17は、ライダ2による道路ペイントの検出結果と地図DB10との照合を行うことで、自車位置を推定する。自動運転制御部18は、道路ペイント毎の照合の精度を示す検出精度情報Idetを含む路面ペイント情報を地図DB10から取得する。そして、自動運転制御部18は、検出精度情報Idetに基づき、所定値以上の精度で照合が可能となるように車両を制御するための情報を車両の電子制御装置又は情報出力部16へ出力する。

Description

出力装置、制御方法、プログラム及び記憶媒体
 本発明は、車両を制御する技術に関する。
 従来から、車両の周辺の地物をレーダやカメラを用いて検出し、その検出結果に基づいて自車位置を高精度に推定することで自動運転を行う技術が知られている。特許文献1には、外界センサの出力に基づき走行中の道路の白線のかすれ具合を判定し、現在の車線よりも高精度に白線を検出することが可能な車線が存在する場合には、当該車線へ車線変更するように車両を制御する技術が開示されている。
特開2015-141611号公報
 走行中に白線の状態を外界センサにより計測して監視する態様では、周辺に他車両が存在する場合などに他車線の白線の状態を正確に判定できない場合がある。また、外界センサの計測範囲外にある白線の状態についても把握することができない。
 本発明は、上記のような課題を解決するためになされたものであり、道路ペイントに関する情報に基づき車両を好適に制御することが可能な出力装置を提供することを主な目的とする。
 請求項1に記載の発明は、出力装置であって、検出装置による道路ペイントの検出結果と地図情報との照合を行う照合部と、道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得部と、前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力部と、を備える。
 請求項12に記載の発明は、出力装置が実行する制御方法であって、検出装置による道路ペイントの検出結果と地図情報との照合を行う照合工程と、道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得工程と、前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力工程と、を有する。
 請求項13に記載の発明は、コンピュータが実行するプログラムであって、検出装置による道路ペイントの検出結果と地図情報との照合を行う照合部と、道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得部と、前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力部として前記コンピュータを機能させる。
運転支援システムの概略構成図である。 車載機の機能的構成を示すブロック図である。 地図DBに含まれる道路ペイント情報のデータ構造の一例である。 状態変数ベクトルを2次元直交座標で表した図である。 予測ステップと計測更新ステップとの概略的な関係を示す図である。 道路ペイント情報に基づく第1車両制御を示すフローチャートである。 低検出精度となる道路ペイントが右側に存在する2車線の道路上を走行する車両の俯瞰図である。 片側一車線の道路において低検出精度となる道路ペイントが設けられている場合の車両の俯瞰図を示す。 低検出精度となる道路ペイントの他の例を示す。 経路選択画面を概略的に示した図である。 道路ペイント情報に基づく第2車両制御を示すフローチャートである。 低検出精度となる道路ペイントが左側に存在する2車線の道路上を走行する車両の俯瞰図である。
 本発明の好適な実施形態によれば、出力装置は、検出装置による道路ペイントの検出結果と地図情報との照合を行う照合部と、道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得部と、前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力部と、を備える。この態様では、出力装置は、検出装置による道路ペイントの検出結果と地図情報との照合を行う場合の道路ペイント毎の精度情報を取得することで、所定値以上の精度で上述の照合が可能となるように移動体を好適に制御することができる。
 上記出力装置の一態様では、前記出力部は、前記移動体の経路に設けられた道路ペイントから前記照合が前記所定値未満の精度となる低精度道路ペイントを特定し、当該低精度道路ペイントから前記移動体を遠ざけるように前記移動体を制御するための前記制御情報を出力する。この態様により、出力装置は、照合の精度が所定値未満の精度となる道路ペイントを検出しないように車両を好適に移動させることができる。
 上記出力装置の他の一態様では、前記出力部は、前記精度情報に基づき目的地までの経路を探索し、探索した経路の情報を前記制御情報として出力する。この態様により、出力装置は、道路ペイントの検出結果と地図情報との照合の精度を予め勘案して走行すべき経路を決定することができる。
 上記出力装置の他の一態様では、前記出力部は、前記所定値以上の精度で前記照合が可能な経路を、推奨する経路として表示部に表示させるための前記制御情報を出力する。この態様により、出力装置は、道路ペイントの検出結果と地図情報との照合を所定値以上の精度で実行可能な経路を、推奨経路としてユーザに好適に提示することができる。
 上記出力装置の他の一態様では、前記出力部は、前記移動体の経路に設けられた道路ペイントから前記照合が前記所定値以上の精度となる道路ペイントを特定し、当該道路ペイントに前記移動体を近づけるように前記移動体を制御するための前記制御情報を出力する。この態様により、出力装置は、より精度の高い照合を可能とするために、照合の精度が所定値未以上の精度となる道路ペイントに近づけるように車両を好適に移動させることができる。
 上記出力装置の他の一態様では、前記移動体の進行方向に対する第1方向及び第2方向のそれぞれの位置推定誤差を所定の閾値と比較し、前記位置推定誤差が前記閾値よりも大きい方向を検出する検出部と、前記検出部により検出された方向の位置推定の基準として、前記道路ペイントが使用される場合の適性度を示す適性度情報を、前記道路ペイントごとに取得する第2取得部と、を備え、前記出力部は、前記精度情報及び前記適性度情報に基づいて前記高精度道路ペイントを特定する。この態様により、出力装置は、位置推定誤差が閾値よりも大きいと判定された方向の位置推定の基準としての適性度が高い道路ペイントに近づけるように車両を好適に移動させることができる。
 上記出力装置の他の一態様では、出力装置は、前記照合の結果に基づき、前記移動体の位置推定を行う位置推定部をさらに備える。この態様により、出力装置は、照合の精度情報を利用し、位置推定精度を所定の水準に保つように車両を制御することができる。
 上記出力装置の他の一態様では、前記出力部は、前記位置推定部による前記位置推定の精度に基づき、前記照合が前記所定値未満の精度となる道路ペイントから前記移動体を遠ざける制御の要否を判定する。この態様により、出力装置は、照合の精度が所定値未満の精度となる道路ペイントを回避するように車両を移動させることの要否を的確に判定することができる。
 上記出力装置の他の一態様では、前記位置推定部は、前記照合が前記所定値未満の精度となる道路ペイントが前記検出装置による検出範囲に含まれる場合、前記照合の結果による前記位置推定への反映の重み付けを小さくする。この態様により、出力装置は、照合の精度が所定値未満の精度となる道路ペイントを対象とした照合結果に基づき位置推定精度が低下するのを好適に低減することができる。
 上記出力装置の他の一態様では、前記精度情報において前記照合の精度が前記所定値未満となる道路ペイントは、複合的な線により表わされた区画線である。複合的な線により表わされた区画線は、検出装置による検出結果と地図情報との間で誤差が生じやすい。よって、好適には、精度情報では、複合的な線により表わされた区画線は、照合の精度が所定値未満となる道路ペイントとして記録される。
 上記出力装置の他の一態様では、前記精度情報において前記照合の精度が前記所定値未満となる道路ペイントは、かすれが生じている道路ペイントである。かすれが生じている道路ペイントは、検出装置による検出精度が低下するため、検出装置による検出結果と地図情報との間で誤差が生じやすい。よって、好適には、精度情報では、かすれが生じている道路ペイントは、照合の精度が所定値未満となる道路ペイントとして記録される。
 本発明の他の好適な実施形態によれば、出力装置が実行する制御方法であって、検出装置による道路ペイントの検出結果と地図情報との照合を行う照合工程と、道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得工程と、前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力工程と、を有する。出力装置は、この制御方法を実行することで、所定値以上の精度で上述の照合が可能となるように移動体を好適に制御することができる。
 本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムであって、検出装置による道路ペイントの検出結果と地図情報との照合を行う照合部と、道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得部と、前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力部としてコンピュータを機能させる。出力装置は、このプログラムを実行することで、所定値以上の精度で上述の照合が可能となるように移動体を好適に制御することができる。好適には、上記プログラムは、記憶媒体に記憶される。
 以下、図面を参照して本発明の好適な各実施例について説明する。
 [概略構成]
 図1は、本実施例に係る運転支援システムの概略構成図である。図1に示す運転支援システムは、車両に搭載され、車両の運転支援に関する制御を行う車載機1と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)2と、ジャイロセンサ3と、車速センサ4と、GPS受信機5とを有する。
 車載機1は、ライダ2、ジャイロセンサ3、車速センサ4、及びGPS受信機5と電気的に接続し、これらの出力に基づき、車載機1が搭載される車両の位置(「自車位置」とも呼ぶ。)の推定を行う。そして、車載機1は、自車位置の推定結果に基づき、設定された目的地への経路に沿って走行するように、車両の自動運転制御などを行う。車載機1は、道路データ及び道路に設けられた目印となる地物に関する情報を記憶した地図データベース(DB:DataBase)10を記憶する。上述の目印となる地物は、例えば、道路脇に周期的に並んでいるキロポストや標識などの立体物の他、区画線や道路標示などの道路ペイントも含まれる。そして、車載機1は、ライダ2等の出力を地図DB10に登録された情報と照合させて自車位置の推定を行う。
 ライダ2は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群情報を生成する。この場合、ライダ2は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータ(点群データ)を出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光の応答遅延時間とに基づき生成される。一般的に、対象物までの距離が近いほどライダの距離測定値の精度は高く、距離が遠いほど精度は低い。なお、道路ペイントは、他の路面の領域と反射率が異なるため、反射光の光量に応じた受光信号のレベルに基づき道路ペイントの点群データを識別することが可能である。本実施例では、ライダ2は、少なくとも走行中の道路の路面をスキャンするように設置されているものとする。ライダ2、ジャイロセンサ3、車速センサ4、GPS受信機5は、それぞれ、出力データを車載機1へ供給する。なお、車載機1は、本発明における「出力装置」の一例であり、ライダ2は、本発明における「検出装置」の一例である。
 図2は、車載機2の機能的構成を示すブロック図である。車載機2は、主に、インターフェース11と、記憶部12と、入力部14と、制御部15と、情報出力部16と、を有する。これらの各要素は、バスラインを介して相互に接続されている。
 インターフェース11は、ライダ2、ジャイロセンサ3、車速センサ4、及びGPS受信機5などのセンサから出力データを取得し、制御部15へ供給する。また、インターフェース11は、制御部15が生成した車両の走行制御に関する信号を車両の電子制御装置(ECU:Electronic Control Unit)へ供給する。制御部15からインターフェース11を介して車両の電子制御装置へ送信される信号は、本発明における「制御情報」の一例である。
 記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行するのに必要な情報を記憶する。本実施例では、記憶部12は、道路ペイント情報を含む地図DB10を記憶する。
 図3は、道路ペイント情報のデータ構造の一例を示す。道路ペイント情報は、例えば、道路ペイントが設けられた道路の道路データと関連付けられた情報である。図3の例では、道路ペイント情報は、個々の道路ペイントを識別するための識別情報と、道路ペイントの位置を示す位置情報と、道路ペイントをライダ2などの外界センサにより検出する際の検出精度に関する情報(「検出精度情報Idet」とも呼ぶ。)と、道路ペイントの、車両の進行方向および進行方向に垂直な方向(「側面方向」とも呼ぶ。)のそれぞれの自車位置推定の基準としての適性度を示す情報(「適性方向情報Sdi」とも呼ぶ。)を含む。
 ここで、検出精度情報Idetが示す道路ペイントの検出精度は、ライダ2の出力に基づき特定する道路ペイントの位置と、地図DB10に基づき特定する道路ペイントの位置との照合の精度を示す。検出精度情報Idetが示す検出精度が悪い道路ペイントの例は、道路ペイントがかすれて検出しにくい状態の道路ペイントに加え、複合的な線により表わされた例外的な形状を有している道路ペイントも含まれる。後者の道路ペイントは、後述するように、ライダ2の出力に基づき特定する道路ペイントの位置と地図DB10に基づき特定する道路ペイントの位置とにずれが生じやすい道路ペイントである。検出精度情報Idetは、検出精度が低い道路ペイントか否かを示すフラグ情報であってもよく、検出精度の程度を段階的に示す数値情報であってもよい。前者の場合、検出精度情報Idetは、検出精度が低い道路ペイントの道路ペイント情報のみに含まれていてもよい。また、検出精度情報Idetは、検出精度を直接的に示す情報に限らず、検出精度を間接的に示す情報であってもよい。後者の場合、検出精度情報は、複合的な形状を有する道路ペイントであるか否かを示す道路ペイントの種別の情報であってもよい。
 また、適性方向情報Sdiは、車載機2が、ライダ2により検出された道路ペイントの位置を地図DB10に登録された当該道路ペイントの位置情報と照合させて自車位置の推定を行う場合において、車両の進行方向および側面方向のそれぞれの自車位置推定の基準として使用する際の当該道路ペイントの適性度を示す情報であって、道路ペイントの延伸方向等の路面上の形状に基づいて予め設定された情報である。具体的には、例えば、一時停止線は、車両の側面方向に延伸しているため、車両の進行方向の自車位置推定の基準としては最適であるが、車両の側面方向の自車位置推定の基準としては不適である。また、実線の区画線は、車両の進行方向に連続的に延伸しているため、車両の側面方向の自車位置推定の基準としては最適であるが、車両の進行方向の自車位置推定の基準としては不適である。また、破線の区画線は、車両の進行方向に非連続的に延伸しているため、実線の区画線よりも劣るものの、車両の側面方向の自車位置推定の基準として好適であり、破線の端部を車両の進行方向の自車位置推定の基準として利用できるため、車両の進行方向の自車位置推定の基準としても好適である。これらの例のように、適性方向情報Sdiとして、道路ペイントごとに、車両の進行方向および側面方向のそれぞれの自車位置推定の基準としての適性度を示す情報が記憶される。適性方向情報Sdiは、適性度が低い道路ペイントか否かを示すフラグ情報であってもよく、適性度を段階的に示す数値情報であってもよい。前者の場合、適性方向情報Sdiは、適性度が低い道路ペイントの道路ペイント情報のみに含まれていてもよい。また、適性方向情報Sdiは、適性度を直接的に示す情報に限らず、適性度を間接的に示す情報であってもよい。後者の場合、適性方向情報Sdiは、道路ペイントの種別を示す情報であってもよい。
 なお、地図DB10は、定期的に更新されてもよい。この場合、例えば、制御部15は、図示しない通信部を介し、地図情報を管理するサーバ装置から、自車位置が属するエリアに関する部分地図情報を受信し、地図DB10に反映させる。
 再び図2を参照して車載機2の構成について説明する。入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付ける。情報出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。情報出力部16は、本発明における「表示部」の一例である。
 制御部15は、プログラムを実行するCPUなどを含み、車載機1の全体を制御する。本実施例では、制御部15は、自車位置推定部17と、自動運転制御部18とを有する。制御部15は、本発明における「照合部」、「第1取得部」、「第2取得部」、「位置推定部」、「出力部」、「検出部」及びプログラムを実行する「コンピュータ」の一例である。
 自車位置推定部17は、道路ペイントなどの地物に対するライダ2による距離及び角度の計測値と、地図DB10から抽出した地物の位置情報とに基づき、ジャイロセンサ3、車速センサ4、及び/又はGPS受信機5の出力データから推定した自車位置を補正する。本実施例では、一例として、自車位置推定部17は、ベイズ推定に基づく状態推定手法に基づき、ジャイロセンサ3、車速センサ4等の出力データから自車位置を推定する予測ステップと、直前の予測ステップで算出した自車位置の推定値を補正する計測更新ステップとを交互に実行する。
 自動運転制御部18は、地図DB10を参照し、設定された経路と、自車位置推定部17が推定した自車位置とに基づき、自動運転制御に必要な信号を車両に送信する。自動運転制御部18は、設定された経路に基づき、目標軌道を設定し、自車位置推定部17が推定した自車位置が目標軌道から所定幅以内のずれ幅となるように、車両に対してガイド信号を送信して車両の位置を制御する。
 ここで、自車位置推定部17による自車位置の推定処理について補足説明する。自車位置推定部17は、予測ステップと計測更新ステップを逐次的に繰返して自車位置推定を行う。これらのステップで用いる状態推定フィルタは、ベイズ推定を行うように開発された様々のフィルタが利用可能であり、例えば、拡張カルマンフィルタ、アンセンテッドカルマンフィルタ、パーティクルフィルタなどが該当する。このように、ベイズ推定に基づく位置推定は、種々の方法が提案されている。以下では、一例として拡張カルマンフィルタを用いた自車位置推定について簡略的に説明する。
 図4は、状態変数ベクトルxを2次元直交座標で表した図である。図4に示すように、xyの2次元直交座標上で定義された平面での自車位置は、座標「(x、y)」、自車の方位「θ」により表される。ここでは、方位θは、車の進行方向とx軸とのなす角として定義されている。座標(x、y)は、例えば緯度及び経度の組合せに相当する絶対位置を示す。
 図5は、予測ステップと計測更新ステップとの概略的な関係を示す図である。図5に示すように、予測ステップと計測更新ステップとを繰り返すことで、状態変数ベクトルXの推定値の算出及び更新を逐次的に実行する。ここでは、計算対象となる基準時刻(即ち現在時刻)「t」の状態変数ベクトルを、「X 」または「X 」と表記している。(「状態変数ベクトルX=(x、y、θ」と表記する。)なお、予測ステップで推定された暫定的な推定値には当該推定値を表す文字の上に「」を付し、計測更新ステップで更新された,より精度の高い推定値には当該値を表す文字の上に「」を付す。
 予測ステップでは、自車位置推定部17は、直前の計測更新ステップで算出された時刻t-1の状態変数ベクトルX t-1に対し、車両の移動速度「v」と角速度「ω」(これらをまとめて「制御値u=(v、ω」と表記する。)を作用させることで、時刻tの自車位置の推定値(「事前推定値」とも呼ぶ。)X を算出する。また、これと同時に、自車位置推定部17は、事前推定値X の誤差分布に相当する共分散行列「Σ 」を、直前の計測更新ステップで算出された時刻t-1での共分散行列「Σ t-1」から算出する。
 また、計測更新ステップでは、自車位置推定部17は、地図DB10に登録された地物の位置ベクトルとライダ2のスキャンデータとの対応付けを行う。そして、自車位置推定部17は、この対応付けができた場合に、対応付けができた地物のライダ2による計測値「Z」と、事前推定値X 及び地図DB10に登録された地物の位置ベクトルを用いてライダ2による計測処理をモデル化して求めた地物の計測推定値「Z 」とをそれぞれ取得する。計測値Zは、時刻tにライダ2が計測した地物の距離及びスキャン角度を表す2次元ベクトルである。そして、自車位置推定部17は、以下の式(1)に示すように、計測値Zと計測推定値Z との差分にカルマンゲイン「K」を乗算し、これを事前推定値X に加えることで、更新された状態変数ベクトル(「事後推定値」とも呼ぶ。)X を算出する。
       X =X +K(Z-Z )  式(1)
 また、計測更新ステップでは、自車位置推定部17は、予測ステップと同様、事後推定値X の誤差分布に相当する共分散行列Σ を事前共分散行列Σ から求める。カルマンゲインK等のパラメータについては、例えば拡張カルマンフィルタを用いた公知の自己位置技術と同様に算出することが可能である。
 ここで、検出精度情報Idetが示す検出精度が低い道路ペイントを基準として式(1)から事後推定値X を算出する場合、ライダ2の出力2に基づく計測値Zと地図DB10に登録された地物の位置ベクトルを用いて求めた計測推定値Z との差が大きくなる。即ち、この場合、式(1)においてカルマンゲインKを乗じる差分「Z-Z 」が大きくなる。この場合、式(1)により求められる事後推定値X の推定精度が低くなる。
 以上を勘案し、自動運転制御部18は、検出精度情報Idetが示す検出精度が低い道路ペイントを基準として位置推定を行うのを回避するように車両を制御する。これにより、自動運転制御部18は、位置推定精度が低下するのを好適に抑制する。具体的な制御方法については、以下の[道路ペイント情報に基づく第1車両制御]、および[道路ペイント情報に基づく第2車両制御]のセクションで詳しく説明する。
 [道路ペイント情報に基づく第1車両制御]
 道路ペイント情報に基づく第1車両制御は、車両が低検出精度となる道路ペイントが設けられる車線を走行する場合に、当該車線とは異なる車線に車線変更するように目標軌道を修正するものである。
 (1-1)処理フロー
 図6は、自動運転制御部18が実行する道路ペイント情報に基づく第1車両制御を示すフローチャートである。図6のフローチャートでは、自動運転制御部18は、道路ペイント情報の検出精度情報Idetに基づき検出精度が低いと判断される道路ペイントが目標軌道の近傍に存在する場合に、予め設定されていた車両の目標軌道を修正する。なお、図6のフローチャートの実行時には、自動運転制御部18は、設定された目的地への経路に沿った車両の目標軌道を設定しているものとする。
 まず、自動運転制御部18は、現在の位置推定精度が所定値よりも悪いか否か判定する(ステップS100)。例えば、自動運転制御部18は、拡張カルマンフィルタに基づく位置推定の算出過程で得られる誤差の共分散行列に基づき特定される誤差楕円の長径が所定長より長い場合に、現在の位置推定精度が所定値よりも悪いと判定する。そして、自動運転制御部18は、現在の位置推定精度が所定値よりも悪い場合(ステップS100;Yes)、ステップS101へ処理を進める。一方、自動運転制御部18は、現在の位置推定精度が所定値よりも悪くない場合(ステップS100;No)、フローチャートの処理を終了する。
 自動運転制御部18は、現在の位置推定精度が所定値よりも悪い場合、目的地までの経路を構成する道路の道路データに関連付けられた道路ペイント情報を地図DB10から取得する(ステップS101)。この場合、自動運転制御部18は、例えば、現在位置から所定距離以内に存在する経路上の道路に対応する道路ペイント情報を地図データ10から取得する。
 そして、自動運転制御部18は、検出精度情報Idetが示す検出精度が所定の閾値よりも低い検出精度(単に「低検出精度」とも呼ぶ。)となる道路ペイントが目標軌道の近傍(例えば目標軌道と同一車線)に存在するか否か判定する(ステップS102)。上述の閾値は、例えば、自車位置推定部17による位置推定の精度低下の有無を勘案して実験等に基づき予め定められ、記憶部12等に予め記憶される。
 そして、自動運転制御部18は、検出精度情報Idetが示す検出精度が低検出精度となる道路ペイントが目標軌道の近傍に存在すると判断した場合(ステップS102;Yes)、自車位置推定に反映する際の地図DB10との照合結果に対する重み付けを下げる(ステップS103)。例えば、自動運転制御部18は、低検出精度となる道路ペイントがライダ2の計測範囲内となる可能性がある走行区間では、式(1)の「K(Z-Z )」に対して1未満の所定の係数を乗じる。このように、ステップS103では、自動運転制御部18は、低検出精度となる道路ペイントが仮にライダ2の計測範囲内となる場合であっても、位置推定精度の低下を好適に低減することができる。
 次に、自動運転制御部18は、低検出精度となる道路ペイントを回避するように車両の目標軌道を修正する(ステップS104)。具体的には、自動運転制御部18は、低検出精度となる道路ペイントが設けられる車線とは異なる車線に車線変更するように目標軌道を修正する。他の例では、自動運転制御部18は、走行中の一車線道路の片側に低検出精度となる区画線が設けられている場合には、当該区画線と反対側の区画線に走行位置を偏らせるように車線内における目標軌道を修正する。このように、自動運転制御部18は、低検出精度となる道路ペイントから車両を遠ざけるように制御することで、低検出精度となる道路ペイントを基準として位置推定を行うのを好適に防ぐことができる。
 (1-2)具体例
 図7は、低検出精度となる複合的な道路ペイントが右側に存在する2車線の道路50上を走行する車両の俯瞰図である。図7の例では、道路50とその反対方向の道路51とを区画する単一区画線61及び複合区画線62が存在する。ここで、単一区画線61は、白線のみから構成される区画線であり、複合区画線62は、オレンジ線と白線とを含む複合的な区画線である。ここで、複合区画線62では、オレンジ線の両側にオレンジ線を強調するための櫛歯形状の白線が設けられている。また、破線「Lt」は、自動運転制御部18が設定する車両の目標軌道を示す。
 ここで、複合区画線62では、櫛歯形状の白線がオレンジ線の両側に設けられていることから、複合区画線62をライダ2により検出する場合には、オレンジ線の点群データに加えて、両側の櫛歯形状の白線の点群データも得られる。また、一般に、位置推定処理においてライダ2による地物の計測位置(図5における計測値z)を決定する場合、自車位置推定部17は、対象の地物の点群データが示す車両を基準とした2次元座標の重心座標を算出する。この場合、複合区画線62を用いた位置推定では、道路の幅方向においてばらつきが多い点群データがライダ2から得られることになり、道路の幅方向においてばらつきが多い点群データから計測位置(図5における計測値z)を決定することになる。この場合、ライダ2により計測した複合区画線62の位置座標を示す計測値zは、相対的に精度が低くなる。従って、図7の例では、複合区画線62に対応する道路ペイント情報の検出精度情報Idetが示す検出精度は、単一区画線61及び他の区画線63、64に対応する道路ペイント情報の検出精度情報Idetが示す検出精度よりも低い低検出精度に設定されている。
 この場合、自動運転制御部18は、車両が走行中の道路50に関連付けられた道路ペイント情報を地図DB10から参照し、複合区画線62に対応する道路ペイント情報の検出精度情報Idetが示す検出精度が所定の閾値よりも低い低検出精度であると判定する。従って、この場合、自動運転制御部18は、複合区画線62を基準として位置推定を行うのを避けるため、複合区画線62と近接しない道路50の左車線へ車線変更するように目標軌道(破線Lt参照)を設定する。そして、破線Ltが示す目標軌道に従い車両を走行させた場合、複合区画線62の横を通過する際に区画線63、64が最も近い区画線となる。よって、この場合、自車位置推定部17は、区画線63又は/及び区画線64を基準として位置推定を行い、車両の側面方向での位置精度を高水準に保つことができる。
 図8は、片側一車線の道路において低検出精度となる道路ペイントが設けられている場合の車両の俯瞰図を示す。図8の例では、一車線の道路53とその反対方向の道路54との間には、単一区画線66及び複合区画線67が設けられている。単一区画線66は、白線のみから構成され、複合区画線67は、白線及びオレンジ線から構成される。
 図8では、複合区画線67をライダ2により検出する場合、白線の点群データに加えて、オレンジ線の点群データも得られる。この場合、複合区画線67の点群データとして道路の幅方向においてばらつきが多い点群データがライダ2から得られることになり、複合区画線67に対する計測値zは、相対的に精度が低くなる。従って、図8の例では、複合区画線67に対応する道路ペイント情報の検出精度情報Idetが示す検出精度は、低検出精度に設定されている。
 この場合、自動運転制御部18は、車両が走行中の道路53に関連付けられた道路ペイント情報を地図DB10から参照し、複合区画線67に対応する道路ペイント情報の検出精度情報Idetが示す検出精度が所定の閾値よりも低い低検出精度であると判定する。従って、この場合、自動運転制御部18は、複合区画線67を基準として位置推定を行うのを避けるため、道路53内において複合区画線67よりも区画線68に偏った位置を走行するように目標軌道(破線Lt参照)を設定する。そして、破線Ltが示す目標軌道に従い車両を走行させた場合、複合区画線67の横を通過する際に区画線68が最も近い区画線となる。よって、この場合、自車位置推定部17は、区画線68を基準として位置推定を行い、車両の側面方向での位置精度を高水準に保つことができる。
 図9(A)は、検出精度情報Idetの検出精度が低検出精度となる道路ペイントの他の例を示す。図9(A)では、道路55及びその反対車線の道路56との間に複合区画線69が設けられている。複合区画線69は、道路55に沿って徐々に幅が広がっている。このような複合区画線69についても、道路ペイント情報の検出精度情報Idetが示す検出精度は低検出精度に設定される。
 図9(B)は、道路標示70~73が設けられた2車線の道路57を示す。図9(B)の例では、道路57の左車線に設けられた道路標示70、71についてはかすれが生じておらず、道路57の右車線に設けられた道路標示72、73についてはかすれが生じている。そして、道路標示72、73の道路ペイント情報には、低い検出精度であることを示す検出精度情報Idetが登録されている。従って、図9(B)の例では、自動運転制御部18は、車両が道路57を通過する場合、道路標示70~73の道路ペイント情報の検出精度情報Idetに基づき、道路標示72、73が設けられた車線を避けるべきと判断する。そして、自動運転制御部18は、検出精度情報Idetが示す検出精度が所定の閾値以上となる道路標示70、71が設けられた左車線を走行するように目標軌道を設定する。
 (1-3)経路探索への応用
 自動運転制御部18は、目的地への経路探索において、道路ペイント情報の検出精度情報Idetを参照し、低検出精度となる道路ペイントを避けるように経路探索を行ってもよい。
 この場合、自動運転制御部18は、例えば、ダイクストラ法に基づき、所要時間や距離などに応じて道路ごとに算出するリンクコストの合計が最小となる経路を探索する。このとき、自動運転制御部18は、所要時間や距離に加えて、検出精度情報Idetが示す検出精度に基づくコストをリンクコストに加算する。この場合、検出精度情報Idetに基づき加算するコストは、例えば、検出精度情報Idetが示す検出精度が低いほど高く設定される。このようにすることで、自動運転制御部18は、検出精度情報Idetが示す検出精度が高い道路から構成される経路を好適に探索することができる。また、自動運転制御部18は、低検出精度となる道路ペイントを含む道路に対応するリンクコストに対し、所要時間や距離などに対するコストよりも大幅に大きいコストを加算することで、低検出精度となる道路ペイントを有する道路を実質的に回避した経路を探索することも可能である。
 図10は、情報出力部16が表示する経路選択画面を概略的に示した図である。図10の例では、自動運転制御部18は、ユーザ入力に基づき指定された目的地等に基づき、検出精度情報Idetを勘案しない通常の経路探索に基づく推奨経路(「検出精度未考慮経路」とも呼ぶ。)83と、検出精度情報Idetを考慮した経路探索に基づく推奨経路(「検出精度考慮経路」とも呼ぶ。)84とをそれぞれ探索し、経路探索画面上に表示している。また、図10では、自動運転制御部18は、検出精度未考慮経路83上において、低検出精度となる道路ペイントを含む道路区間である低検出精度区間を破線により明示している。なお、図10において、マーク81は目的地を示し、マーク82は現在位置を示す。
 図10の例では、検出精度未考慮経路83には、低検出精度となる道路ペイントを含む道路区間である低検出精度区間が含まれており、当該区間において位置推定精度が低くなる可能性がある。一方、検出精度考慮経路84には、低検出精度区間が存在しないため、検出精度考慮経路84を走行する経路として選択した場合には、道路ペイントを基準とした位置推定を好適に実行することが可能である。このように、自動運転制御部18は、経路探索において道路ペイント情報を用いることで、低検出精度となる道路ペイントを含む道路区間を回避した経路を、走行する経路としてユーザに好適に選択させることができる。
 [道路ペイント情報に基づく第2車両制御]
 道路ペイント情報に基づく第2車両制御は、進行方向または側面方向の位置推定誤差が所定の閾値よりも大きい場合に、道路ペイント情報に含まれる検出精度情報Idetおよび適性方向情報Sdiに基づいて、当該誤差が大きい方向の自車位置推定の基準として適した道路ペイントを所定の基準で検索し、当該自車位置推定の基準として適した道路ペイントに接近するように目標軌道を修正するものである。
 (2-1)処理フロー
 図11は、自動運転制御部18が実行する道路ペイント情報に基づく第2車両制御を示すフローチャートである。図11のフローチャートでは、自動運転制御部18は、道路ペイント情報の検出精度情報Idet、および適性方向情報Sdiに基づいて自車位置推定の誤差が大きい方向の自車位置推定の基準として適した道路ペイントを検索し、当該適した道路ペイントが目標軌道の近傍に存在する場合に、予め設定されていた車両の目標軌道を修正する。なお、図11のフローチャートの実行時には、自動運転制御部18は、設定された目的地への経路に沿った車両の目標軌道を設定しているものとする。
 まず、自動運転制御部18は、車両の進行方向及び側面方向における位置推定の誤差を特定する(ステップS201)。例えば、自動運転制御部18は、拡張カルマンフィルタに基づく位置推定の算出過程で得られる誤差の共分散行列に対して自車の方位θを用いた回転行列による変換を行うことで、車両の進行方向及び側面方向における位置推定の誤差をそれぞれ特定する。
 次に、自動運転制御部18は、自車位置推定部17の進行方向における位置推定精度と、側面方向における位置推定精度をそれぞれ監視する。そして、自動運転制御部18は、位置推定精度が低い方向(「低位置精度方向Dtag」とも呼ぶ。)が存在するか否かを判定する(ステップS202)。例えば、自動運転制御部18は、ステップS201で特定した進行方向及び側面方向のそれぞれにおける位置推定誤差を所定の閾値と比較し、位置推定誤差が所定の閾値よりも大きい方向を低位置精度方向Dtagとして検出する。そして、低位置精度方向Dtagが検出されたか否かを判定する。ここで、車両の進行方向及び側面方向は、本発明における「第1方向」及び「第2方向」の一例である。
 ステップS202において、自動運転制御部18は、低位置精度方向Dtagが存在しないと判断した場合(ステップS202;No)、車両の目標軌道を修正する必要がないと判断し、フローチャートの処理を終了する。一方、自動運転制御部18は、低位置精度方向Dtagが存在すると判断した場合(ステップS202;Yes)、目的地までの経路を構成する道路の道路データに関連付けられた道路ペイント情報を地図DB10から取得する(ステップS203)。この場合、自動運転制御部18は、例えば、現在位置から所定距離以内に存在する経路上の道路に対応する道路ペイント情報を地図DB10から取得する。
 そして、自動運転制御部18は、低位置精度方向Dtagの自車位置推定の基準として適した道路ペイントが目標軌道の近傍に存在する否かを判定する(ステップS204)。この場合、自動運転制御部18は、目標軌道の近傍の道路ペイントのうちから、道路ペイント情報に含まれる検出精度情報Idet、および適性方向情報Sdiに基づいて、所定の基準よりも低検出精度と判定される道路ペイント、および低位置精度方向Dtagの自車位置推定の基準として所定の基準よりも不適と判定される道路ペイントを除外して低位置精度方向Dtagの自車位置推定の基準として適した道路ペイントを検索し、検索の結果、低位置精度方向Dtagの自車位置推定の基準として適した道路ペイントが目標軌道の近傍に存在するかを判定する。
 そして、自動運転制御部18は、低位置精度方向Dtagの自車位置推定の基準として適した道路ペイントが目標軌道の近傍に存在すると判断した場合(ステップS204;Yes)、当該道路ペイントに接近するように車両の目標軌道を修正する(ステップS205)。具体的には、自動運転制御部18は、基準として適した道路ペイントが設けられる車線に車線変更するように目標軌道を修正する。自車位置推定の基準として適した道路ペイントが複数存在する場合には、自動運転制御部18は、より適性度の高い道路ペイントが設けられる車線に車線変更するように目標軌道を修正してもよいし、元の目標軌道に近い方の道路ペイントが設けられる車線に車線変更するように目標軌道を修正してもよい。他の例では、自動運転制御部18は、走行中の一車線道路の片側に基準として適した区画線が設けられている場合には、当該区画線側に走行位置を偏らせるように車線内における目標軌道を修正する。一方、ステップS204において、自動運転制御部18は、低位置精度方向Dtagが存在しないと判断した場合(ステップS204;No)、車両の目標軌道を修正する必要がないと判断し、フローチャートの処理を終了する。
 このように、自動運転制御部18は、低位置精度方向Dtagの自車位置推定の基準として適した道路ペイントが目標軌道の近傍に存在する場合に、当該道路ペイントに車両が接近するように制御することで、当該道路ペイントを基準として位置推定を好適に行うことができる。
 なお、道路ペイント情報に基づく第2車両制御においても道路ペイント情報に基づく第1車両制御と同様に、自動運転制御部18は、検出精度情報Idetが示す検出精度が低検出精度となる道路ペイントが目標軌道の近傍に存在すると判断した場合に、自車位置推定に反映する際の地図DB10との照合結果に対する重み付けを下げることで、低検出精度となる道路ペイントが仮にライダ2の計測範囲内となる場合であっても、位置推定精度の低下を好適に低減するようにしてもよい。
 (2-2)具体例
 図12は、低検出精度となる道路ペイントが左側に存在する2車線の道路90上を走行する車両の俯瞰図である。図12の例では、道路90とその反対方向の道路91とを区画する区画線である実線93、道路90内を区画する区画線である破線92、道路90の左端の区画線である実線94が存在する。ここで、実線94にはかすれが生じているものとする。また、破線「Lt」は、自動運転制御部18が設定する車両の目標軌道を示す。
 実線94にはかすれが生じているため、実線94に対応する道路ペイント情報の検出精度情報Idetが示す検出精度は、破線92及び実線93に対応する道路ペイント情報の検出精度情報Idetが示す検出精度よりも低い低検出精度に設定されている。また、実線93及び実線94は、車両の進行方向に連続的に延伸しているため、実線93及び実線94に対応する道路ペイント情報の適性方向情報Sdiには、車両の側面方向の自車位置推定の基準としての適性度が最適であり、車両の進行方向の自車位置推定の基準としての適性度が不適であることを示す情報が設定されている。また、破線92は、車両の進行方向に非連続的に延伸しているため、破線92に対応する道路ペイント情報の適性方向情報Sdiには、車両の側面方向の自車位置推定の基準としての適性度が好適であり、車両の進行方向の自車位置推定の基準としての適性度も好適であることを示す情報が設定されている。
 ここで、自動運転制御部18は、車両の側面方向の自車位置推定の誤差が所定の閾値よりも大きいと判定したとする。すなわち、車両の側面方向が低位置精度方向Dtagであると判定したとする。この場合、自動運転制御部18は、地図DB10から破線92、実線93及び実線94に対応する道路ペイント情報を参照する。自動運転制御部18は、まず、実線94に対応する検出精度情報Idetが低検出精度を示すことから、実線94を位置推定の基準の候補から除外する。続いて、残った候補である破線92、実線93のそれぞれに対応する適性方向情報Sdiのうち、低位置精度方向Dtagである車両の側面方向の自車位置推定に対する適性度を比較し、実線93の適性度の方が高いことから、実線93を位置推定の基準として決定し、実線93に接近するように目標軌道を修正することになる。そして、破線Ltが示す目標軌道に従い車両を走行させた場合、自車位置推定部17は、実線93を基準として位置推定を行うことで、車両の側面方向の位置精度を高水準に保つことができる。また、その後、車両の進行方向も低位置精度方向Dtagであると判定された場合は、この車線の中で、破線92に接近するように目標軌道を少し修正することで、車両の進行方向の位置精度も高水準に保つことができる。
 あるいは、上記に代えて、自動運転制御部18は、破線92、実線93及び実線94のそれぞれに対応する検出精度情報Idetが示す検出精度、及び適性方向情報Sdiが示す適性度をそれぞれ所定の基準でスコア化し、検出精度のスコアと適性度のスコアとに基づいて総合的に判定することで、低位置精度方向Dtagの自車位置推定の基準に適する道路ペイントを決定するようにしてもよい。
 なお、上記の例では、車両の側面方向の自車位置推定の誤差が所定の閾値よりも大きい場合について説明したが、車両の進行方向の自車位置推定の誤差が所定の閾値よりも大きい場合については、適性方向情報Sdiのうちの車両の進行方向の自車位置推定に対する適性度が高い道路ペイントを位置推定の基準として決定すればよい。また、車両の進行方向の自車位置推定の誤差と側面方向の自車位置推定の誤差の両方が所定の閾値よりも大きい場合については、適性方向情報Sdiのうちの車両の進行方向の自車位置推定に対する適性度及びが側面方向の自車位置推定に対する適性度の両者が、所定の基準以上の適性度である道路ペイントを位置推定の基準として決定すればよい。
 以上説明したように、本実施例における車載機1は、自車位置推定部17と、自動運転制御部18とを有する。自車位置推定部17は、ライダ2による道路ペイントの検出結果と地図DB10との照合を行うことで、自車位置を推定する。自動運転制御部18は、道路ペイント毎の照合の精度を示す検出精度情報Idetを含む路面ペイント情報を地図DB10から取得する。そして、自動運転制御部18は、少なくとも検出精度情報Idetに基づき、所定値以上の精度で照合が可能となるように車両を制御する情報を車両の電子制御装置又は情報出力部16へ出力する。この態様により、車載機1は、自車位置推定の精度を好適に向上させることができる。
 [変形例]
 以下、実施例に好適な変形例について説明する。以下の変形例は、組み合わせて実施例に適用してもよい。
 (変形例1)
 車載機1は、地図DB10を記憶部12に記憶する構成に代えて、図示しないサーバ装置が地図DB10を有してもよい。この場合、車載機1は、図示しない通信部でサーバ装置と通信することにより、必要な路面ペイント情報等を取得する。
 (変形例2)
 図1に示す運転支援システムの構成は一例であり、本発明が適用可能な運転支援システムの構成は図1に示す構成に限定されない。例えば、運転支援システムは、車載機1を有する代わりに、車両の電子制御装置が車載機1の自車位置推定部17及び自動運転制御部18等の処理を実行してもよい。この場合、地図DB10は、例えば車両内の記憶部に記憶され、車両の電子制御装置は、地図DB10の更新情報を図示しないサーバ装置から受信してもよい。
 1 車載機
 2 ライダ
 3 ジャイロセンサ
 4 車速センサ
 5 GPS受信機
 10 地図DB

Claims (14)

  1.  検出装置による道路ペイントの検出結果と地図情報との照合を行う照合部と、
     道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得部と、
     前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力部と、
    を備える出力装置。
  2.  前記出力部は、前記移動体の経路に設けられた道路ペイントから前記照合が前記所定値未満の精度となる低精度道路ペイントを特定し、当該低精度道路ペイントから前記移動体を遠ざけるように前記移動体を制御するための前記制御情報を出力する請求項1に記載の出力装置。
  3.  前記出力部は、前記精度情報に基づき目的地までの経路を探索し、探索した経路の情報を前記制御情報として出力する請求項1または2に記載の出力装置。
  4.  前記出力部は、前記所定値以上の精度で前記照合が可能な経路の情報を、推奨する経路として表示部に表示させるための前記制御情報を出力する請求項3に記載の出力装置。
  5.  前記出力部は、前記移動体の経路に設けられた道路ペイントから前記照合が前記所定値以上の精度となる高精度道路ペイントを特定し、当該高精度道路ペイントに前記移動体を近づけるように前記移動体を制御するための前記制御情報を出力する請求項1に記載の出力装置。
  6.  前記移動体の進行方向に対する第1方向及び第2方向のそれぞれの位置推定誤差を所定の閾値と比較し、前記位置推定誤差が前記閾値よりも大きい方向を検出する検出部と、
     前記検出部により検出された方向の位置推定の基準として、前記道路ペイントが使用される場合の適性度を示す適性度情報を、前記道路ペイントごとに取得する第2取得部と、
    を備え、
     前記出力部は、前記精度情報及び前記適性度情報に基づいて前記高精度道路ペイントを特定する請求項5に記載の出力装置。
  7.  前記照合の結果に基づき、前記移動体の位置推定を行う位置推定部をさらに備える請求項1~6のいずれか一項に記載の出力装置。
  8.  前記出力部は、前記位置推定部による前記位置推定の精度に基づき、前記照合が前記所定値未満の精度となる道路ペイントから前記移動体を遠ざける制御の要否を判定する請求項7に記載の出力装置。
  9.  前記位置推定部は、前記照合が前記所定値未満の精度となる道路ペイントが前記検出装置による検出範囲に含まれる場合、前記照合の結果による前記位置推定への反映の重み付けを小さくする請求項7または8に記載の出力装置。
  10.  前記精度情報において前記照合の精度が前記所定値未満となる道路ペイントは、複合的な線により表わされた区画線である請求項1~9のいずれか一項に記載の出力装置。
  11.  前記精度情報において前記照合の精度が前記所定値未満となる道路ペイントは、かすれが生じている道路ペイントである請求項1~9のいずれか一項に記載の出力装置。
  12.  出力装置が実行する制御方法であって、
     検出装置による道路ペイントの検出結果と地図情報との照合を行う照合工程と、
     道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得工程と、
     前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力工程と、
    を有する制御方法。
  13.  コンピュータが実行するプログラムであって、
     検出装置による道路ペイントの検出結果と地図情報との照合を行う照合部と、
     道路ペイント毎の前記照合の精度を示す精度情報を取得する第1取得部と、
     前記精度情報に基づき、所定値以上の精度で前記照合が可能となるように移動体を制御するための制御情報を出力する出力部
    としてコンピュータを機能させるプログラム。
  14.  請求項13に記載のプログラムを記憶した記憶媒体。
PCT/JP2018/008346 2017-03-28 2018-03-05 出力装置、制御方法、プログラム及び記憶媒体 WO2018180247A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18774558.3A EP3605498A4 (en) 2017-03-28 2018-03-05 OUTPUT DEVICE, CONTROL METHOD, PROGRAM AND STORAGE MEDIUM
JP2019509087A JPWO2018180247A1 (ja) 2017-03-28 2018-03-05 出力装置、制御方法、プログラム及び記憶媒体
US16/499,579 US12099361B2 (en) 2017-03-28 2018-03-05 Output device, control method, program and storage medium for control of a moving body based on road marking detection accuracy

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-062441 2017-03-28
JP2017062441 2017-03-28

Publications (1)

Publication Number Publication Date
WO2018180247A1 true WO2018180247A1 (ja) 2018-10-04

Family

ID=63675329

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008346 WO2018180247A1 (ja) 2017-03-28 2018-03-05 出力装置、制御方法、プログラム及び記憶媒体

Country Status (4)

Country Link
US (1) US12099361B2 (ja)
EP (1) EP3605498A4 (ja)
JP (4) JPWO2018180247A1 (ja)
WO (1) WO2018180247A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114089739A (zh) * 2020-05-21 2022-02-25 深圳市海柔创新科技有限公司 导航方法及导航装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619666B (zh) * 2019-09-20 2022-05-27 阿波罗智能技术(北京)有限公司 用于标定相机的方法及装置
JP7256216B2 (ja) * 2021-02-25 2023-04-11 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012117944A (ja) * 2010-12-01 2012-06-21 Aisin Aw Co Ltd ナビゲーション装置
JP2013083576A (ja) * 2011-10-11 2013-05-09 Aisin Aw Co Ltd 自車位置認識システム、自車位置認識プログラム、及び自車位置認識方法
JP2015141611A (ja) 2014-01-29 2015-08-03 アイシン・エィ・ダブリュ株式会社 自動運転支援装置、自動運転支援方法及びプログラム
WO2016035199A1 (ja) * 2014-09-05 2016-03-10 三菱電機株式会社 自動走行管理システム、サーバおよび自動走行管理方法
JP2017041070A (ja) * 2015-08-19 2017-02-23 ソニー株式会社 車両制御装置と車両制御方法と情報処理装置および交通情報提供システム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3419648B2 (ja) * 1997-05-27 2003-06-23 株式会社日立製作所 ナビゲーション装置
JP3575352B2 (ja) * 1999-10-25 2004-10-13 株式会社デンソー 車両用位置標定装置及び記録媒体
JP2009180631A (ja) * 2008-01-31 2009-08-13 Denso It Laboratory Inc ナビゲーション装置、ナビゲーション方法およびプログラム
US8618922B2 (en) * 2010-03-30 2013-12-31 GM Global Technology Operations LLC Method and system for ensuring operation of limited-ability autonomous driving vehicles
JP5206752B2 (ja) 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
DE102012206903A1 (de) * 2012-04-26 2013-10-31 Robert Bosch Gmbh Verfahren für ein Assistenzsystem eines Fahrzeugs
US9719801B1 (en) * 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
JP6467773B2 (ja) * 2014-02-25 2019-02-13 アイシン・エィ・ダブリュ株式会社 経路探索システム、経路探索方法及びコンピュータプログラム
EP2918974B1 (en) * 2014-03-11 2019-01-16 Volvo Car Corporation Method and system for determining a position of a vehicle
US9834207B2 (en) * 2014-04-15 2017-12-05 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects
JP6075351B2 (ja) * 2014-10-10 2017-02-08 トヨタ自動車株式会社 操舵支援制御装置
US9530313B2 (en) 2014-10-27 2016-12-27 Here Global B.V. Negative image for sign placement detection
US9483059B2 (en) * 2014-11-26 2016-11-01 Toyota Motor Engineering & Manufacturing North America, Inc. Method to gain driver's attention for autonomous vehicle
EP3267421A4 (en) 2015-03-03 2018-11-14 Pioneer Corporation Route searching device, control method, program, and storage medium
JP6491929B2 (ja) 2015-03-31 2019-03-27 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP6477888B2 (ja) * 2015-07-27 2019-03-13 日産自動車株式会社 経路誘導装置及び経路誘導方法
KR20170015115A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
BR112018006470A2 (pt) * 2015-09-30 2020-06-09 Nissan Motor método de controle de deslocamento e aparelho de controle de deslocamento
JP2017151703A (ja) * 2016-02-24 2017-08-31 トヨタ自動車株式会社 自動運転装置
US9851212B2 (en) * 2016-05-06 2017-12-26 Ford Global Technologies, Llc Route generation using road lane line quality
US20170356748A1 (en) * 2016-06-14 2017-12-14 nuTonomy Inc. Route Planning for an Autonomous Vehicle
US10369994B2 (en) * 2016-07-20 2019-08-06 Ford Global Technologies, Llc Rear camera stub detection
DE102016213782A1 (de) * 2016-07-27 2018-02-01 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
US20180067494A1 (en) * 2016-09-02 2018-03-08 Delphi Technologies, Inc. Automated-vehicle 3d road-model and lane-marking definition system
JP6778063B2 (ja) * 2016-09-07 2020-10-28 株式会社Soken 運転支援装置、運転支援方法
KR102529903B1 (ko) * 2016-12-14 2023-05-08 현대자동차주식회사 차량의 위치 추정 장치 및 방법
US11560145B2 (en) * 2017-01-10 2023-01-24 Mitsubishi Electric Corporation Travel path recognition apparatus and travel path recognition method
KR20180106417A (ko) * 2017-03-20 2018-10-01 현대자동차주식회사 차량의 위치 인식 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012117944A (ja) * 2010-12-01 2012-06-21 Aisin Aw Co Ltd ナビゲーション装置
JP2013083576A (ja) * 2011-10-11 2013-05-09 Aisin Aw Co Ltd 自車位置認識システム、自車位置認識プログラム、及び自車位置認識方法
JP2015141611A (ja) 2014-01-29 2015-08-03 アイシン・エィ・ダブリュ株式会社 自動運転支援装置、自動運転支援方法及びプログラム
WO2016035199A1 (ja) * 2014-09-05 2016-03-10 三菱電機株式会社 自動走行管理システム、サーバおよび自動走行管理方法
JP2017041070A (ja) * 2015-08-19 2017-02-23 ソニー株式会社 車両制御装置と車両制御方法と情報処理装置および交通情報提供システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114089739A (zh) * 2020-05-21 2022-02-25 深圳市海柔创新科技有限公司 导航方法及导航装置

Also Published As

Publication number Publication date
US20200026297A1 (en) 2020-01-23
EP3605498A4 (en) 2021-01-13
JP2021120683A (ja) 2021-08-19
JPWO2018180247A1 (ja) 2020-02-06
JP2024105508A (ja) 2024-08-06
JP2023078138A (ja) 2023-06-06
EP3605498A1 (en) 2020-02-05
US12099361B2 (en) 2024-09-24

Similar Documents

Publication Publication Date Title
WO2018181974A1 (ja) 判定装置、判定方法、及び、プログラム
WO2018221453A1 (ja) 出力装置、制御方法、プログラム及び記憶媒体
JP7155284B2 (ja) 計測精度算出装置、自己位置推定装置、制御方法、プログラム及び記憶媒体
JP6806891B2 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2024105508A (ja) 出力装置、制御方法、プログラム及び記憶媒体
JP2021113816A (ja) 出力装置、制御方法、プログラム及び記憶媒体
JP2022176322A (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
JP2023164553A (ja) 位置推定装置、推定装置、制御方法、プログラム及び記憶媒体
JP2023054314A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2023118751A (ja) 自己位置推定装置
WO2018212302A1 (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
US20230105255A1 (en) Measurement device, measurement method and program
WO2018221456A1 (ja) 経路探索装置、制御方法、プログラム及び記憶媒体
WO2018212290A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
US20240053440A1 (en) Self-position estimation device, self-position estimation method, program, and recording medium
JP2024161585A (ja) 自己位置推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18774558

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509087

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018774558

Country of ref document: EP

Effective date: 20191028