[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2020045317A1 - 地図システム、方法および記憶媒体 - Google Patents

地図システム、方法および記憶媒体 Download PDF

Info

Publication number
WO2020045317A1
WO2020045317A1 PCT/JP2019/033203 JP2019033203W WO2020045317A1 WO 2020045317 A1 WO2020045317 A1 WO 2020045317A1 JP 2019033203 W JP2019033203 W JP 2019033203W WO 2020045317 A1 WO2020045317 A1 WO 2020045317A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
map
landmark
information
server
Prior art date
Application number
PCT/JP2019/033203
Other languages
English (en)
French (fr)
Inventor
悠太 藤井
横山 隆久
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020045317A1 publication Critical patent/WO2020045317A1/ja
Priority to US17/185,665 priority Critical patent/US11410332B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3661Guidance output on an external device, e.g. car radio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Definitions

  • the disclosure of this specification relates to a map system, a method, and a storage medium for driving a vehicle autonomously.
  • position information such as landmarks is recorded using an image captured by a camera mounted on a vehicle, and the information is uploaded to a server or the like to generate a sparse map.
  • a technique for downloading a generated sparse map and determining the position of the host vehicle is disclosed.
  • an object of the disclosure of this specification is to provide a map system and a method for improving the frequency of detection of landmarks and a storage medium for causing a computer to execute them.
  • One example of a map system disclosed in this specification is a system for autonomously driving a vehicle along a road segment, the system including at least one processor, wherein the processor receives, from an imaging device, an environment of the vehicle. Obtaining at least one image representing the vehicle; obtaining the brightness of the environment of the vehicle; analyzing the image to calculate a position of the landmark with respect to the road on which the vehicle traveled; Uploading the map information including the information to the server, and determining the position of the own vehicle based on the position of the landmark calculated based on the image and the map information stored in the server.
  • the illumination light is emitted in a direction in which the presence of the landmark is assumed.
  • the illuminating device or the like is configured so that the map system emits illumination light in a direction in which the landmark is expected to exist. Is controlled, the frequency of detection of landmarks can be improved. Accordingly, the frequency of calculating the coordinates of the landmarks from the image is also improved, so that it is possible to collate with the coordinates of the landmarks included in the map information for a longer time, and the position of the own vehicle can be specified more accurately. it can.
  • FIG. 4 is a diagram illustrating an example of information included in map data. It is a conceptual diagram which shows an example of the structure of map data.
  • 9 is a flowchart illustrating probe data upload control by a main processor. It is a figure which shows a low frequency area (or prohibited area).
  • 5 is a flowchart illustrating an example of control executed by a server processor. It is a figure showing dispersion of a landmark.
  • FIG. 4 is a diagram illustrating a relationship between a reference mark and other landmarks.
  • FIG. 9 is a flowchart illustrating a correction process using a reference mark.
  • 5 is a flowchart illustrating an example of control executed by a server processor.
  • 5 is a flowchart illustrating an example of control executed by a main processor.
  • 5 is a flowchart illustrating an example of control executed by a main processor.
  • 5 is a flowchart illustrating an example of control executed by a main processor.
  • 5 is a flowchart illustrating an example of control executed by a main processor.
  • FIG. 4 is a diagram showing a blind spot portion when the inter-vehicle distance between a host vehicle and a preceding vehicle is short.
  • FIG. 4 is a diagram illustrating a blind spot portion when the inter-vehicle distance between the host vehicle and a preceding vehicle is relatively long.
  • FIG. 5 is a flowchart illustrating an example of control executed by a main processor. It is a figure which shows the light distribution state in anti-glare light distribution. It is a flowchart which shows an example of the control when a destination is not set.
  • FIG. 5 is a diagram illustrating an example of a map tile to be downloaded. It is a flowchart which shows the control when a destination is set.
  • FIG. 5 is a diagram illustrating an example of a map tile to be downloaded. It is a block diagram showing a modification of the composition of in-vehicle system 2. It is a block diagram showing a modification of the composition of in-vehicle system 2.
  • the map system 1 includes at least one vehicle equipped with an on-vehicle system 2 described later, and a server 3 storing map information (hereinafter also referred to as map data).
  • FIG. 1 shows only one block representing a vehicle on which the in-vehicle system 2 is mounted, the map system 1 may include a plurality of mounted vehicles. Each vehicle is configured to be able to wirelessly communicate with the server 3. The vehicle can travel on a road, and travel while sequentially collecting probe data as described later. Further, the vehicle includes an automatic driving system or a driving support system, and performs driving control using map data acquired from the server 3.
  • the map system 1 corresponds to a system for autonomously driving a vehicle along a road segment using map data including coordinate information of a plurality of features existing along a road on one side.
  • the expression “along the road” includes not only the side of the road but also the upper part of the road and the road surface.
  • a direction signboard or a beacon station located 3 m or more above a road surface also corresponds to a feature installed along the road.
  • Road markings such as marking lines using paint or road studs also correspond to features existing along the road. Along the road can be paraphrased on and around the road.
  • the above features include the road edge itself.
  • the level of automatic driving using map data is not limited to level 3 or higher, and may be equivalent to level 2.
  • the automation level 2 is one in which the system including the ECU executes the subtasks of the vehicle motion control in both the vertical direction and the horizontal direction in a limited area, for example, automatically performs steering correction for maintaining a lane and speed adjustment.
  • the automation level 3 here is one in which the system performs all the driving operations in a specific place (ODD: Operational Design Domain), and when it is difficult to continue the operation, the authority is transferred to the driver's seat occupant. Point to.
  • the automation level 4 is a level at which the duty of monitoring by the driver occupant specified in the level 3 is released.
  • the automation level 5 indicates a level at which fully automatic driving on all roads is possible.
  • the in-vehicle system 2 mounted on each vehicle includes a camera 10 as an imaging device, an image processor 20, a sensor 30 as a state acquisition unit for acquiring a state of the vehicle, a main processor 40, a communication module 50, a human machine An interface 60 (hereinafter, HMI), an actuator 70, and a memory 80 are provided.
  • the in-vehicle system 2 corresponds to a vehicle-side device or a vehicle control device.
  • a vehicle on which the main processor 40 is mounted is also referred to as a host vehicle.
  • the map system 1 functions additionally to a function for specifying the position of the own vehicle such as GPS, and is effective in specifying the position of the own vehicle with higher accuracy.
  • the map system 1 is roughly divided into two functions: map utilization and map update.
  • map utilization the map information stored in the server 3 is downloaded to the vehicle, and the vehicle uses the map information and the position of a landmark such as a sign included in the image captured by the camera 10 based on the downloaded map information. Locate the vehicle.
  • map update information obtained by the camera 10 or the sensor 30 mounted on the vehicle is uploaded to the server 3 as probe data, and the map information in the server 3 is sequentially updated.
  • the camera 10 is mounted on a vehicle and captures an image of the environment around the vehicle at a wavelength in the visible light region.
  • the camera 10 captures, for example, an environment in front of the vehicle.
  • the camera 10 may be configured to capture an image of at least one of the rear side and the side, not limited to the front of the vehicle.
  • the vehicle may include a plurality of cameras 10.
  • the vehicle may include four cameras 10, a front camera for imaging a predetermined range in front, a rear camera for imaging a predetermined range in the rear, a right camera for imaging right, and a left camera for imaging left.
  • a distant camera for imaging a relatively distant place and a short-distance camera for imaging a short distance may be provided.
  • the camera 10 may be a wide-angle camera having an angle of view exceeding 100 °.
  • the wavelength of light captured by the camera 10 is not limited to visible light, but may include ultraviolet and infrared light.
  • the camera 10 may be an infrared camera.
  • the vehicle may include a visible light camera that captures visible light and an infrared camera.
  • the camera 10 is configured as a camera module including, for example, a CMOS image sensor serving as an image sensor (not shown) and an image processing engine (not shown).
  • Information on the environment around the vehicle captured by the camera 10 is stored in the memory 80 in the form of a still image or a moving image (hereinafter, these are collectively referred to as images).
  • An image processor 20 described later executes various processes based on data stored in the memory 80.
  • the image processor 20 may be provided for each camera 10, or one image processor 20 may process image data of the plurality of cameras 10. It may be.
  • the configuration and arrangement of functions of the camera 10 can be changed as appropriate.
  • the image processor 20 analyzes an image captured by the camera 10.
  • the image processor 20 detects a predetermined feature, for example, by analyzing an image.
  • the feature to be detected is, for example, a feature required for vehicle control.
  • the feature to be detected corresponds to an element to be recorded in map data (hereinafter, also referred to as a map element) from another viewpoint.
  • the features detected by the image processor 20 include, for example, road markings (in other words, road markings) and landmarks.
  • Road marking refers to paint painted on the road mainly for traffic control and traffic regulation.
  • Road markings include regulation markings and instruction markings.
  • lane boundaries so-called lane markings, lane marks
  • Road markings include those realized by road studs such as chatter bars and botsdots.
  • the landmark 63 includes a sign, a traffic light, a pole, a sign, and the like corresponding to a traffic sign such as a regulation sign, a guide sign, a warning sign, an instruction sign, and the like.
  • the guidance sign refers to a direction sign, a sign indicating a region name, a sign indicating a road name, a notice sign indicating a doorway of a highway, a service area, and the like.
  • the landmarks 63 may include symbolic buildings such as street lamps, mirrors, telephone poles, commercial advertisements, shops, and historic buildings.
  • the poles include streetlights and telephone poles. Further, a part of the road surface display (for example, a lane mark or a pause line) can be treated as a landmark.
  • Landmarks also include road pavement, undulations, joints, and the like.
  • the image processor 20 separates and extracts the background and the landmark 63 from the captured image based on image information including color, luminance, contrast regarding the color and luminance, and the like. Further, the landmark 63 may be extracted based on the size, shape, and installation position.
  • the image processor 20 uses the SfM (Structure from Motion) technology to obtain the yaw rate, the longitudinal acceleration, the lateral acceleration, the wiper operation state, and the like of the vehicle from the image captured by the camera 10.
  • SfM Structure from Motion
  • a state quantity indicating behavior (hereinafter, behavior information) is also detected.
  • the camera 10 corresponds to an example of the surrounding monitoring sensor.
  • the in-vehicle system 2 of the present embodiment includes the camera 10 as a peripheral monitoring sensor, but the peripheral monitoring sensor configuring the map system 1 is not limited to the camera 10.
  • the peripheral monitoring sensor may be a millimeter-wave radar or a LiDAR (Light Detection and Ranging / Laser Imaging and Detection and Ranging).
  • the LiDAR may be a scanning LiDAR or a flash LiDAR. It is preferable that the LiDAR is SPAD LiDAR (Single Photon Avalanche Diode Light Detection And Ranging) from the viewpoint of resolution and the like.
  • various object detection devices such as a sonar can be used as the periphery monitoring sensor.
  • the three-dimensional ranging point group data generated by the LiDAR, the detection result of the millimeter wave radar, the detection result of the sonar, and the like correspond to the peripheral object data.
  • the three-dimensional ranging point group data is also called a distance image.
  • the detection target may be recognized using the distance information for each ranging point / direction and the reception intensity information.
  • Various methods can be used as an object recognition method using LiDAR, millimeter wave radar, sonar, or the like.
  • the map system 1 may include a plurality of types of devices as surrounding monitoring sensors.
  • the map system 1 may include, as a surrounding monitoring sensor, a LiDAR configured to include the front of the vehicle in a detection range in addition to the front camera serving as the camera 10.
  • a technology that uses detection results of a plurality of types of sensors together may be used.
  • the accuracy of detecting the distance to the landmark can be improved.
  • the landmark recognition rate can be secured by using the detection results of the millimeter wave radar complementarily.
  • the camera 10 that captures an image of the front of the vehicle, a millimeter wave radar, a LiDAR, and the like correspond to the forward monitoring device.
  • the sensor 30 serving as the state acquisition unit includes, for example, a speed sensor, an acceleration sensor, a yaw rate sensor (a gyro sensor in a broad sense), a steering angle sensor, an illuminance sensor, and a positioning sensor (for example, a GPS receiver) 30a.
  • a speed sensor for example, a speed sensor, an acceleration sensor, a yaw rate sensor (a gyro sensor in a broad sense), a steering angle sensor, an illuminance sensor, and a positioning sensor (for example, a GPS receiver) 30a.
  • a speed sensor for example, an acceleration sensor, a yaw rate sensor (a gyro sensor in a broad sense), a steering angle sensor, an illuminance sensor, and a positioning sensor (for example, a GPS receiver) 30a.
  • a yaw rate sensor for example, a gyro sensor in a broad sense
  • a steering angle sensor for example, a steering angle sensor, an
  • the speed sensor acquires the speed of the vehicle.
  • the acceleration sensor acquires the traveling direction of the vehicle and acceleration in a direction orthogonal to the traveling direction.
  • the yaw rate sensor acquires a yaw rate acting on the vehicle.
  • the steering angle sensor acquires a steering angle of the steering.
  • the illuminance sensor acquires the brightness around the vehicle.
  • the GPS receiver as the positioning sensor 30a sequentially acquires and outputs coordinate information (latitude, longitude, altitude) indicating the current position of the vehicle.
  • the GPS receiver is configured to output data such as the GPS Doppler velocity, the number and elevation angles of the positioning satellites being captured, the pseudorange, the SN ratio of the received satellite signal, and whether or not correction information is used. It may be.
  • GNSS Global Navigation Satellite System
  • the GNSS used by the vehicle may be GLONASS, Beidou, Galileo, IRNSS, or the like.
  • a pavement state or undulation of a road on which the vehicle is traveling, a joint between a bridge and other roads, and the like can be detected by a sensor or the like that detects vibration of the vehicle.
  • These road pavement states, undulations, joints, and the like can also be employed as landmarks 63 for specifying positions on a map.
  • the main processor 40 is communicably connected to the image processor 20 and the sensor 30, and calculates and processes various information input from the image processor 20 and the sensor 30.
  • the main processor 40 generates a traveling trajectory that the vehicle is predicted to travel based on, for example, the speed, acceleration, and yaw rate of the vehicle. That is, the main processor 40 generates a travel plan (so-called path plan) for automatic driving.
  • the path plan includes not only setting the traveling trajectory but also determining the steering control amount at each time point, the target vehicle speed, and the timing of transferring the driving authority to the occupant.
  • the yaw rate, the longitudinal acceleration, and the lateral acceleration values detected by the image processor 20 from the image captured by the camera 10 using the SfM technology may be used.
  • the main processor 40 may be configured to use the output value of the yaw rate sensor as the sensor 30 when the image processor 20 cannot detect the yaw rate.
  • a yaw rate determined from a captured image of a camera has higher accuracy than a yaw rate detected by a yaw rate sensor. Therefore, by using the value detected by the image processor 20 as the yaw rate, the main processor 40 can improve, for example, the accuracy of dead reckoning.
  • the yaw rate based on the image analysis and the yaw rate derived from the sensor 30 may be used in a complementary combination.
  • the main processor 40 generates a travel history indicating a track on which the vehicle has actually traveled based on the history of the own vehicle position specified by dead reckoning or localization described later.
  • the main processor 40 also generates a trajectory (specifically, shape data such as curvature and width) based on lane marks detected based on images acquired by the camera 10. Further, the main processor 40 calculates the position coordinates (hereinafter, also referred to as observation coordinates) of features such as the landmark 63 and the lane mark extracted by the image processor 20 in the global coordinate system.
  • a trajectory specifically, shape data such as curvature and width
  • observation coordinates the position coordinates of features such as the landmark 63 and the lane mark extracted by the image processor 20 in the global coordinate system.
  • the position coordinates of the feature may be specified by combining the current position of the own vehicle and the relative position information of the feature with respect to the own vehicle.
  • the relative position (distance and direction) of the feature with respect to the host vehicle may be specified based on the size and posture (for example, degree of inclination) of the feature in the image.
  • the main processor 40 roughly estimates the initial coordinates of the vehicle in the global coordinate system by, for example, GPS. Then, relative coordinates from the initial coordinates of the vehicle calculated by integrating the speed vector of the vehicle are estimated. As a result, the approximate current position of the vehicle is obtained in the global coordinate system.
  • the feature information and the runway information obtained as a result of calculation, processing, or acquisition by the main processor 40 are temporarily stored in the memory 80.
  • the feature information is information indicating the position coordinates, shape, and size of the feature specified by the image recognition.
  • Each feature in the memory 80 is represented, for example, by a set of coordinate points arranged along the contour of the feature.
  • Various forms can be adopted as the expression form of the shape and position of the feature.
  • the shape and position of a feature may be represented by a polynomial expression.
  • the feature information can be roughly classified into landmark information and lane mark information.
  • the landmark information includes landmark types, coordinate information, colors, sizes, shapes, and the like. As types of landmarks, signboards, signals, signs, poles, pedestrian crossings, road markings (for example, stop lines), manholes, and the like can be adopted. Also, lane marks can be adopted as landmarks.
  • the lane mark information includes, for example, position information of the lane mark and information indicating whether the lane mark is realized by a solid line, a broken line, or a Bots-Dots pattern.
  • the position information of the lane mark is expressed as a group of coordinates (that is, a group of points) of the point where the lane mark is formed. In another embodiment, the position information of the lane mark may be represented by a polynomial expression.
  • the position information of the lane mark may be a set of line segments represented by a polynomial expression (that is, a line group).
  • the main processor 40 also executes various processes related to map utilization and map update (or generation). As a process related to map update, the main processor 40 executes, for example, download of map information, upload of probe data, selection of landmarks used for localization, and the like. Some specific examples of various processes related to map utilization and map update (or generation) will be described in detail later.
  • the communication module 50 is interposed between the main processor 40 and the server 3 so that the main processor 40 and the server 3 described below can communicate with each other.
  • the communication module 50 transmits the probe data input from the main processor 40 to the server 3. Further, the communication module 50 receives the map information stored in the server 3 and related information, and stores the received information in the memory 80.
  • the main processor 40 is configured to be able to execute various controls such as steering control, acceleration, and braking of the vehicle based on map information received via the communication module 50 and stored in the memory 80.
  • the HMI 60 is a user interface for notifying a user of various types of information or transmitting a predetermined operation to the vehicle.
  • a display attached to a car navigation device for example, a display attached to a car navigation device, a display built in an instrument panel, a head-up display projected on a windshield, a microphone, a speaker, and the like can be adopted.
  • a mobile terminal such as a smartphone communicably connected to a vehicle can be the HMI 60 in the map system 1.
  • the user can obtain information displayed on the HMI 60 visually, and can also obtain information by voice, warning sound, or vibration. Further, the user can request a desired operation from the vehicle by a touch operation on the display or a voice.
  • the user when the user intends to receive advanced driving support services such as automatic steering utilizing map information, the user activates the function via the HMI 60.
  • the map utilization function is activated, and the download of the map information is started.
  • the map utilization function is activated by giving a command by voice.
  • the upload of the map information relating to the map update may be performed all the time while the communication between the vehicle and the server 3 is established, or the function of utilizing the map is enabled by tapping the “map cooperation” button. It may be made to be performed during the conversion. It may be activated by another UI reflecting the user's intention.
  • the actuator 70 includes, for example, a braking device (so-called brake actuator), an electronic throttle, a steering actuator, and the like.
  • the actuator 70 is a hardware element related to at least one of acceleration, deceleration, and steering of the vehicle.
  • the memory 80 is realized using a volatile memory such as a RAM.
  • the memory 80 may be realized using a nonvolatile memory such as a flash memory.
  • the memory 80 may include both a volatile memory and a nonvolatile memory.
  • the memory 80 includes a temporary storage unit 81 using a volatile memory and a storage unit 82 using a non-volatile memory.
  • the storage unit 82 stores a program (hereinafter, a vehicle program) for causing the main processor 40 to execute processing such as generation of probe data.
  • the vehicle program only needs to be stored in a non-transitional substantial storage medium.
  • the main processor 40 collates the coordinates of the landmark calculated based on the image captured in real time with the coordinates of the landmark included in the map information downloaded from the server 3 to specify the detailed position of the host vehicle ( That is, localization).
  • the main processor 40 performs localization in the vertical direction using landmarks such as a direction sign, a traffic light, a road sign, and a stop line.
  • the vertical direction corresponds to the front-back direction of the vehicle.
  • the vertical direction corresponds to a direction in which the road extends when viewed from the own vehicle (hereinafter, also referred to as a road extension direction).
  • the vertical localization corresponds to a process of specifying the position of the vehicle in the direction in which the road extends.
  • the distance to the direction signboard present in front of the own vehicle is specified as 100 m
  • detailed remaining distances to characteristic points on the road such as intersections, curve entrances / exits, tunnel entrances / exits, and the end of traffic jams are reduced. Specified.
  • the main processor 40 performs localization in the horizontal direction using landmarks such as lane marks, road edges, and guardrails.
  • Lateral localization refers to specifying a traveling lane and specifying a detailed position of the host vehicle in the traveling lane (the amount of offset from the center of the lane in the left-right direction).
  • the lateral direction refers to a vehicle width direction or a road width direction.
  • the horizontal localization is realized, for example, based on the distance from the left / right road edge / compartment line recognized by the image processor 20.
  • the position of the host vehicle as a result of the localization may be expressed in the same coordinate system (for example, latitude, longitude, and altitude) as the map data.
  • the vehicle position information can be expressed in an arbitrary absolute coordinate system such as WGS84 (World Geodetic System 1984). Further, the vehicle position information may be represented by a local coordinate system indicating a position in a map tile described later.
  • the main processor 40 may be configured to perform localization in the vertical and horizontal directions using one landmark.
  • localization may be performed using a landmark closest to the own vehicle.
  • the main processor 40 detects a plurality of landmarks (for example, a direction signboard) ahead of the own vehicle, the main processor 40 performs localization in the vertical direction by using the landmark closest to the own vehicle among the plurality of landmarks.
  • the recognition accuracy of the type and distance of an object based on an image or the like is higher for an object closer to the vehicle. That is, when a plurality of landmarks are detected, according to the configuration in which localization is performed using the landmark closest to the vehicle, the position estimation accuracy can be improved.
  • the main processor 40 sequentially performs localization at predetermined position calculation intervals.
  • the position calculation interval is, for example, 100 milliseconds.
  • the position calculation interval may be 200 ms or 400 ms.
  • the position calculation interval may be dynamically changed according to the type of the road on which the vehicle is traveling (hereinafter, the traveling road), the vehicle speed, and the external environment. For example, when the vehicle is traveling on a road section where the remaining distance to a curve or an intersection is within 0.5 km, a value (for example, 100 milliseconds) shorter than a predetermined standard interval (for example, 200 milliseconds) is set. You may.
  • the accuracy of the vehicle position information can be improved by setting the position calculation intervals densely.
  • relatively high / precision vehicle control for example, steering control
  • the processing load on the main processor 40 can be reduced.
  • the main processor 40 sequentially performs localization when the map utilization function has been activated by the user and detailed map data near the current position has been obtained. Whether or not the main processor 40 performs the localization may be changed according to the type of the traveling path.
  • the configuration may be such that localization is performed when the travel path is an automobile exclusive road, while localization is not performed when the travel path is a general road.
  • the motorway is a road on which pedestrians are basically prohibited from entering, and includes, for example, a toll road such as an expressway.
  • Automobile roads include general roads where traffic other than automobiles is prohibited.
  • the execution / non-execution of the localization by the main processor 40 may be determined by the main processor 40 or controlled by the server 3 based on the maintenance state of the map data, the type of the traveling road, and the like.
  • the main processor 40 uses the yaw rate and the vehicle speed to perform dead reckoning (Dead Reckoning /) when localization cannot be performed (for example, no landmark has been detected) or when the map utilization function has not been activated. Autonomous navigation).
  • the yaw rate used for dead reckoning may be one that is recognized by the image processor 20 using SfM technology or one that is detected by a yaw rate sensor.
  • the main processor 40 outputs a corresponding command to the actuator 70 for operating the hardware mounted on the vehicle based on the current position of the own vehicle and the map data specified by the localization or dead reckoning. I do. Thereby, automatic driving and driving support are realized.
  • the main processor 40 also controls lighting of lamps such as direction indicators, hazard lamps, and headlights in accordance with a travel plan generated by the main processor 40 or another ECU (for example, an automatic driving ECU).
  • the main processor 40 obtains POI information of a tollgate or the like located at a certain distance (for example, 200 m) ahead of the current position from the map data, so that vehicle control such as lane change and deceleration can be performed with a margin (in other words, more Safe) executable.
  • the POI refers to a point that needs attention in terms of vehicle control and a path plan.
  • the POIs include map elements that affect the running control of the vehicle, such as a curve entrance / exit, a tunnel entrance / exit, and the beginning and end of a traffic jam.
  • the POI includes a static POI corresponding to the static map information and a dynamic POI corresponding to the dynamic map information.
  • the dynamic POI indicates a tail position or a head position of a traffic jam.
  • ACC is an abbreviation of Adaptive ⁇ Cruise ⁇ Control, and refers to a function of automatically driving a vehicle such that a distance between the vehicle and a preceding vehicle is constant within a range where the traveling speed of the vehicle does not exceed a predetermined upper limit.
  • an application related to automatic control of the vehicle includes an application that drives the vehicle so as to maintain the center of the lane (hereinafter, a lane keeping application) and an operation related to a lane change.
  • a lane keeping application includes an application that drives the vehicle so as to maintain the center of the lane and an operation related to a lane change.
  • There is a function to execute automatically hereinafter, lane change application).
  • the camera 10 may not be able to recognize the shape of the front lane.
  • ACC it is necessary to grasp the curvature of the road ahead of the vehicle in advance and adjust the speed. For example, control may be performed to decelerate to a predetermined target speed before the curve so that the vehicle can travel smoothly and safely on the curve.
  • control may be performed to decelerate to a predetermined target speed before the curve so that the vehicle can travel smoothly and safely on the curve.
  • the curvature of the front road is acquired in advance using the map data, even when the camera 10 cannot detect the curvature of the front road, it is necessary to wait until the vehicle enters the curved section.
  • the vehicle when the ACC function is on, the vehicle may be traveling at a speed lower than a predetermined target speed in accordance with the speed of the preceding vehicle.
  • the ACC function when the preceding vehicle becomes absent due to a lane change or the like (in other words, when the preceding vehicle leaves the front of the own vehicle), the ACC function usually accelerates to a predetermined target speed. Operates.
  • the map utilization function it can be determined based on the map data whether the current position is a road section where acceleration is preferable.
  • the acceleration to the target speed can be canceled. That is, by using the map data, the risk of performing unnecessary acceleration can be reduced.
  • the section in which acceleration to the ACC set speed is not preferable refers to the vicinity of a tollgate, the exit of an expressway, the vicinity of an intersection, a sharp curve, or the like.
  • map data is also useful when the driver in the driver's seat (the so-called driver) has driving authority.
  • POI information such as traffic congestion at a certain distance from the current position may be reported to the driver as driving operation support information.
  • the main processor 40 transmits a data set including the traveling trajectory information, the traveling path information, and the feature information stored in the memory 80 to the server 3 as probe data.
  • the traveling trajectory information is information indicating a trajectory on which the vehicle has traveled.
  • the traveling trajectory information is represented as a sequence of points of the own vehicle position.
  • the runway information is information indicating the end of the runway and the trajectory of the center line. The end of the travel path and the like may also be represented by a group of coordinate points.
  • the runway information directly or indirectly indicates the road shape such as the curvature and width of the road.
  • the main processor 40 sequentially obtains feature information, road information, and own vehicle position coordinates (hereinafter, a recognition result) obtained by image recognition and the like, and corresponds to the acquisition time (in other words, the observation time). Then, the data is stored in the memory 80 in chronological order. Recognition results such as feature information and the like are sequentially provided (for example, every 100 milliseconds) from the image processor 20. The feature information may be sequentially generated by the main processor 40 in cooperation with the image processor 20.
  • the recognition result data at each time stored in the memory 80 is uploaded collectively at a predetermined upload interval.
  • the upload interval is set to, for example, K (K is a natural number) times the execution cycle of the image recognition process. If K ⁇ 2, the main processor 40 uploads, as probe data, data obtained by packaging recognition results within a certain time stored in the memory 80.
  • K 4 is set as an example. That is, the main processor 40 uploads, as probe data, data obtained by packaging recognition results within 400 milliseconds. Note that the data including the vehicle positions at a plurality of time points corresponds to the above-described travel path information.
  • the probe data sequentially transmitted by the vehicle is stored in the server 3 in a predetermined storage / management format.
  • the server 3 stores the probe data sequentially transmitted by the same vehicle linked to a length including a predetermined number of landmarks.
  • the length of the probe data may be in units of road segments.
  • the road segment is a road management unit in the map data.
  • a road segment is a road segmented according to a predetermined rule.
  • the road segment may correspond to, for example, a road link.
  • the road link refers to a road section connecting road nodes indicating intersections or road end points.
  • the road segments may be further subdivided road links.
  • the road segment may be a road segmented by a predetermined length (for example, every 10 m).
  • each vehicle uploads data representing the running trajectory or road edge of the vehicle in a coordinate point sequence. Edges, lane center lines, and the like may be represented by polynomials.
  • the main processor 40 uploads the positioning result by GPS, the SfM information, and the vehicle speed information, and the server 3 calculates the vehicle position at each time based on the information. May be.
  • the feature information and the runway trajectory information included in the probe data correspond to information for the server 3 to generate a static map (hereinafter, static information).
  • the probe data includes dynamic information (hereinafter, vehicle behavior information) indicating the behavior of the vehicle, such as the vehicle speed, steering angle, yaw rate, turn signal operation information, lane ID, relative position to the lane, etc. within the latest fixed time. You may go out.
  • vehicle behavior information includes wiper operation information, shift position, vehicle body direction, pitch angle and roll angle of the vehicle body, inter-vehicle distance to a preceding vehicle, and the like.
  • the relative position information with respect to the lane indicates the amount of offset to the left and right with respect to the lane center line, whether the vehicle crosses the lane, and the like.
  • the server 3 acquires the POI information corresponding to the quasi-dynamic map information, such as a congested section or a point where there is an obstacle such as a falling object or a parked vehicle on the road, by acquiring the vehicle behavior information.
  • the server 3 adopts the end of the vehicle group whose vehicle speed is equal to or lower than the predetermined threshold as the end of the congestion section, and sets a point corresponding to the end as the dynamic POI related to the congestion.
  • the head position of a group of vehicles whose vehicle speed is equal to or lower than a predetermined threshold is adopted as the head position of the congestion section, and the head position is set as the dynamic POI.
  • the server 3 determines a point where a certain number (for example, 10) or more vehicles are temporarily traveling across lanes or changing lanes at a point where there is an obstacle such as a falling object or a parked vehicle on the road. (Hereinafter, obstacle location). Then, the obstacle present point is set as a dynamic POI.
  • the map data stored in the server 3 includes, as schematically shown in FIG. 2, for example, a road segment 62 representing the shape of a road by a cubic spline curve, a landmark 63 existing around the road segment 62, and including.
  • the road segment 62 and the landmark 63 have values of latitude, longitude and altitude, respectively.
  • the landmark 63 includes, for example, traffic signs and the like, and in addition to information obtained in real time by the camera 10 and the various sensors 30 serving as a state acquisition unit, those whose positions have already been determined are integrally configured on a map. I have.
  • the map information is sequentially updated based on information obtained in real time.
  • FIG. 3 conceptually shows an example of the structure of map data.
  • the map data includes road network data, lane network data, feature data, and POI data, as shown in FIG. Each data is hierarchically configured.
  • the road network data includes a link ID, a link length, the number of lanes, and connection node information (for example, a node ID) for each road link, a node ID, a position coordinate, and connection link information (for example, a link ID) for each road node.
  • the lane network data includes a lane ID, a link ID at the lane level, a link length, and connection node information, a node ID for each lane node, position coordinates, and connection link information (for example, a link ID).
  • the link information at the lane level included in the lane network data is associated with the road link included in the road network data.
  • the feature data includes lane marking data and landmark data.
  • the lane marking data includes a lane marking ID for each lane marking, and a group of coordinate points representing the installation portion.
  • the lane marking data includes pattern information such as dashed lines, solid lines, and road studs.
  • the lane marking data is associated with lane information (for example, a lane ID or a link ID at a lane level).
  • the landmark data indicates the position and type of each landmark.
  • the shape and position of each feature are represented by a set of coordinate points.
  • the POI data affects the travel plan of the vehicle, such as junctions for exiting the main road on expressways, junctions, speed limit changes, lane changes, traffic congestion sections, construction sections, intersections, tunnels, and toll gates. Is the data indicating the position and type of a feature that exerts
  • the POI data includes type and position information.
  • the map data may include a traveling trajectory model.
  • the traveling trajectory model is trajectory data generated by statistically integrating traveling trajectories of a plurality of vehicles.
  • the traveling trajectory model is, for example, an average of traveling trajectories for each lane.
  • the traveling trajectory model corresponds to data indicating a traveling trajectory that is a reference during automatic driving.
  • Map data can include static map information and dynamic map information.
  • the static map information is information on a feature that is unlikely to change, such as a road network, a road shape, a road surface display, a structure such as an X guardrail, and a building (for example, within one week to one month).
  • Static map information is also called a base map.
  • the dynamic map information refers to information on map elements whose state changes in a relatively short period of time, such as road construction information and traffic regulation information.
  • the dynamic map information includes quasi-static information, quasi-dynamic information, and dynamic information (hereinafter referred to as super- Dynamic information).
  • the quasi-static information is information that needs to be updated within one hour to several hours, for example.
  • Road construction information, traffic regulation information, congestion information, and wide area weather information correspond to the quasi-static information.
  • Semi-dynamic information is information that is required to be updated in units of 10 minutes, for example.
  • the last position of traffic jam, accident information, narrow-range weather information, falling objects on the road, and the like correspond to the quasi-dynamic information.
  • the super dynamic information includes, for example, position information of a moving body such as a vehicle or a pedestrian, and ITS (Intelligent Transport Systems) information such as a lighting state of a traffic light.
  • the map data handled by the map system 1 includes static map information, quasi-static map information, and quasi-dynamic information.
  • the map information handled by the map system 1 may be only static map information. It may also include super dynamic information.
  • the static map information and the dynamic map information may be configured to be separately managed (updated and distributed).
  • the server 3 stores the map information and updates the map information by the server processor 31 attached to the server 3. All map data corresponding to all map recording regions is managed by being divided into a plurality of patches. Each patch corresponds to map data of a different area. Note that each patch may partially overlap an adjacent patch and a corresponding area.
  • general roads may also be distinguished between main roads and narrow streets. In that case, it is preferable that the tile size of the narrow street is set smaller than that of the main road.
  • the map recording area may be the whole country where the vehicle is used, or may be only a part of the area. For example, the map recording area may be only an area where automatic driving of a general vehicle is permitted or an area where an automatic driving movement service is provided.
  • the server 3 manages (generates, updates, and distributes) map data in units of map tiles obtained by dividing a map recording area into a rectangular shape having a uniform size, but is not limited thereto.
  • the size and shape of the map tile may be non-uniform. That is, the size and shape of the patch corresponding area, which is the range of the real world (in other words, the range to be recorded) corresponding to each patch, may be uniform or may be various. For example, a map tile in a rural area where the density of map elements such as landmarks is likely to be relatively sparse is higher than a map tile in an urban area where map elements such as landmarks are more likely to exist densely. May also be set large.
  • the division mode of all map data may be defined by the data size.
  • the map recording area may be divided and managed in a range defined by the data size.
  • each patch is set so that the data amount is less than a predetermined value.
  • the data size in one delivery can be set to a certain value or less. It is assumed that the real space range corresponding to the patch in the urban area is smaller than the real space range corresponding to the sub-block in the rural area. As described above, it is expected that map elements such as landmarks and lane marks will be denser in urban areas than in rural areas.
  • the vehicle travels based on the downloaded map data while sequentially obtaining information on the map tile to which the passing road belongs from the server 3.
  • Various rules can be applied to the handling of the map data downloaded to the in-vehicle system 2 in consideration of the capacity of the memory 80 and the like.
  • the main processor 40 may be configured to delete the map data of the map tile from which the host vehicle has already left, as soon as the host vehicle leaves or at a timing separated by a predetermined distance or more.
  • the in-vehicle system 2 can be realized using the memory 80 having a small capacity. That is, the introduction cost of the vehicle-mounted system 2 can be reduced.
  • the map data downloaded to the memory 80 may be deleted at a timing when a predetermined time (for example, one day) has elapsed from the time of download.
  • Map data about roads that are used daily such as commuting roads and school roads, may be configured to be cached in the memory 80 as much as possible (for example, as long as the free space does not fall below a predetermined value).
  • the storage period of the downloaded map data may be changed according to the attribute of the data. For example, a fixed amount of static map data is stored in the storage unit 82.
  • dynamic map data such as construction information is not stored in the storage unit 82 but is deleted from the temporary storage unit 81 at the timing when the vehicle passes through the area corresponding to the dynamic map data. Is also good.
  • the running power source here is a power source for running the vehicle, and refers to an ignition power source when the vehicle is a gasoline-powered vehicle.
  • the vehicle is an electric vehicle or a hybrid car, it indicates a system main relay.
  • the map system 1 uploads information on a map collected by a vehicle to a server 3 included in the map system 1 so that the map information stored in the server 3 can be updated.
  • Uploading is usually performed at a predetermined frequency.
  • the normal upload interval is set to 400 millisecond intervals.
  • the upload interval may be 200 milliseconds, 500 milliseconds, 1 second, 2 seconds, or the like.
  • the main processor 40 may have an operation mode for stopping the upload of the probe data, reducing the frequency of the upload, or narrowing down the type of information to be uploaded.
  • FIG. 4 shows an example of a processing flow executed by the main processor 40. Note that the normal mode corresponds to the first mode, and the low frequency mode corresponds to the second mode.
  • Step S100 is a step in which the main processor 40 determines a rough position of the own vehicle based on the information of the positioning result by GPS.
  • Step S101 is a step in which the main processor 40 downloads the map information corresponding to the approximate position of the host vehicle from the server 3. The determination and acquisition of the map information corresponding to the approximate position of the vehicle will be described later.
  • Step S102 is a step in which the main processor 40 determines a detailed position of the host vehicle.
  • the detailed position of the vehicle is global coordinates including latitude, longitude and altitude on the earth.
  • the main processor 40 determines detailed global coordinates of the host vehicle based on the map information downloaded from the server 3 together with rough position information using, for example, GPS.
  • Step S103 is a step of determining whether or not the situation where the host vehicle is placed satisfies a predetermined low frequency condition. Specifically, this is a step in which the main processor 40 determines whether or not the position of the own vehicle is present in a predetermined low-frequency area. That is, the low frequency condition in the example shown in FIG. 4 is whether or not the position of the own vehicle exists in a predetermined low frequency area determined in advance.
  • the low frequency area is set in advance on the map as shown in FIG.
  • the low-frequency area may be set as a line along the road segment 62, or may be set as a plane having a predetermined area as illustrated in FIG.
  • Step S105 is a normal frequency mode in which the upload frequency is the normal frequency.
  • Step S104 is a step of transmitting probe data including map information to the server 3.
  • the probe data is uploaded to the server 3 at a predetermined frequency according to the frequency mode related to the upload of the probe data set in step S104 or step S105. Thereafter, this flow ends.
  • the low frequency mode When the low frequency mode is enabled, the amount of communication data related to map information between the communication module 50 and the server 3 decreases as compared with the normal frequency mode. Therefore, the load on the line can be reduced, and the cost related to communication can be reduced.
  • the low-frequency area includes, for example, a large number of other vehicles around the own vehicle such as an arterial road in an urban area, and a sufficient amount of map information can be uploaded to the server 3 from the many other vehicles. It is an area that is in the environment. In such an area, since a large amount of map information is uploaded from other vehicles, a sufficient amount of information for updating the map information can be secured even if the frequency of uploading the own vehicle is reduced.
  • Another example is an area where the frequency of changing the landmark 63 such as a traffic sign or a road sign is relatively low, such as a motorway.
  • the landmark 63 itself as hardware on the road and near the road is expected to be updated infrequently. Therefore, even if the frequency of uploading the own vehicle is reduced, it is necessary to update the map information. Can secure a sufficient amount of information.
  • the upload frequency can be set to zero in the low frequency mode.
  • the state in which the upload frequency is zero is a state in which uploading of map information to the server 3 is substantially prohibited, and is particularly referred to as a prohibited mode. That is, the low frequency mode includes the prohibition mode.
  • the prohibited area which is a low-frequency area in which the prohibited mode is enabled, is, for example, a highly confidential facility such as a military facility or an in-house facility, or a road such as a safari park that can be driven by a vehicle, but also has automatic steering. This is an area in a facility that is not suitable for steering. In such a prohibited area, uploading of map information from the vehicle to the server 3 is prohibited, and the server 3 does not generate a map. Therefore, download for vehicle control is not performed.
  • the mode may shift from the normal frequency mode to the low frequency mode at night. It tends to be more difficult for the camera 10 to recognize traffic signs and road markings at night than in daytime, and the reliability of determining the position of the landmark 63 is lower than in daytime. Therefore, it may be preferable to reduce the frequency of uploading the position information of the landmark 63 to the server 3.
  • a time zone in which the vehicle is placed at night or in an environment of low illuminance corresponding thereto is set in advance, and the upload frequency is preferably set to the low frequency mode in that time zone. In a region where a season exists, the time zone defined as night varies depending on the season. Therefore, it is preferable that the time zone defined as night is variable in accordance with the season. For example, in an area with white nights, the time zone at night is relatively short, and there is little opportunity for the surrounding environment of the vehicle to have extremely low illuminance. In such an area, the time during which the low frequency mode is effective is also reduced.
  • the mode may be shifted from the normal frequency mode to the low frequency mode based on weather conditions in a region where the vehicle travels. For example, in bad weather such as heavy rain, heavy snow, dense fog, and sand storm, it tends to be difficult to recognize traffic signs and road signs, and the reliability of determining the position of the landmark 63 is lower than that in fine weather. Therefore, it may be preferable to reduce the frequency of uploading the position information of the landmark 63 to the server 3.
  • a method of determining what weather condition the vehicle is under for example, measuring the reflectance of a road surface using an image captured by the camera 10 or determining the weather based on the contrast of the image And can be implemented.
  • an area that satisfies predetermined weather conditions such as heavy rain, heavy snow, heavy fog, and sand storm may be designated as a low-frequency area in real time based on information disclosed by a public organization.
  • the setting itself of the low-frequency area may be dynamically changed in accordance with the weather conditions, the time zone, and the collection state of the probe data in the server 3 (in other words, the degree of collection).
  • an area that is not a low-frequency area hereinafter, a normal area
  • the setting change of the area may be performed by the server 3 or may be performed by the vehicle.
  • the frequency of uploading may be gradually reduced based on the years of use of the main processor 40 and the image processor 20 (in other words, the total operating time).
  • the performance of the main processor 40 and the image processor 20 is evolving day by day, and it is presumed that a newer processor has a shorter time required for image processing and uploading and can be performed with higher accuracy. Therefore, it is preferable to reduce the frequency of uploading map information as the years of use of the processor become longer. Conversely, by actively uploading map information to a processor that has been used for a short period of time, map information can be efficiently collected.
  • the main processor 40 includes, as operation modes, an all transmission mode and a suppression mode.
  • the all transmission mode corresponds to an operation mode in which a data set including information on all items specified in advance to be transmitted as probe data is uploaded as probe data.
  • the suppression mode is an operation mode in which only a part of all items set as upload targets in the all transmission mode is uploaded as probe data.
  • the all transmission mode corresponds to a first mode in which a feature of a predetermined type is to be uploaded, and the suppression mode corresponds to a second mode in which the number of features to be uploaded is smaller than that in the all transmission mode as the first mode. .
  • the type of information to be uploaded in the suppression mode may be set in advance or may be specified by the server 3.
  • the type of information to be uploaded to the vehicle in the suppression mode can be, for example, an item that is insufficient from the viewpoint of map data generation / update. Note that the number of items to be uploaded in the suppression mode may be zero.
  • the suppression mode may also include a prohibition mode. If the information to be uploaded in the all transmission mode includes both static information and dynamic information, the information to be uploaded in the suppression mode may be only dynamic information.
  • the server processor 31 instructs the vehicles existing in the predetermined upload suppression section to operate in the suppression mode. Further, the server processor 31 instructs a vehicle existing in a section other than the upload suppression section to operate in the all transmission mode.
  • the main processor 40 of each vehicle operates in the operation mode specified by the server 3.
  • the upload suppression section may be, for example, a road segment in which a necessary and sufficient amount of probe data for generating / updating map data has been collected.
  • the server 3 instructs the suppression mode for the vehicle running on the road segment on which a sufficient amount of probe data is collected, and uploads only the dynamic information, You can upload only feature information.
  • the upload suppression section may be a road segment in bad weather. According to this setting, it is possible to reduce the possibility that probe data with low accuracy will be uploaded.
  • the upload suppression section may be dynamically changed according to the degree of gathering of probe data, time zone, and weather conditions.
  • the upload suppression section may be determined by the server processor 31.
  • the server processor 31 may distribute information on the determined upload suppression section to the vehicle, determine whether the current position corresponds to the upload suppression section on the vehicle side, and determine the operation mode. According to such a configuration, the server processor 31 does not need to specify an operation mode for each vehicle, and the processing load on the server processor 31 can be reduced.
  • the main processor may be configured to spontaneously switch the operation mode based on at least one of a traveling area of the vehicle, weather conditions, and a time zone.
  • the main processor 40 may be configured to shift from the first mode to the second mode based on at least one of an instruction from the server 3, a traveling area of the vehicle, weather conditions, and a time zone.
  • the suppression mode the information types to be reported are reduced as compared with the all transmission mode. As a result, the communication amount from the vehicle to the server 3 can be reduced as a whole system. Further, since uploading of unnecessary items can be suppressed, not only the communication equipment but also the load on the main processor 40 and the server processor 31 can be reduced.
  • the server processor 31 sets any one of the plurality of vehicles as a vehicle in charge of transmission, and sets the probe data only in the vehicle in charge of transmission. May be uploaded. According to such a configuration, vehicles other than the vehicle in charge of transmission traveling in the upload suppression section do not upload the probe data. Therefore, as a whole system, the amount of data communication from the vehicle to the server 3 can be reduced.
  • the vehicle in charge of transmission may be, for example, a vehicle with a sufficient distance from the preceding vehicle or a tall vehicle such as a truck. According to these vehicles, it is easy to recognize feature information. Therefore, high-quality feature information can be efficiently collected.
  • the vehicle in charge of transmission is a vehicle corresponding to the leading vehicle, a vehicle using the image processor 20 having the best object recognition performance, among a plurality of vehicles (hereinafter, a vehicle group) configuring one group, A vehicle with the highest positioning accuracy by GPS may be used.
  • the server 3 may determine the vehicle in charge of transmission based on the position information sequentially reported from each vehicle. Of course, as another aspect, the determination may be made by sharing the information by the vehicles in charge of transmission by the inter-vehicle communication.
  • each vehicle sequentially reports to the server 3 vehicle information such as position information, performance of the image processor 20, and information indicating GPS positioning accuracy.
  • vehicle information such as position information, performance of the image processor 20, and information indicating GPS positioning accuracy.
  • the vehicle group is preferably set for each lane.
  • a set whose inter-vehicle distance is less than a predetermined threshold can be set as one vehicle group.
  • the above configuration includes a collection mode in which the server 3 transmits the probe data to all vehicles located on the road segment as operation modes, and a save mode in which the server 3 does not request transmission of probe data to some vehicles. , Is equivalent to a configuration including:
  • the operation mode of the server 3 may be different for each road segment or each map tile.
  • the operation mode of the server 3 for each road segment / map tile may be determined according to the collection status of the probe data for the road segment / map tile. For example, the server 3 may operate in the collection mode for a road segment in which probe data is insufficient, and may operate in the save mode for a road segment in which a necessary and sufficient amount of data is collected. Note that the server 3 may update the map data in map tile units or may update the map data in road segment units. If the map is updated in map tile units, the concept of the upload suppression section described above may be extended to the concept of map tile. That is, the upload suppression tile corresponding to the upload suppression section may be appropriately set. Each vehicle may be configured to operate in the suppression mode based on its presence in the upload suppression tile.
  • ⁇ ⁇ ⁇ It is assumed that there is a vehicle traveling in an area corresponding to a certain map tile, and the vehicle constitutes the map system 1. That is, at least one image representing the environment of the vehicle is acquired by the camera 10 mounted on the vehicle, and global coordinates of landmarks included in the image are calculated and uploaded to the server 3.
  • Step S200 is first executed as shown in FIG.
  • Step S200 is a step in which the server processor 31 configuring the server 3 acquires probe data.
  • the server processor 31 acquires probe data from a plurality of vehicles traveling on the same map tile. That is, the server processor 31 acquires a plurality of coordinate data for one landmark. Note that probe data is sequentially uploaded to the server 3 from a plurality of vehicles.
  • the server processor 31 stores the probe data provided from each vehicle in a state of being connected or divided into a predetermined length for each provider.
  • Step S201 is a step in which the server processor 31 calculates the variance of the coordinates for each landmark and determines whether or not the calculated variance is larger than a predetermined threshold.
  • the variance is calculated for each of the coordinates of latitude, longitude, and altitude, and each is compared with a predetermined threshold.
  • the server processor 31 calculates the variance ⁇ 2 of each landmark 63 based on the probe data received from a plurality of vehicles, as shown in FIG. In the example shown in FIG. 7, there are four landmarks 63a ⁇ 63d on the map tiles for each landmark, ⁇ a 2, ⁇ b 2 , ⁇ c 2, ⁇ d 2, is calculated.
  • step S201 if the variance of the coordinates of all the landmarks 63 is equal to or smaller than the predetermined threshold, the determination in this step is NO, and the process proceeds to step S202.
  • Step S202 is a step in which the server processor 31 statistically calculates the coordinates of each landmark 63. That the variance of the coordinates of each landmark 63 is equal to or less than a predetermined threshold value indicates that the coordinates of the landmark 63 have been detected with a certain degree of accuracy. That is, even if the coordinates of each landmark 63 are statistically calculated without using a reference mark described later, a map can be generated with relatively high accuracy.
  • step S202 for example, a process of obtaining an average is performed on each landmark 63 using the probe data received from a plurality of vehicles to calculate global coordinates. Then, this flow ends.
  • Step S203 is a step of determining whether or not high-precision positioning data exists for the landmark 63 whose variance is larger than a predetermined threshold.
  • the high-precision positioning data is coordinate data measured by a method different from probe data, such as real-time kinematics (RTK) and precise single positioning (PPP).
  • RTK real-time kinematics
  • PPP precise single positioning
  • High-precision positioning data refers to data generated by a dedicated mobile mapping system vehicle equipped with a laser radar (LiDAR), an optical camera, a GNSS receiver, an acceleration sensor, and the like, or positioning work.
  • reference coordinates coordinate data determined by precise surveying
  • the landmark 63 to which the reference coordinates are assigned is referred to as a reference mark or a reference landmark.
  • the reference mark serves as a ground control point (GCP: Ground ⁇ Control ⁇ Point).
  • GCP Ground ⁇ Control ⁇ Point
  • the reference mark is a point where the above-described high-accuracy positioning is performed.
  • signboards that correspond to traffic signs such as regulatory signs and information signs, toll gates on expressways, junctions between expressways and general roads, and corners (edges) of structures such as buildings are used as reference marks. It is possible.
  • characteristic points such as corners of the lane markings, branches / merging points with other lane markings, and ends of guardrails can also be adopted as reference marks.
  • Points where lanes increase or decrease can also be adopted as reference marks.
  • the reference mark is preferably a fixed three-dimensional structure.
  • a feature such as a guide sign, which is arranged at a position relatively higher than the road surface and is arranged at a position where the camera 10 can easily take an image is set as a reference mark.
  • a feature other than the reference mark is also described as a normal feature.
  • step S203 is a step of determining whether reference coordinates are given to the corresponding landmark 63.
  • reference coordinates exist at the landmark 63b shown in FIG. 7 (in FIG. 8, indicated by black triangle marks). That is, the landmark 63b is a reference mark. If the reference mark exists, the determination in step S203 is YES, and the process proceeds to step S204.
  • Step S204 is a step in which the server processor 31 makes the coordinates of the landmark 63b measured in real time by the camera 10 or the sensor 30 coincide with the reference coordinates for the landmark 63b as the reference mark.
  • reference coordinates exist in the landmark 63b.
  • the reference coordinates are Xref.
  • the coordinates X match the coordinates Xref. That is, translation is performed by Xref-X.
  • the coordinates of the landmarks 63b as all reference marks recorded in the plurality of probe data become Xref.
  • the coordinates of the landmarks 63a, 63c, and 63d other than the landmark 63b are also translated by Xref-X.
  • the coordinates are expressed as one dimension, but actually the coordinates are calculated in three dimensions of latitude, longitude and altitude.
  • step S202 is executed.
  • the coordinates of the landmark 63b as the reference mark match the reference coordinates.
  • a process of obtaining an average is performed to calculate global coordinates. Then, this flow ends.
  • Step S205 is a step in which the server processor 31 sets a flag indicating that there is no reference mark.
  • the map system 1 uses the high-precision positioning data as the reference coordinates for the landmark 63 for which the coordinate accuracy cannot be obtained only by accumulating the GPS and probe data.
  • the coordinates can be calculated with high accuracy for other landmarks 63 that do not have the accuracy positioning data. As a result, the accuracy of the map tile to which the corresponding landmark 63 belongs can be improved.
  • the above-described configuration acquires probe data including observation coordinates of a plurality of map elements, which are associated with information about a traveling road segment, from a plurality of vehicles, and acquires a reference mark.
  • the probe data is included in the probe data so that the observation coordinates of the map element defined as the reference mark coincide with the absolute coordinates of the reference mark or the degree of deviation is minimized.
  • This is equivalent to a configuration for executing the correction of the observation coordinates of the map element to be performed and the determination of the coordinates of the map element by statistically processing the corrected observation coordinates of the map element.
  • the server processor 31 may be configured to update the coordinate information of a feature such as a landmark or a lane mark in a procedure as shown in FIG.
  • map data updating processing may be periodically executed, for example, for each map tile.
  • the process shown in FIG. 9 is executed at midnight every day.
  • the process shown in FIG. 9 may be executed at a timing when a predetermined number or more of probe data for the map tile to be processed is accumulated. Updating the map data may be performed for each road segment.
  • the map data updating process shown in FIG. 9 includes steps T201 to T215.
  • step T201 a plurality of probe data provided from a plurality of vehicles traveling on the same road segment and stored in a database (not shown) is read, and the process proceeds to step T202.
  • the plurality of probe data is probe data for the same road segment may be determined based on movement trajectory information and GPS coordinate information contained in the probe data.
  • step T204 based on the map data read in step T203, it is determined whether or not the probe data includes information of a predetermined number (for example, three) or more of reference marks.
  • the predetermined number is preferably three or more for the sake of convenience of the positioning process at the subsequent stage.
  • the number of reference marks to be included may be set to four or five.
  • the server processor 31 executes Step T205.
  • step T207 is executed.
  • step T205 a reference mark common to the map data and the probe data (hereinafter, a common reference mark) is set, and step T206 is executed.
  • a positioning process is performed on the probe data using the common reference mark.
  • the positioning process is a process of correcting the observation position coordinates of various features included in the probe data using the observation coordinates of the common reference mark and the map registration coordinates.
  • the map registration coordinates refer to the coordinates registered in the current (latest) map data.
  • the observation coordinates here are coordinates calculated by the vehicle and indicate the coordinates described in the probe data.
  • an ICP Intelligent Closest Point
  • the ICP method is a method of repeating parallel movement and rotation of each point group so that the two point groups are most matched as a whole. Specifically, a step of searching and associating the nearest point in the other point group (hereinafter, the second point group) from each point of the one side point group (hereinafter, the first point group), Adjusting the position and orientation of each point group in the coordinate system so as to minimize the difference.
  • SVD Single Value Decomposition
  • a steepest descent method or the like.
  • a rotation matrix and a translation vector for bringing a certain point group closer to a target point group for example, an average point group of the first point group and the second point group
  • a target point group for example, an average point group of the first point group and the second point group
  • a minimum value of a function representing a mean square error of a distance between corresponding points can be searched, and a rotation matrix and a translation vector can be obtained.
  • the method of correcting the position coordinates of the feature included in the probe data based on the position coordinates of the common reference mark is not limited to the above method.
  • a correction method described in Japanese Patent Application No. 2018-163076 filed separately may be adopted. That is, the center of gravity (hereinafter, the first center of gravity) of the observation coordinates of the common reference mark is calculated, and the plurality of common reference marks are planarly approximated by, for example, the least square method. Then, a normal vector to the approximate plane (hereinafter, a first normal vector) is calculated.
  • the server processor 31 calculates the center of gravity (hereinafter, the second center of gravity) of the map registration coordinates of the common reference mark, and calculates an approximate plane corresponding to the common reference mark. Then, a normal vector to the plane (hereinafter, a second normal vector) is calculated. Next, the position coordinates of the feature in the probe data are translated so that the first center of gravity coincides with the second center of gravity. In addition, the position coordinates of each feature in the probe data are rotated so that the first normal vector matches the second normal vector. Then, the position coordinates of the feature in the probe data are rotated and moved around the first normal vector passing through the first center of gravity so that the sum of squares of the error of the common reference mark is minimized, and the alignment processing is completed. .
  • the center of gravity hereinafter, the second center of gravity
  • the server processor 31 obtains probe data in which the position and orientation of the feature have been corrected by ending the alignment processing.
  • Such a positioning process corresponds to a process of correcting the position coordinates of various features included in the probe data based on the position coordinates of the common reference mark.
  • the observation coordinates of a normal feature associated with the observation coordinates of a certain reference mark indicate the observation coordinates of the normal feature detected and uploaded by the same vehicle.
  • the observation coordinates of the normal feature associated with a certain reference mark refer to the observation coordinates of the normal feature provided by the vehicle that provided the observation coordinates of the reference mark.
  • step T207 the positioning process for the selected probe data is omitted, and the process proceeds to step T208.
  • the probe data in which the number of reference marks included in the probe data is less than three be excluded from the target of the integration processing described later.
  • the server processor 31 may be configured to divide / concatenate various probe data into a length including three or four or more reference marks.
  • step T209 it is determined whether unprocessed probe data remains in the probe data read in step T201. If unprocessed probe data remains, the process proceeds to step T209, and the process from step T203 is performed on any unprocessed probe data. On the other hand, when there is no unprocessed probe data, step T210 is executed.
  • a process of integrating the corrected probe data is performed.
  • the integration process of the probe data is a process of statistically calculating the coordinates of the feature, as in S201. For example, the variance of the coordinates of each feature is calculated, and if the variance is less than a predetermined threshold, the median / average value is adopted as the coordinates of the feature.
  • a verification flag is set for a feature whose variance is equal to or larger than a predetermined threshold.
  • the verification flag corresponds to a flag indicating that the data is uncertain to be registered as a map.
  • the server processor 31 may calculate coordinates for each landmark after excluding outliers so that the variance is equal to or less than a predetermined threshold.
  • the evaluation of the dispersion in the integration processing is not essential, and may be omitted.
  • the position coordinates of each feature are statistically determined after being corrected using a predetermined reference landmark.
  • the server processor 31 determines the position coordinates of the lane mark by performing statistical processing on a plurality of pieces of coordinate information after correcting the coordinates of the lane mark included in each probe data using a predetermined reference landmark.
  • the data indicating the statistical position coordinates of each feature (hereinafter, integrated data) generated in step T210 is compared with the map data to detect a change point.
  • integrated data itself or map data reflecting the contents of the integrated data corresponds to the provisional map data.
  • the change point here is a part of the integrated data that is different from the current map data, and indicates a place where a feature may have been relocated, added, or deleted. For example, among the features included in the integrated data, those having a landmark corresponding to the current map data (that is, existing features) have a position coordinate determined statistically and a position coordinate in the map data. Is calculated.
  • the displacement amount of the position coordinates exceeds a predetermined error range, it is detected as a feature suspected to be relocated.
  • a predetermined error range for example, less than 3 cm
  • a deviation of 1 cm or more may be detected as a change point. The size of the allowable error can be appropriately changed.
  • step T212 is executed.
  • step T212 the validity of the change point is determined. If the number of pieces of probe data that detect a feature detected as a change point is equal to or greater than a predetermined threshold, or if the change is detected continuously for a predetermined period (for example, three days), the change point is temporarily set. It is judged that it is not valid but valid and reflected in the map data. When the deletion of the lane marking is detected as a change point, it is determined whether or not the deleted section is shorter than a predetermined distance (for example, 5 m). Since the lane markings are usually extended continuously, it is unlikely that only some sections will be deleted. When an object (vehicle, puddle, snow) temporarily exists on the lane marking, the lane marking is not detected.
  • a predetermined distance for example, 5 m
  • the deleted section is shorter than a predetermined distance, for example, it is highly likely that the originally existing lane marking is no longer detected due to a temporary event such as on-street parking, snowfall, or rainfall.
  • a temporary event such as on-street parking, snowfall, or rainfall.
  • a change point is detected over a wide range, such as when the deleted section is longer than a predetermined distance, it may be determined that the change has been made by road construction or the like (that is, there is validity).
  • the construction information indicating that the construction was performed within the latest predetermined period (for example, within three days) at the change point can be obtained from the external server or detected from the probe data, the change point is appropriate. It may be determined that there is a possibility. The above idea can be applied not only to the lane marking but also to other features such as a signboard.
  • the change point determined to be valid is reflected on the map data (step T215).
  • the update is suspended or a verification flag is set. According to the configuration in which the validity of the change point is determined based on the duration and scale of the change point and the presence or absence of construction information near the change point, the contents of the map data are incorrectly updated due to temporary factors. Can be reduced.
  • the position of each feature is aligned using the reference mark for each probe data, and then a plurality of probe data are integrated to calculate the position coordinates of various features.
  • the procedure for calculating the coordinates is not limited to this. Instead of correcting the coordinates of features on a probe data basis, generate integrated data that statistically calculates the position coordinates of each feature, and then correct the coordinate information of each feature based on the reference mark. It may be configured.
  • the server processor 31 statistically calculates the coordinates of each feature based on a plurality of probe data by the method described in step S201 or step T210. calculate.
  • the server processor 31 may be configured to adjust the observation data to be used so that the variance is equal to or less than a predetermined threshold.
  • the statistically calculated coordinates correspond to the representative observation coordinates.
  • the representative observation coordinates indicate an average value or a median of a plurality of observation coordinates.
  • the server processor 31 corrects the representative observation coordinates of various landmarks included in the integrated probe data based on the reference mark coordinate information. For the method of correction, the same method as in step T206 can be used. Even with such a configuration, the accuracy of the coordinates of each feature can be increased.
  • the traveling trajectory data included in the probe data may be configured as a map element for generating the traveling trajectory model.
  • the server processor 31 corrects the traveling trajectory of each vehicle using the reference mark associated with the traveling trajectory, and integrates a plurality of corrected traveling trajectory data to form a traveling trajectory model. It may be configured to generate. According to the configuration in which the traveling trajectories are corrected and integrated using the reference marks and the traveling trajectory model is generated, it is possible to generate a more accurate traveling trajectory for automatic driving.
  • the server processor 31 may be configured to generate a traveling trajectory model obtained by averaging traveling trajectories of a plurality of vehicles, and then correct the traveling trajectory model using the reference mark.
  • the various processes described above may be configured to be shared and executed by a plurality of servers / processors.
  • the integration process of the probe data may be configured to be performed by a server different from the server that acquires and corrects the probe data.
  • the above-described map system 1 corrects the observation coordinates of the same feature provided by a plurality of vehicles using the observation coordinates of the reference mark and the map registration coordinates, and corrects the corrected features of the feature.
  • the plurality of observation coordinates for the same feature may be provided from a plurality of different vehicles, respectively, or may be generated by the same vehicle passing the same point a plurality of times.
  • the observation coordinates of various features included in the probe data are corrected so that the observation coordinates of the reference mark match the absolute coordinates as the map registration coordinates of the reference mark. Not limited to matches. Substantial matches are also included.
  • the above correction may be performed so that the degree of deviation between the observation coordinates and the absolute coordinates of the reference mark is minimized.
  • the correction processing described above may be executed in units of road segments, or may be executed in units of map tiles.
  • Step S300 is a step in which the server processor 31 configuring the server 3 acquires probe data.
  • the server processor 31 acquires probe data from a plurality of vehicles traveling on the same map tile. That is, the server processor 31 acquires a plurality of coordinate data for one landmark.
  • Step S301 is a step in which the server processor 31 calculates the variance of coordinates for each landmark.
  • the variance is calculated for latitude, longitude, and altitude coordinates.
  • the server processor 31 calculates the variance ⁇ 2 of each landmark 63 based on the probe data received from a plurality of vehicles, as shown in FIG. In the example shown in FIG. 7, there are four landmarks 63a ⁇ 63d on the map tiles for each landmark, ⁇ a 2, ⁇ b 2 , ⁇ c 2, calculates the sigma d 2.
  • step S302 is executed.
  • Step S302 the dispersion sigma a 2 server processor 31 is calculated, ⁇ b 2, ⁇ c 2 , to calculate the median value p of sigma d 2, a step of comparing with a predetermined threshold value T1.
  • the calculation of the median of the variance is an example, and any method may be used as long as the degree of dispersion of the coordinates of the landmarks belonging to the map tile can be statistically indexed. For example, an average value may be used. If the median p satisfies the relationship of 0 ⁇ p ⁇ T1 with a predetermined threshold value T1, a YES determination is made in step S302, and the process proceeds to step S303.
  • Step S303 is a step of giving the accuracy level “High” to the map tile for which the determination of YES is made in step S302.
  • the map tile to which the accuracy level “High” is assigned is the map tile determined to have the highest accuracy.
  • Step S304 is a step in which the server processor 31 calculates a median p (or an average value) and compares it with predetermined thresholds T1 and T2. If the median p satisfies the relationship of T1 ⁇ p ⁇ T2 between the predetermined threshold T1 and the threshold T2, the determination in step S304 is YES, and the process proceeds to step S305.
  • Step S303 is a step of giving an accuracy level “Middle” to the map tile for which the determination of YES is made in step S302.
  • Step S306 is a step of giving the accuracy level “Low” to the map tile for which the determination is NO in step S304.
  • the map tile to which the accuracy level “Low” is assigned is the map tile determined to have the lowest accuracy.
  • the accuracy level of the map tile is higher in the order of “High”, “Middle”, and “Low”.
  • the higher the accuracy level the more accurately the current position of the vehicle can be determined, and more advanced driving assistance can be realized. That is, while traveling in an area corresponding to a map tile having a high accuracy level, it is possible to provide advanced driving support such as automatic driving.
  • the application is restricted so as not to be used for automatic driving. More specifically, the main processor 40 allows the automatic driving application to use the map data with respect to the map data of the map tile for which the accuracy level is set to the highest level, while the map has the highest accuracy level.
  • the use of the map data by the automatic driving application is prohibited.
  • the map tiles obtained with high accuracy can be effectively utilized, and the low-accuracy map tiles can be prevented from being erroneously provided to an application requiring more safety, such as an automatic driving application.
  • the main processor 40 preferably notifies the user via the HMI 60 of the restriction. Prohibiting the provision of map data to an application is equivalent to indirectly prohibiting the execution of the application itself or degrading functions.
  • the map system 1 specifies the approximate position of the vehicle by positioning using a satellite such as a GPS, and uses the map information downloaded from the server 3 and the image captured in real time by the vehicle.
  • the detailed position of the own vehicle is determined based on the calculated coordinates of the landmark 63.
  • the vehicle is located in a tunnel or between high-rise buildings, and it is difficult to specify the position by satellite.
  • the map system 1 can employ, as the positioning sensor 30a, for example, a radio wave detector that detects a radio wave intensity provided for a wireless LAN. Positioning by radio waves emitted from a wireless LAN base station (access point) corresponds to the alternative positioning means. Among the base stations that transmit radio waves of the wireless LAN, the vehicle receives radio waves whose global coordinates at which the base station is installed are known. Thereby, the position of the own vehicle is estimated based on the coordinates of the base station and the intensity of the received radio wave. An operation flow of the map system 1 will be described with reference to FIG.
  • Step S400 is a step in which the main processor 40 compares the reception intensity of the radio wave from the GPS satellite with a predetermined threshold.
  • the threshold value for example, the GPS radio wave intensity when the position of the own vehicle can be sufficiently specified by the GPS positioning and the map information obtained by downloading is specified. If the reception intensity of the radio wave from the GPS satellite is greater than this threshold, the determination in this step is YES, and the process proceeds to step S401. That is, the radio wave detector of the wireless LAN radio wave is invalidated as the alternative positioning means. Then, the process proceeds to step S402, where the position of the own vehicle is specified by the positioning by GPS and the map information obtained by downloading. Further, map information such as the landmark 63 obtained by the camera 10 is uploaded to the server 3. After the position of the host vehicle is specified, the host vehicle position is used for driving support such as automatic steering.
  • step S400 if the reception intensity of the radio wave from the GPS satellite is equal to or smaller than the threshold, the determination in this step is NO, and the process proceeds to step S403. That is, a radio wave detector for wireless LAN radio waves is effective as an alternative positioning means. Then, the process proceeds to step S404.
  • Step S404 is a step in which the main processor 40 determines the security level of the base station emitting radio waves of the wireless LAN.
  • the security level is an index of the reliability of information generated by the base station. If the security level is high, the main processor 40 trusts the value of the coordinates of the installation location of the base station, and determines the global coordinates of the base station, the reception strength of the radio wave received by the radio wave detector mounted on the vehicle, and the SfM.
  • the current position of the own vehicle is specified based on the position prediction of the own vehicle by the above method. For example, the distance from the base station is estimated based on the reception strength, and it is determined that the distance from the base station installation position is within the estimated distance.
  • the distance to each base station is estimated based on the reception strength of the signal from each base station, and the installation position of each base station and each base station are used.
  • the current position is calculated using the distance of.
  • a position estimation method using a radio wave emitted from a base station an AOA (Angle Of Arrival) method using a direction of arrival of a radio wave, a arrival time (TOA: Time Of Arrival) method, a time difference (TDOA: Time Difference Of Arrival).
  • TOA Time Of Arrival
  • TDOA Time Difference Of Arrival
  • Various methods such as a) method can be adopted.
  • the level of the security level can be set arbitrarily. For example, it can be inferred that a base station provided by a public organization or a public infrastructure provider has a high security level. On the other hand, it can be inferred that a base station provided by an individual has a low security level.
  • step S404 If it is determined in step S404 that the security level of the base station, and thus the security level of the alternative positioning means, is low, the determination in this step is NO, and the process proceeds to step S405.
  • step S405 map information such as the landmark 63 obtained by the camera 10 is uploaded to the server 3.
  • the information on the positioning by the alternative positioning unit is stored as the position of the own vehicle as in step S402. Served for identification.
  • the position of the own vehicle is not specified, and the positioning information is provided only for uploading the map information to the server 3.
  • step S404 in FIG. 11 may not be performed.
  • positioning information may be provided only for uploading map information to the server 3.
  • the positioning of the coordinates of the installation position is not limited to the radio wave emitted from the known wireless LAN base station, but the positioning of the coordinates of the installation position is the radio wave emitted from the base station of the known short-range wireless communication. Positioning by IMES, positioning by geomagnetism, and the like can be adopted.
  • the radio wave detector for receiving radio waves of wireless LAN, short-range wireless communication, and IMES, and the magnetic detector for detecting terrestrial magnetism do not necessarily need to be fixed to the vehicle.
  • the above-described detector is mounted on a mobile device such as a smartphone and the mobile device is linked to the map system 1, the positioning information obtained by the mobile device is used for the map system 1. be able to.
  • the map system 1 specifies the approximate position of the vehicle by positioning using a satellite such as a GPS, and uses the map information downloaded from the server 3 and the image captured in real time by the vehicle. The detailed position of the own vehicle is determined based on the calculated coordinates of the landmark 63. However, there are situations where the map information does not exist in the server 3 or the map information is old and the current state is not accurately reflected.
  • Step S500 is first executed as shown in FIG.
  • Step S500 is a step in which the main processor 40 specifies a rough position of the own vehicle by GPS or the like. By this step, the area where the own vehicle exists is grasped.
  • Step S501 is a step in which the main processor 40 determines whether or not the map information of the map tile corresponding to the area where the vehicle is located is stored in the server 3. For example, the main processor 40 transmits the current position information of the own vehicle to the server 3. When the map information of the map tile in the area where the vehicle exists is present, the server 3 returns a signal indicating that the map information exists. When the server 3 does not have the map tile of the area where the vehicle exists, the server 3 returns a signal indicating that the server 3 does not have the map data of the requested area. As described above, step S501 may be performed in cooperation with the main processor 40 and the server 3.
  • step S502 If the map information is not stored as a map tile, the determination in this step is NO, and the process proceeds to step S502. Note that the case where there is no map data of the map tile in which the vehicle is present also includes the case where the map data of the map tile has expired.
  • Step S502 is a step in which the main processor 40 sets the map tile corresponding to the corresponding area to the “no map” mode. Thereafter, the process proceeds to step S503.
  • Step S503 is a step in which the main processor 40 sets the update flag to ON for the map tile corresponding to the area.
  • the main processor 40 sequentially uploads feature information such as white line information as probe data.
  • the map tile corresponding to the area for which the update flag is set to ON is preferentially generated by the server processor 31.
  • the main processor 40 uploads the vehicle behavior information in addition to the feature information while traveling on the map tile for which the update flag is set to ON.
  • step S501 If it is determined in step S501 that the map information is present in the map tile corresponding to the area where the vehicle is located, the determination in this step is YES, and the process proceeds to step S504.
  • Step S504 is a step of determining whether or not the latest information is publicly disclosed with respect to the map information recorded on the map tile.
  • public disclosure is, for example, map information disclosed by the Geographical Survey Institute of the Ministry of Land, Infrastructure, Transport and Tourism.
  • map information provided by a specific map vendor may be used as public map information.
  • Public disclosure is not limited to disclosure by government agencies, but also includes semi-public disclosure by certain map vendors.
  • Step S504 may be performed by either the vehicle or the server.
  • the main processor 40 or the server processor 31 communicates with an external server managed by a map vendor or a government agency to determine whether or not the latest map information is disclosed for the map tile where the vehicle exists. I just need.
  • Step S505 is a step in which the main processor 40 sets the map tile corresponding to the corresponding area to the “map exists but is old” mode. Thereafter, the process proceeds to step S503.
  • Step S503 is a step in which the main processor 40 sets the update flag to ON for the map tile corresponding to the area as described above.
  • the map tiles corresponding to the area for which the update flag is set to ON are updated with priority because the feature information is sequentially uploaded from the vehicle to the server 3. This flow ends after step S503.
  • step S504 If it is determined in step S504 that the latest information for the map information recorded on the map tile has not been publicly disclosed, the determination in this step is NO, and the process proceeds to step S506.
  • Step S506 is a step in which the main processor 40 downloads the map information of the map tile corresponding to the current position from the server 3.
  • step S507 is executed.
  • the main processor 40 collates the coordinates of the landmark 63 included in the map information downloaded from the server 3 with the coordinates of the landmark 63 calculated based on the image captured in real time. This is a step of specifying (that is, localizing) the position of the vehicle.
  • Step S508 is a step of determining whether or not the main processor 40 has detected a deviation in the coordinates of the host vehicle (hereinafter, also referred to as a positional deviation).
  • the own vehicle specified based on the coordinates of the landmark 63 included in the map information downloaded from the server 3 and the relative coordinates of the landmark 63 with respect to the own vehicle position calculated from the image captured in real time by the camera 10. Is referred to as a first position.
  • the position of the own vehicle specified using the GPS radio wave which does not depend on the map information stored in the server 3 is referred to as a second position.
  • the means for calculating the coordinates of the landmark 63 in real time is not limited to the one using the camera 10, and for example, a radar or LiDAR may be used.
  • the means for specifying the position of the vehicle without depending on the map information is not limited to GPS, but may be, for example, odometry, dead reckoning, wireless LAN, short-range wireless communication, position identification using radio waves of IMES, geomagnetism, or the like. Position specification may be adopted.
  • Detection of the deviation of the coordinates of the vehicle means that the deviation between the first position and the second position is detected to be equal to or more than a predetermined distance, for example.
  • the detection of the deviation of the coordinates of the host vehicle indicates that a state in which the deviation between the first position and the second position is equal to or more than a predetermined distance has occurred a predetermined number of times.
  • the number and frequency of occurrence of the displacement correspond to index information (in other words, an error signal) indicating that the map data needs to be updated.
  • the displacement corresponds to an event for transmitting the index information (hereinafter, a transmission event).
  • the detection of the displacement may be performed by the main processor 40 itself, or may be performed by another device (for example, the image processor 20).
  • the main processor 40 may detect that a position shift (in other words, a transmission event) has occurred by inputting a signal indicating that the position shift has occurred from the device.
  • a driver's steering intervention occurs at a predetermined amount or frequency when driving assistance such as automatic driving and lane keeping is performed using map information.
  • driving assistance such as automatic driving and lane keeping is performed using map information
  • a point where the driver's steering / deceleration operation intervenes is also referred to as a malfunction point.
  • the intervention of speed adjustment such as depressing a brake pedal, can also be employed as an index for determining the occurrence of a position shift.
  • the amount and frequency of operation intervention such as steering intervention and deceleration operation by the driver correspond to index information indicating that map data needs to be updated.
  • the driver's operation intervention during automatic driving corresponds to an event for transmitting index information to the server 3.
  • step S508 If the displacement of the host vehicle is detected in step S508, the determination in this step is YES, and the process proceeds to step S505. It should be noted that the number of times the position shift is detected is counted up, and when the number of times the position shift is detected is equal to or larger than a predetermined threshold value, the determination in step S508 is YES and the step S505 is executed. You may.
  • Step S505 is a step of setting the map tile corresponding to the corresponding area to the “map exists but is old” mode as described above, and then the update flag is set to ON via step S503.
  • the state where the displacement of the host vehicle is detected is assumed to be a situation in which the terrain and the position of the landmark 63 have changed before the information has been publicly updated due to, for example, a natural disaster.
  • the update flag By setting the update flag to ON after step S508, the update of the map information stored in the server 3 can be promoted prior to the official map update.
  • step S508 determines whether the displacement of the own vehicle is detected. If the displacement of the own vehicle is not detected, the determination in step S508 is NO, and the process proceeds to step S509.
  • Step S509 is a step in which the main processor 40 sets the map tile corresponding to the corresponding area to the “latest map exists” mode. Thereafter, the process proceeds to step S510.
  • Step S510 is a step in which the main processor 40 sets the update flag to OFF for the map tile corresponding to the area as described above.
  • the map tile corresponding to the area for which the update flag is set to OFF does not require the latest map update, and can be actively used for driving support and the like.
  • the update flag is set to OFF, the main processor 40 uploads vehicle behavior information without sending feature information such as white line information as probe data.
  • the server 3 can detect the occurrence of traffic congestion and the like.
  • the main processor 40 determines, based on the predetermined conditions according to steps S501, S504, and S508, "no map”, "no map” One of the three modes of “existing but old” and “the latest map exists” is set, and an update flag corresponding to each mode is set.
  • the update flag is set to ON for the map tiles to which the modes “no map” and “the map exists but are old” are given priority to update or generate the map information included in the map tile. It can be executed in a targeted manner.
  • the server 3 may determine whether the map data of each map tile needs to be updated based on probe data from a plurality of vehicles. For example, when the main processor 40 detects a displacement or an intervention of the occupant in the automatic running of the vehicle in step S508, the main processor 40 reports the fact to the server 3. Alternatively, a signal indicating that updating is necessary is transmitted to the server 3.
  • the server processor 31 sets the update flag of the map tile for which the number of times the positional deviation is detected exceeds a predetermined threshold value to ON. Then, a request is made to a vehicle traveling in an area for which the update flag is set to ON to transmit probe data including feature information. With such a configuration, the map data can be updated quickly.
  • the unit of updating the map data is not limited to the map tile unit. The necessity of updating may be managed for each road segment. For example, ON / OFF of the update flag may be set for each road segment.
  • the map data generated / updated based on the probe data may be provisionally distributed to each vehicle as provisional map data. For example, it is verified whether the provisionally distributed map can be used for automatic control by a plurality of vehicles.
  • the main processor 40 of each vehicle verifies the provisional map based on whether a displacement has been detected when the vehicle position has been calculated using the provisional map data, whether a driver's operation has been performed, and the like.
  • the provisional map data may be verified based on whether or not the traveling trajectory planned based on the image recognition result matches the traveling trajectory planned using the temporary map. It is preferable that the temporary map data is not used for actual automatic driving until the verification is completed and it becomes official map data.
  • a method of verifying the provisional map data As a method of verifying the provisional map data, a method described in Japanese Patent Application No. 2018-163077, which was separately filed, may be used.
  • each vehicle determines that there is no problem as a result of verifying the provisional map data, it reports this to the server 3. If it is determined that the provisional map data has a defect, the fact is reported to the server 3.
  • the server 3 finally determines whether or not there is a problem with the provisional map data based on the verification results of the plurality of vehicles, and adopts the provisional map data as an official map when it determines that there is no problem.
  • the map data adopted as the official map is distributed to each vehicle. Note that a vehicle to which the provisional map data has been distributed may be notified so that the provisional map data is used as official map data.
  • the map system 1 specifies the approximate position of the vehicle by positioning using a satellite such as a GPS, and uses the map information downloaded from the server 3 and the image captured in real time by the vehicle.
  • the detailed position of the own vehicle is determined based on the calculated coordinates of the landmark 63.
  • there are obstacles around the own vehicle that hinder the imaging of the landmark 63 and there are situations where the coordinates of the landmark 63 cannot be specified.
  • the map system 1 behaves so that at least one landmark 63 that is not obstructed by an obstacle exists within the angle of view of the camera 10 that is the imaging device. May be controlled.
  • an operation flow of the map system 1 based on the technical idea will be described with reference to FIG.
  • a camera 10 installed to capture an environment in front of a vehicle will be described.
  • a rear camera that performs rear monitoring and a camera 10 that performs side monitoring may coexist.
  • the preceding vehicle will be described as an example of the obstacle that blocks the landmark 63.
  • the obstacle may be a succeeding vehicle corresponding to the camera 10 for monitoring the rear side, or the obstacle may be a camera 10 for monitoring the side. It may be a compatible parallel car. Objects other than vehicles may act as obstacles.
  • a part or all of a front camera, a rear camera, and a side camera can be adopted as the surrounding monitoring sensor configuring the map system 1.
  • a rear camera that captures an image of a predetermined rear area corresponds to a rear monitoring device.
  • Step S600 is a step in which the main processor 40 specifies a rough position of the own vehicle by GPS or the like. By this step, the area where the own vehicle exists is grasped.
  • Step S601 is executed.
  • Step S ⁇ b> 601 is a step in which the main processor 40 detects a preceding vehicle based on an image captured by the camera 10.
  • Step S602 is a step in which the main processor 40 acquires the vehicle type of the preceding vehicle.
  • the vehicle type is recorded in the memory 80 or a database stored in the server 3 and determines the type based on target silhouette information or the like obtained from an image.
  • Step S603 is a step in which the main processor 40 acquires the vehicle height of the preceding vehicle that becomes an obstacle based on the vehicle type.
  • the vehicle height information is associated with the vehicle type, and the vehicle height corresponding to the vehicle type of the preceding vehicle is acquired.
  • the information on the vehicle height may be calculated from the captured image.
  • Step S604 is a step in which the main processor 40 determines whether or not the preceding vehicle as an obstacle is a tall vehicle.
  • the determination as to whether the preceding vehicle is a tall vehicle is made, for example, by comparing the vehicle height acquired in step S603 with a predetermined threshold, and determining that the preceding vehicle is a tall vehicle when the vehicle height is higher than the threshold. I do.
  • a vehicle type classified as a tall vehicle may be determined in advance, and if the preceding vehicle is the corresponding vehicle type, it may be determined that the vehicle is a tall vehicle.
  • step S603 of acquiring the vehicle height can be omitted.
  • the vehicle type determined as a tall vehicle corresponds to, for example, a truck or a fire truck. If it is determined in step S604 that the preceding vehicle is a tall vehicle, the process proceeds to step S605.
  • Step S605 is a step in which the main processor 40 controls the actuator 70 to change the relative position between the host vehicle and the obstacle so that the camera 10 can recognize the landmark 63.
  • the actuator 70 is a braking device, and the main processor 40 drives the braking device to perform braking of the host vehicle.
  • the inter-vehicle distance between the host vehicle and the preceding vehicle, which is an obstacle increases, and the area occupied by the preceding vehicle with respect to the angle of view decreases. This makes it possible to realize a situation in which the landmark 63 such as a sign is easily reflected in the angle of view, so that the main processor 40 can recognize the landmark 63 and calculate the coordinates of the landmark 63.
  • the detection frequency of the landmark 63 is improved by going through step S605. Can be done. Accordingly, the frequency of calculating the coordinates of the landmarks 63 from the image is also improved, so that the coordinates of the landmarks 63 included in the map information can be compared for a longer time, and the position of the own vehicle can be specified more accurately. be able to.
  • the control of increasing the inter-vehicle distance from the preceding vehicle by deceleration or the like corresponds to an example of vehicle control for making it easier for the surroundings monitoring sensor to detect a landmark.
  • the actuator 70 controlled by the main processor 40 is not limited to the braking device, and may be, for example, a steering. Specifically, when the preceding vehicle is a tall vehicle, the main processor 40 may change the lane by controlling the steering to create a situation where there is no preceding vehicle serving as an obstacle in front of the own vehicle. .
  • step S605 this flow ends.
  • step S604 the preceding vehicle is not a tall vehicle.
  • the map system 1 also increases the frequency of calculating the coordinates of the landmarks 63 from the image, so that it is possible to collate with the coordinates of the landmarks 63 included in the map information for a longer time, The position of the own vehicle can be specified more accurately.
  • the map system 1 may control the vehicle so that the landmark 63 can be recognized based on the inter-vehicle distance measured in real time and the vehicle height calculated by image recognition.
  • An operation example of the map system 1 based on the technical idea will be described with reference to FIGS.
  • the camera 10 installed to capture the environment in front of the vehicle will be described as an example.
  • the camera 10 that performs the rear monitoring and the side monitoring may coexist.
  • the preceding vehicle will be described as an example of the obstacle that blocks the landmark 63.
  • the obstacle may be a succeeding vehicle corresponding to the camera 10 for monitoring the rear side, or the obstacle may be a camera 10 for monitoring the side. It may be a compatible parallel car.
  • the obstacle may be an object other than the vehicle.
  • Step S700 is a step in which the main processor 40 specifies a rough position of the own vehicle by GPS or the like. By this step, the area where the own vehicle exists is grasped.
  • Step S701 is a step in which the main processor 40 detects a preceding vehicle based on an image captured by the camera 10.
  • Step S702 is a step in which the main processor 40 measures the distance to the preceding vehicle, that is, the inter-vehicle distance.
  • the inter-vehicle distance can be measured by a radar, a LIDAR, or a fusion configuration between the radar and the LIDAR and an imaging device.
  • Step S703 is a step in which the main processor 40 measures the height of the preceding vehicle.
  • the height of the preceding vehicle is uniquely determined based on the distance to the preceding vehicle acquired in step S702 and the V-direction coordinates on the image of the upper end of the preceding vehicle displayed in the image captured by the camera 10. Can be measured.
  • Step S704 is a step in which the main processor 40 acquires the coordinates of the landmark 63 assumed to be within the angle of view from the map information.
  • the main processor 40 specifies the area where the vehicle is located from the approximate position of the own vehicle specified in step S700, and reads the map tile corresponding to the area. Then, the coordinates of the landmark 63 recorded on the map tile are obtained.
  • the landmark 63 includes a white line (in other words, a lane mark). However, it is more effective if the landmark 63 is a target that is difficult to image with the camera 10 due to the large physique of the preceding vehicle. Display, speed limit sign, etc. are suitable.
  • the coordinates of the landmark 63 include, for example, coordinate information of the four corners of the rectangle if the landmark 63 is a rectangular plate shape orthogonal to the traveling direction of the vehicle.
  • Step S705 is a step of determining whether or not the preceding vehicle is at a position that blocks the landmark 63 that is supposed to be within the angle of view.
  • a blind spot of the camera 10 is obtained based on the inter-vehicle distance acquired in step S702, the height of the preceding vehicle acquired in step S703, and the angle of view of the camera 10 mounted on the own vehicle. (A hatched portion in FIG. 15) is determined. If at least a part of the coordinates forming the landmark 63 is included in the blind spot, it is determined that the preceding vehicle blocks the landmark 63, and the determination in this step is YES.
  • the example shown in FIG. 15 is an example in which all the landmarks 63 are included in the blind spot created by the preceding vehicle and this step is determined as YES.
  • Step S706 is a step in which the main processor 40 controls the actuator 70 to change the relative position between the host vehicle and the obstacle so that the landmark 63 can be recognized by the camera 10.
  • the actuator 70 is a braking device, and the main processor 40 drives the braking device to perform braking of the host vehicle.
  • the main processor 40 increases the inter-vehicle distance between the host vehicle and the preceding vehicle by this braking so that the landmarks 63 are all out of the blind spot. Specifically, the host vehicle is braked at a portion above the upper end of the preceding vehicle until the inter-vehicle distance becomes such that all of the landmarks 63 can be visually recognized from the upper end to the lower end. As will be described later, a configuration in which braking is performed until a part of the landmark 63 can be visually recognized is also possible. Accordingly, the main processor 40 can recognize the landmark 63, and can calculate the coordinates of the landmark 63 based on the image.
  • the landmark 63 can be easily recognized without acquiring the vehicle type. This is particularly effective when sufficient time for acquiring the vehicle type of the preceding vehicle cannot be secured due to a sudden interruption or the like, or when an obstacle other than the vehicle suddenly jumps in front of the vehicle.
  • the actuator 70 controlled by the main processor 40 is not limited to the braking device, and may be, for example, a steering. Specifically, when the preceding vehicle is a tall vehicle, the main processor 40 may change the lane by controlling the steering to create a situation where there is no preceding vehicle serving as an obstacle in front of the own vehicle. .
  • Various controls such as deceleration, lane change, and position change in the lane can be adopted as vehicle control (hereinafter, detection rate improvement control) for making it easier for the peripheral monitoring sensor to detect landmarks.
  • detection rate improvement control corresponds to control for reducing a possibility that a state in which a landmark cannot be recognized continues.
  • the preceding vehicle blocks the landmark 63 if the blind spot of the preceding vehicle includes even a part of the landmark 63. However, a part of the landmark 63 is visually recognized outside the blind spot. If possible, it may be determined that the preceding vehicle does not block the landmark 63. Alternatively, these criteria may be made variable depending on the type of the landmark 63.
  • the vehicle control for facilitating the detection of the landmark by the peripheral monitoring sensor is performed. May not be performed. For example, even if the preceding vehicle is a tall vehicle or the preceding vehicle is located at a position blocking the landmark in front of the host vehicle, if the rear camera can capture the landmark behind the vehicle, Alternatively, a configuration may be adopted in which vehicle control such as expansion of the inter-vehicle distance or lane change is not performed.
  • the detection rate improvement control is not limited to the case where the preceding vehicle is a tall vehicle or the case where the preceding vehicle blocks a landmark in front of the own vehicle. More specifically, when the inter-vehicle distance with the preceding vehicle is less than a predetermined distance (for example, 20 m), the detection rate improvement control may be executed.
  • a predetermined distance for example, 20 m
  • This configuration corresponds to a configuration in which the detection rate improvement control is executed when a preceding vehicle as an obstacle exists in a predetermined area (in this case, an area within 20 m ahead of the vehicle) within the imaging range of the camera 10.
  • a look-up angle ⁇ When the angle formed by the straight line from the camera 10 to the upper end of the rear surface of the preceding vehicle with respect to the road surface (hereinafter referred to as a look-up angle ⁇ ) is equal to or greater than a predetermined threshold value (for example, 15 degrees), It may be configured to execute improvement control. If the ratio occupied by the portion corresponding to the preceding vehicle in the image frame is equal to or more than a predetermined threshold (for example, 30% or more), the detection rate improvement control such as deceleration may be executed.
  • a predetermined threshold value for example, 15 degrees
  • the main processor 40 may be configured to acquire the current position of the other vehicle and the peripheral image acquired by the other vehicle from the other vehicle by inter-vehicle communication as the detection rate improvement control. According to such a configuration, the main processor 40 can detect a landmark based on a peripheral image provided from another vehicle. Further, the own vehicle can be indirectly localized based on the position information of the landmark, the position information of the other vehicle, and the relative position of the own vehicle with respect to the other vehicle.
  • the main processor 40 may be configured to acquire a localization result (that is, detailed position information of another vehicle) of another vehicle (for example, a preceding vehicle) by inter-vehicle communication as detection rate improvement control. According to such a configuration, the main processor 40 indirectly performs, based on the detailed position information of the other vehicle (hereinafter referred to as a reference vehicle) that is the provider of the localization result and the relative position of the own vehicle with respect to the reference vehicle. You can localize your own vehicle. The relative position of the host vehicle with respect to the reference vehicle may be specified based on the detection result of the peripheral monitoring sensor such as the camera 10.
  • the main processor 40 performs localization using a landmark present in front of the host vehicle (in other words, using a front camera image).
  • a landmark present in front of the host vehicle in other words, using a front camera image
  • localization may be performed using the image of the rear camera as the rear monitoring device. That is, as the detection rate improvement control, the surrounding monitoring sensor used for detecting the landmark may be changed. Changing the number or combination of surrounding monitoring sensors used for detecting landmarks also corresponds to an example of detection rate improvement control.
  • the above control may be configured to be executed on condition that the host vehicle is traveling on a predetermined road (for example, a general road).
  • a predetermined road for example, a general road
  • the distance between other vehicles is shorter on a general road than on a highway, and landmarks are less visible. Therefore, the above control may be more useful when traveling on a general road than when traveling on a highway.
  • the main processor 40 may be configured not to execute the above-described control when the traveling road corresponds to a predetermined road type (for example, a motorway). It is unlikely that other vehicles will make it difficult to detect landmarks while driving on a motorway such as an expressway. While traveling on the motorway, the load on the main processor 40 can be reduced by canceling the detection rate improvement control.
  • the main processor 40 may be configured to make the setting distance of the ACC longer when the map utilization function is activated than when the map utilization function is not activated. According to this configuration, it is possible to further reduce the possibility that the detection of the landmark becomes difficult.
  • the situation in which the coordinates of the landmark 63 are difficult to specify is not limited to the case where there is an obstacle that hinders the imaging of the landmark 63 around the own vehicle. For example, even when the surrounding environment of the vehicle is relatively dark, such as in a tunnel or at night, it may be difficult for the camera 10 to detect the landmark 63 and calculate the coordinates.
  • the map system 1 may be configured to facilitate the detection of the landmark 63 and the calculation of the coordinates even when the surrounding environment of the vehicle is relatively dark, and thus to more accurately specify the position of the vehicle.
  • control of a headlight installed to irradiate illumination light in front of a vehicle will be described as an example.
  • the light that irradiates the front of the vehicle, as well as the light that irradiates the rear of the vehicle and the side of the vehicle, may coexist, and the control target may be the light that irradiates the rear of the vehicle and the side of the vehicle.
  • Step S801 is a step of determining whether or not headlight control in the vehicle is set to the auto mode.
  • the state in which the automatic mode is set is a state in which the light distribution control such as up and down or left and right of the headlight is automatically set, for example, an active high beam system (AHS).
  • AHS active high beam system
  • Step S804 is a step in which the main processor 40 determines whether there is a preceding vehicle or an oncoming vehicle to the own vehicle.
  • the presence of the preceding vehicle is recognized by detecting the light of the rear light from an image captured by the camera 10, for example.
  • the presence of a preceding vehicle is recognized by a fusion configuration using the camera 10 and radar or LIDAR.
  • the presence of the oncoming vehicle is detected by detecting the light of the headlight from an image captured by the camera 10, for example.
  • the presence of an oncoming vehicle is recognized by a fusion configuration using the camera 10 and radar or LIDAR.
  • Step S805 is a step of setting the irradiation mode of the headlight to the low beam.
  • the low beam mode in order to suppress glare of a driver of a preceding vehicle or an oncoming vehicle, the headlights are illuminated so that the corresponding vehicle is not directly illuminated at least in a direction where the preceding vehicle or oncoming vehicle exists. Adjust the direction.
  • Step S806 is a step in which the main processor 40 controls the light distribution of the headlights so as to selectively emit illumination light in the direction in which the landmark 63 is assumed to exist.
  • the main processor 40 controls the headlight as the actuator 70 to maintain the headlight on the right side of the vehicle with a low beam so that the illumination light is not excessively applied to the oncoming lane on which the oncoming vehicle travels.
  • the light distribution of some light sources of the headlights on the left side of the vehicle is controlled so that the illumination light does not excessively irradiate the preceding vehicle.
  • Part of the light source of the headlight on the left side of the vehicle is arranged so that the illumination light of the headlight is applied to the outside of the lane where the mark 63 will exist, that is, the outside of the lane including the shoulder on the lane side on which the vehicle runs.
  • the light is controlled to be a high beam. This makes it possible to irradiate the headlight illumination light in a direction in which the landmark 63 is expected to be present, while suppressing glare of the driver of the oncoming vehicle or the preceding vehicle.
  • the frequency of detection of the landmark 63 is increased, and the frequency of calculating the coordinates of the landmark 63 from the image is also improved. Therefore, it is possible to collate with the coordinates of the landmark 63 included in the map information for a longer time, The position of the own vehicle can be specified more accurately.
  • Step S808 is a step in which the main processor 40 controls the light distribution of the headlights so as to selectively emit illumination light in the direction in which the landmark 63 is assumed to be present.
  • a wide light distribution or a distant light distribution can be adopted as the light distribution of the headlight.
  • the wide light distribution is a light distribution mode that illuminates a wider area than a high beam or an irradiation range of the high beam in the left-right direction.
  • the distant light distribution is a light distribution mode in which, during high-speed traveling, illumination light is concentrated farther than the high beam and the illumination light reaches farther away. This makes it possible to more easily detect the landmark 63 such as a destination sign even during high-speed traveling.
  • the map system 1 In the above-described map system 1, an example has been described in which light distribution in which the landmark 63 is easily detected is implemented under one condition that the light control is in the auto mode.
  • the map system 1 In the dependent mode, when the headlight is set to the low beam and the illuminance of the environment around the vehicle is equal to or less than the predetermined threshold, the map system 1 changes the light distribution of the headlight to the high beam to the driver. A proposal to do so may be made.
  • the light distribution change can be proposed by, for example, displaying the fact on the HMI 60 or transmitting the sound by voice.
  • landmarks without lighting or the like are difficult to recognize from images captured by the camera 10. Therefore, in the daytime, localization is performed based on a variety of landmarks, while in the nighttime, landmarks used for localization are internally illuminated signs, signs with traffic lights such as street lights, traffic lights, and electric lights. It is preferably limited to a bulletin board or the like.
  • the internally illuminated sign refers to a sign provided with a light source inside a sign plate.
  • the map data include, as attribute information of the landmark, whether or not the map data can be detected even at night. It should be noted that whether or not detection is possible even at night may be set based on probe data at night. For example, a landmark detected with a predetermined probability in probe data collected at night may be set as a landmark that can be recognized even at night.
  • This map system 1 realizes downloading of map tiles in different flows depending on whether or not a destination to which the vehicle should go is set.
  • a destination to which the vehicle should go is set.
  • Step S900 is a step in which the main processor 40 specifies a rough position of the own vehicle by GPS or the like. By this step, the area where the own vehicle exists is grasped.
  • the series of processing illustrated in FIG. 19 may be started by turning on the traveling power supply as a trigger.
  • the series of processes illustrated in FIG. 19 may be started when the map utilization function or the automatic driving function is activated.
  • Step S901 is a step in which the main processor 40 downloads a map tile corresponding to the area where the vehicle is located.
  • the main processor 40 requests the server 3 to distribute the map data of the map tile corresponding to the own vehicle position.
  • the main processor 40 transmits the tile ID of the area to which the own vehicle position belongs to the server 3.
  • the server 3 distributes the map tile requested by the vehicle.
  • the server 3 does not have the map data of the requested area (for example, when the expiration date has expired)
  • the server 3 returns a signal indicating that the server 3 does not have the map data of the requested area. I do.
  • a signal in which an invalid value for example, “NULL” is set at a predetermined position in the data format is returned.
  • step S901 may be omitted.
  • necessary map data is specified from the vehicle side and requested to the server 3, but the distribution mode of the map data is not limited to this.
  • the vehicle may be configured to transmit its current location to the server 3, which determines the map data corresponding to the reported vehicle location and distributes it to the vehicle.
  • FIG. 20 shows an example of a map tile.
  • FIG. 20 shows 80 map tiles.
  • a unique ID is assigned to each of the map tiles stored in the server 3, but here, for convenience, serial symbols a to y are assigned to the 25 map tiles.
  • the map tile m corresponds to the first tile.
  • the map tile corresponding to the area where the vehicle is located is particularly referred to as a first tile.
  • Step S902 is a step in which the main processor 40 divides the first tile into subtiles. As shown in FIG. 20, the main processor 40 divides the map tile m, which is the first tile, into four rectangular areas, and sets so as to execute the subsequent processing.
  • Step S903 is a step in which the main processor 40 specifies a subtile to which the host vehicle belongs from among the plurality of subtiles.
  • the own vehicle belongs to the upper right sub-tile among the divided map tiles m.
  • a map tile existing at a position where the vehicle can enter within a predetermined time may correspond to a map tile having a relatively high possibility that the vehicle will pass.
  • a map tile existing within a predetermined distance from the current position of the vehicle may also correspond to a map tile to which the vehicle may pass.
  • Step S905 is a step of downloading a map tile that is designated as a download target and is not cached in the memory 80 (that is, a map tile that has not been acquired).
  • the map tiles h, i, and n correspond to the download target. If there is any of these that has already been downloaded and stored in the memory 80, the corresponding map tile is not downloaded.
  • Step S908 is a step of designating map tiles around the second tile as download targets. Assuming that the vehicle has moved from map tile m to map tile i, the second tile is map tile i, and the map tiles specified as download targets are map tiles c, d, e, h, j, m, n. , O.
  • Step S909 is a step of downloading a map tile designated as a download target and not cached in the memory 80.
  • a map tile designated as a download target and not cached in the memory 80.
  • eight map tiles c, d, e, h, j, m, n, and o are to be downloaded, but map tiles h, m, and n were downloaded and cached in the previous step. It is not downloaded because it is a map tile. That is, the number of map tiles downloaded in step S909 is substantially five. Then, as long as the vehicle runs continuously after the first tile is set, the maximum number of map tiles downloaded after moving to the second tile is 5 in any situation.
  • Step S310 is a step of caching the downloaded map tile in the memory 80. As long as the corresponding data remains in the memory 80, the cached map tile can be used without downloading.
  • Step S310 is a step in which the main processor 40 determines whether an application that requires map information is being executed.
  • the application that requires map information is an application related to map utilization, such as automatic steering control while specifying the position of the vehicle. While the application requiring the map information is running, it is necessary to continuously download the map tile at the destination where the vehicle travels, and the flow from step S907 to step S311 is repeated. That is, map tiles around the destination map tile are set as download candidates, and download of uncached map tiles is continuously executed. On the other hand, if the application utilizing the map information is stopped and the application is not running at the time of execution of step S311, this flow ends.
  • the map tiles to be downloaded are map tiles h, i, and n when the vehicle is located in the upper right subtile, and map tiles n and r when the vehicle moves to the lower right subtile. , S. If the vehicle subsequently moves to the map tile r, the map tiles downloaded in step S909 are five map tiles l, q, v, w, and x.
  • map tiles corresponding to the area where the vehicle is assumed to run can be exhaustively downloaded with a minimum number of downloads.
  • a download policy in the case where the destination is not set after the power for traveling is turned on, three sub-tiles obtained by dividing the first tile into four sub-tiles adjacent to the sub-tile to which the vehicle belongs belong. This corresponds to a configuration in which a tile and a first tile are set as download targets.
  • the processing related to the map download described above is triggered by the activation of the automatic driving function or the activation of the map utilization function based on a user input to the HMI 60 after the power for driving is turned on. It only needs to be executed.
  • the first tile is, on one side, a map tile corresponding to the position of the vehicle at the time when the driving power is turned on.
  • the first tile corresponds to a map tile to which the vehicle position at the time when the automatic driving function is activated or when the map utilization function is activated.
  • Step S920 is a step in which the main processor 40 specifies a rough position of the own vehicle by GPS or the like. By this step, the area where the own vehicle exists is grasped. In the example shown in FIG. 22, the position of the host vehicle is indicated by a point A (black diamond).
  • Step S921 is a step of acquiring global coordinates of the set destination.
  • the destination can be set by an automatic instruction from an external instruction system or other means in addition to the active instruction of the driver as the user.
  • the destination may be set by the map system 1 receiving the destination set by the mobile communication device in addition to the operation by the car navigation system mounted on the vehicle. In the example shown in FIG. 22, the destination is indicated by a point B (white diamond).
  • Step S922 is a step of calculating the main route L based on the position of the own vehicle specified in step S920 and the coordinates of the destination acquired in step S921.
  • the main route L is a traveling route recommended for the own vehicle to move from the current position to the destination so as to satisfy the specified condition. In the example shown in FIG. 22, it is shown as a solid line connecting the current position A and the destination B.
  • Step S923 is a step of calculating the branch road R.
  • the branch road R is a route connected to the main route L, and is a route that may cause a vehicle to leave the main route L and travel.
  • the branch path R includes a first branch path R1 that branches directly from the main path L, and a second branch path R2 that is not directly connected to the main path L but branches from the first branch path R1.
  • Step S924 is a step of designating a map tile to which the main route L and the branch route R belong as download targets. All map tiles to which the main route L belongs are to be downloaded. On the other hand, as for the map tile to which the branch route R belongs, two tiles which are the map tiles to which the branch route R belongs and are continuous from the map tile to which the main route L belongs are designated as download targets. Note that, regarding the map tile related to the branch route R, the number of tiles continuous from the map tile to which the main route L belongs is not limited, and the number of two tiles is one example. In the example shown in FIG. 22, the map tiles to be downloaded are hatched.
  • Step S925 is a step of downloading a map tile designated as a download target and not cached in the memory 80. If there is a previously downloaded one stored in the memory 80, the corresponding map tile is not downloaded.
  • Step S926 is a step of caching the downloaded map tile in the memory 80. As long as the corresponding data remains in the memory 80, the cached map tile can be used without downloading.
  • a download priority for a plurality of map tiles designated as download targets For example, a map tile closer to the map tile to which the vehicle belongs preferably has a higher download priority.
  • the map tiles are downloaded in the order of arrival of the map tiles, so that the map tiles can be efficiently downloaded without omission while effectively utilizing the communication band.
  • the map tile to which the main route L belongs is downloaded with higher priority than the map tile to which the branch route R belongs. Since the probability that the vehicle travels on the main route L is higher than that of the branch route R, the map tile can be efficiently downloaded while effectively utilizing the communication band.
  • the vehicle when there is an area in which the communication state between the vehicle and the server 3 is known in advance to be deteriorated among the routes including the main route L and the branch road R where the vehicle is predicted to travel, It is good to download the map tile to be given priority.
  • a difficult communication section such as a mountain area or a tunnel where the communication state is deteriorated
  • the vehicle travels in a mountain area / tunnel section (that is, a difficult communication section) while traveling in an urban area having a good communication state.
  • the download priority may be set higher, for example, in the order of the map tile (that is, the first tile) corresponding to the current position, the map tile adjacent to the first tile and passing through the main route, and the communication difficult section.
  • map tile designated as the download target an example in which the map tile corresponding to both the main route L and the branch road R is downloaded has been described. However, a system that downloads the map tile corresponding to only the main route L is described. You may adopt it.
  • not all routes connecting to the main route L need to be adopted as the branch routes R.
  • a narrow street connected to the main route may not be used as the branch road R.
  • a road having the same rank or higher as the road constituting the main route may be set as the branch road R.
  • a road having the same rank as a certain road indicates, for example, a road having the same road type (national road, prefectural road, narrow street).
  • roads of equal or higher rank include national roads and prefectural roads.
  • road types can be classified into interstate highways, US highways, state roads, and municipal roads in ascending order of road rank.
  • a road having the same number of lanes or more than the main route may be adopted as a road of the same rank or higher.
  • Whether or not to adopt the road connected to the main route as the branch road R is determined by comparing the road scale of the main route near the connection point (substantially the intersection) with the scale of the connection road. Good.
  • the road scale corresponds to the above-mentioned road rank and the number of lanes.
  • the configuration in which the map tile to which the road on which the own vehicle is likely to go belongs is preliminarily and preliminarily downloaded when the destination is set, but the present invention is not limited to this.
  • a map tile through which the host vehicle travels may be set as a download target. More specifically, a predetermined number (for example, three) of map tiles present on the side of the own vehicle traveling direction from the current position among map tiles passing through the own vehicle traveling path are set as download targets. You may. According to such a configuration, even when a destination is not set, a map tile to which a road to which the host vehicle can pass can be downloaded in advance, similarly to the case where the destination is set.
  • the planned map tile download method described above may be applied only to static map data.
  • the dynamic map data of the map tiles that the vehicle may pass through may be downloaded all at once. This is because the dynamic map data can be expected to have a smaller data amount than the static map information.
  • the main processor 40 may be configured to change the timing and rules for downloading such data according to types such as static information and dynamic information. For example, the configuration may be such that dynamic map data is sequentially downloaded in real time, while static map data is downloaded on a monthly or weekly basis.
  • the various configurations and methods described above can be applied not only to a case where the vehicle is traveling on a dedicated road such as an expressway, but also to a case where the vehicle is traveling on a general road.
  • the main processor 40 stores the vehicle position coordinates specified at that time in the storage unit 82 or the like. It is preferable that the information is stored in the storage device.
  • the vehicle even when the vehicle is parked in a location where GPS radio waves do not reach, by referring to the position information recorded in the storage unit 82, the approximate timing at which the traveling power is turned on is obtained.
  • the position of the vehicle can be specified.
  • the first tile can be specified.
  • the user may be notified of the restriction via the HMI 60, for example, by displaying an icon on a display.
  • the main processor 40 notifies the occupant via the HMI 60 that the automatic driving function of level 3 or higher cannot be executed.
  • the configuration of the in-vehicle system 2 constituting the map system 1 is not limited to the configuration shown in FIG.
  • the in-vehicle system 2 may be realized by using a front camera module 90, a locator 100, an Ethernet switch 110, and a communication module 50.
  • Ethernet is a registered trademark.
  • FIG. 23 the illustration of the sensor 30 and the HMI 60 is omitted.
  • the front camera module 90 includes a camera body 91, a camera processor 92, and a memory (not shown).
  • the camera body 91 has a configuration corresponding to the camera 10 described above.
  • the camera processor 92 corresponds to the image processor 20. Further, as a more preferable embodiment, the camera processor 92 is configured to be able to perform position calculation (that is, localization) using the image recognition result and the map data complementarily.
  • the camera processor 92 has a function of controlling the vehicle (for example, steering control) using at least one of the image recognition result and the map data.
  • the front camera module 90 sequentially provides the locator 100 with data of feature information and vehicle information (for example, a current position and a yaw rate) as a result of image recognition (for example, every 100 milliseconds).
  • Data communication between the front camera module 90 and the locator 100 may be realized by CAN (Controller Area Network), FlexRay (registered trademark), Ethernet (registered trademark), USB, UART, or the like.
  • the locator 100 is a device that specifies a current position using map data provided from the server 3.
  • the locator 100 includes a locator processor 101, a volatile memory 102, and a nonvolatile memory 103.
  • Locator 100 has a function as positioning sensor 30a.
  • the locator processor 101 sequentially acquires the image recognition result and the vehicle information provided from the front camera module 90 and uploads them to the server 3 as probe data.
  • the locator 100 also downloads the map data corresponding to the vehicle position from the server 3 via the communication module 50 or the like, and stores the map data in the nonvolatile memory 103.
  • Such a locator 100 corresponds, in one aspect, to an ECU that executes processing related to transmission and reception of map data.
  • the locator 100 sequentially develops, in the volatile memory 102, the data of the section of the map downloaded from the server 3 in which the vehicle travels, and provides the data to the front camera module 90.
  • the developed map data around the own vehicle is used for localization, steering control, and the like by the front camera module 90. Note that localization and steering control may be performed by the locator 100 instead of the front camera module 90.
  • the arrangement of functions included in each configuration can be changed as appropriate.
  • the section that the vehicle travels refers to, for example, a road within a predetermined distance from the current position in the traveling direction (basically forward) of the vehicle.
  • the predetermined distance here is a parameter that defines the map data readout range, and is, for example, 200 m.
  • the read range may be 100 m in front of the host vehicle, 400 m, 500 m, or the like.
  • the reading range may be adjusted according to the vehicle speed or the type of the traveling road. For example, the higher the vehicle speed, the longer the readout range is set. Further, when the traveling road is an expressway, the reading range may be set longer than when the traveling road is a general road.
  • front map data local map data including detailed road shape information (curvature, gradient, width, etc.) within a predetermined distance ahead of the vehicle is referred to as front map data.
  • the forward map data corresponds to map data around the current position.
  • the locator 100 is connected to the communication module 50 via, for example, an Ethernet switch 110.
  • the locator 100 is also communicably connected to an automatic driving ECU, a body ECU, a driving support device, and the like via the Ethernet switch 110 or directly.
  • the locator 100 performs overall transmission and reception of map data. Further, according to the configuration shown in FIG. 23, the image processor 20 and the locator processor 101 share the processing that the main processor 40 was responsible for. Therefore, the load on each processor can be reduced.
  • the front camera module 90 may be configured so that the captured image frame is output to the multimedia ECU as a continuous video signal.
  • the video signal may be transmitted in a predetermined format such as LVDS (Low voltage differential differential signaling).
  • the Ethernet switch 110 existing between the locator 100 and the communication module 50 is an optional element.
  • Locator 100 and communication module 50 may be directly connected by a USB cable or the like.
  • locator 100 may be implemented with the aid of a navigation ECU or a multimedia ECU.
  • the navigation ECU is an ECU that executes map display and route guidance processing for the occupant.
  • the multimedia ECU is an ECU that provides functions such as audio, moving image reproduction, and web browsing. According to the configuration in which the function of transmitting and receiving map data and the function of managing the map data are added to the existing ECU, the introduction cost of the system can be reduced.
  • a system for downloading map data from the server 3 and a system for uploading probe data to the server 3 may be separated.
  • the multimedia ECU 120 acquires the image recognition result and the vehicle information from the front camera module 90, performs packaging as probe data, and uploads it to the server 3 via the communication module 50. That is, the multimedia ECU 120 controls uploading of the probe data to the server 3.
  • locator 100 downloads map data from server 3 via communication module 50 and sequentially provides front map data to front camera module 90 via driving support device 130. That is, the locator 100 controls the download of the map.
  • the driving support device 130 sequentially provides the front map data provided from the locator 100 to the front camera module 90.
  • the driving support device 130 automatically drives the vehicle for a predetermined time / a predetermined distance using the front map data instead of the front camera module 90. Let it. According to the above configuration, it is possible to enhance robustness against a system abnormality.
  • the disclosure in this specification and drawings is not limited to the illustrated embodiment.
  • the disclosure includes the illustrated embodiments and variations thereon based on those skilled in the art.
  • the disclosure is not limited to the combination of parts and / or elements shown in the embodiments.
  • the disclosure can be implemented in various combinations.
  • the disclosure may have additional parts that can be added to the embodiments.
  • the disclosure encompasses embodiments that omit parts and / or elements.
  • the disclosure encompasses the replacement or combination of parts and / or elements between one embodiment and another.
  • the disclosed technical scope is not limited to the description of the embodiments. Some of the disclosed technical ranges are indicated by the description of the claims, and should be construed to include all modifications within the meaning and scope equivalent to the description of the claims.
  • control unit and the method thereof according to the present disclosure may be realized by a dedicated computer programmed to execute one or a plurality of functions embodied by a computer program.
  • device and the method described in the present disclosure may be realized by a dedicated hardware logic circuit.
  • apparatus and the technique described in the present disclosure may be implemented by one or more dedicated computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as instructions to be executed by a computer.
  • control unit refers to various processors such as the main processor 40, the image processor 20, the server processor 31, the camera processor 92, the locator processor 101, and the multimedia processor 121.
  • the means and / or functions provided by the various processors described above can be provided by software recorded in a substantial memory device and a computer executing the software, software only, hardware only, or a combination thereof.
  • Some or all of the functions of the communication microcomputer 123 may be realized as hardware.
  • a mode in which a certain function is realized as hardware includes a mode in which one function or a plurality of ICs are used.
  • processors such as a CPU, an MPU (Micro Processor Unit), a GPU (Graphics Processing Unit), and a data flow processor (DFP: Data Flow Processor) can be employed.
  • one device for example, the front camera module 90
  • the front camera module 90 may be realized by combining a plurality of types of processors such as a CPU, an MPU, a GPU, and a DFP.
  • a part of the functions to be provided by the main processor 40 may be realized using an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).
  • SYMBOLS 1 Map system, 2 ... In-vehicle system (vehicle side apparatus, vehicle control device), 3 ... Server, 31 ... Server processor, 10 ... Imaging device (camera, peripheral monitoring sensor), 20 ... Image processor, 30 ... State acquisition part (Sensor), 40 main processor, 50 communication module, 60 HMI, 63 landmark (feature), 70 actuator, 80 memory, 90 front camera module, 100 locator, 110 Ethernet switch, 120 ... Multimedia ECU, 130 ... Driving support device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

地図システムは、道路セグメントに沿って車両を自律的に走行させるためのシステムであって、少なくとも1つのプロセッサを含む。プロセッサは、撮像装置から、車両の環境を表す少なくとも1つの画像を取得することと、車両の環境の明るさを取得することと、画像を解析して、車両が走行した道路に対するランドマークの位置を算出することと、ランドマークの位置の情報を含む地図情報をサーバにアップロードすることと、画像に基づいて算出されたランドマークの位置と、サーバに格納された地図情報とに基づいて自車両の位置を決定することと、を実行するようにされる。明るさが所定の閾値以下であるとき、ランドマークの存在が想定される方向に向かって照明光を照射する。

Description

地図システム、方法および記憶媒体 関連出願の相互参照
 本出願は、2018年8月31日に出願された日本特許出願番号2018-162472号に基づくもので、この開示をここに参照により援用する。
 この明細書の開示は、車両を自律的に走行させるための地図システム、方法および記憶媒体に関する。
 特許文献1には、車両に搭載されたカメラにより撮像された画像を用いてランドマーク等の位置情報を記録し、該情報をサーバ等にアップロードして疎な地図を生成し、車両の走行時には生成された疎な地図をダウンロードして自車両の位置を決定する技術が開示されている。
特表2018-510373号公報
 ところで、特許文献1に開示された地図システムのように、カメラにより撮像されたランドマークの情報に基づいて自車両の位置を特定するシステムにおいては、カメラによりランドマークを撮像できることが自車両の位置の特定には必須の条件となる。しかしながら、夜間やトンネル内等、車両が暗所に置かれた状況ではランドマークの検出が困難になる虞がある。このようなシチュエーションでは、算出される自車両の位置の精度が低下してしまう虞がある。
 そこで、この明細書の開示は、ランドマークの検出頻度を向上させる地図システム、方法およびそれらをコンピュータに実行させるための記憶媒体を提供することを目的とする。
 この明細書に開示される地図システムの一例は、道路セグメントに沿って車両を自律的に走行させるためのシステムであって、少なくとも1つのプロセッサを含み、プロセッサは、撮像装置から、車両の環境を表す少なくとも1つの画像を取得することと、車両の環境の明るさを取得することと、画像を解析して、車両が走行した道路に対するランドマークの位置を算出することと、ランドマークの位置の情報を含む地図情報をサーバにアップロードすることと、画像に基づいて算出されたランドマークの位置とサーバに格納された地図情報とに基づいて自車両の位置を決定することと、を実行するようにされ、明るさが所定の閾値以下であるとき、ランドマークの存在が想定される方向に向かって照明光を照射する。
 これによれば、照明光を照射しない状況下では認識が困難なランドマークが存在しても、地図システムがランドマークの存在が想定される方向に向かって照明光を照射するように照射装置等を制御するので、ランドマークの検出頻度を向上させることができる。これに伴い、ランドマークの座標の画像からの算出頻度も向上するので、より長時間にわたって地図情報が有するランドマークの座標との照合が可能となり、自車両の位置をより正確に特定することができる。
 本開示についての上記目的および他の目的、特徴や利点は、添付図面を参照した下記の詳細な説明から、より明確になる。図面において、
地図システムの概略構成を示すブロック図である。 地図データに含まれる情報の一例を示す図である。 地図データの構造の一例を示す概念図である。 主プロセッサによるプローブデータのアップロード制御を示すフローチャートである。 低頻度区域(あるいは禁止区域)を示す図である。 サーバプロセッサが実行する制御の一例を示すフローチャートである。 ランドマークの分散を示す図である。 リファレンスマークと、その他のランドマークとの関係を示す図である。 リファレンスマークを用いた補正処理を示すフローチャートである。 サーバプロセッサが実行する制御の一例を示すフローチャートである。 主プロセッサが実行する制御の一例を示すフローチャートである。 主プロセッサが実行する制御の一例を示すフローチャートである。 主プロセッサが実行する制御の一例を示すフローチャートである。 主プロセッサが実行する制御の一例を示すフローチャートである。 自車両と先行車との車間距離が近い場合の死角の部分を示す図である。 自車両と先行車との車間距離が比較的遠い場合の死角の部分を示す図である。 主プロセッサが実行する制御の一例を示すフローチャートである。 防眩配光における配光状態を示す図である。 目的地が設定されていない場合の制御の一例を示すフローチャートである。 ダウンロード対象となるマップタイルの一例を示す図である。 目的地が設定されている場合の制御を示すフローチャートである。 ダウンロード対象となるマップタイルの一例を示す図である。 車載システム2の構成の変形例を示すブロック図である。 車載システム2の構成の変形例を示すブロック図である。
 以下に、図面を参照しながら本開示を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても形態同士を部分的に組み合せることも可能である。
 [全体構成]
 最初に、図1を参照して、本開示が適用された地図システム1の概略構成について説明する。
 図1に示すように、この地図システム1は、後述する車載システム2が搭載された少なくとも1つの車両と、地図情報(以降、地図データとも記載)が格納されたサーバ3と、を備える。図1には、車載システム2が搭載された車両を表すブロックを1つしか示していないが、地図システム1は複数の搭載車両を備えうる。各車両は、サーバ3と無線通信可能に構成されている。車両は、道路上を走行可能であって、後述するようにプローブデータを逐次収集しながら走行する。また、車両は自動運転システムもしくは運転支援システムを備え、サーバ3から取得した地図データを利用して運転制御を行う。
 車載システム2が適用される車両は、乗用車であってもよいし、トラックなどの運送車両、タクシーなどのサービス車両であってもよい。サービス車両には、乗り合いバス(換言すれば路線バス)や、長距離バス、カーシェアやライドシェアなどのシェアリングサービスに供される車両も含まれる。乗り合いバスは、予め決められたルートを自動走行する自動運転バスであってもよい。
 地図システム1は、1つの側面において、道路沿いに存在する複数の地物の座標情報を含む地図データを用いて、道路セグメントに沿って車両を自律的に走行させるためのシステムに相当する。「道路沿い」という表現には、道路側方だけなく、道路の上方や、道路表面も含まれる。例えば路面から3m以上、上方に配置されている方面看板やビーコン局なども、道路沿いに設置された地物に該当する。また、ペイントまたは道路鋲を用いてなる区画線などの路面標示も道路沿いに存在する地物に相当する。道路沿いは、道路上および道路周辺と言い換えることができる。また、上記の地物には道路端そのものも含まれる。地図データを用いた自動運転のレベルは、レベル3以上に限定されず、レベル2に相当するものであってもよい。ここでの自動化レベル2は、ECUを含むシステムが縦方向及び横方向両方の車両運動制御のサブタスクを限定領域において実行するもの、例えば、車線維持のためのステアリング補正や、速度調整を自動で実施するものを指す。ここでの自動化レベル3は、特定の場所(ODD:Operational Design Domain)内にてシステムが全ての運転操作を実施する一方、作動継続が困難な時は運転席乗員への権限移譲を実行するものを指す。自動化レベル4はレベル3にて規定されている運転席乗員による監視義務が解除されたレベルである。自動化レベル5は、すべての道路においての完全自動運転が可能なレベルを指す。
 各車両に搭載されている車載システム2は、撮像装置たるカメラ10と、画像プロセッサ20と、車両の状態を取得する状態取得部たるセンサ30と、主プロセッサ40と、通信モジュール50と、ヒューマンマシンインターフェース60(以下、HMI)と、アクチュエータ70と、メモリ80と、を備えている。当該車載システム2は、車両側装置又は車両制御装置に相当する。以降では主プロセッサ40にとって、当該主プロセッサ40が搭載されている車両のことを自車両とも記載する。
 地図システム1は、GPS等、自車両の位置を特定する機能に対して、追加的に機能してより高精度に自車両の位置の特定をすることに効果を発揮する。地図システム1は、大きく分けて、地図活用および地図更新の2つの機能を備えている。地図活用においては、サーバ3に格納された地図情報が車両にダウンロードされ、車両はダウンロードされた地図情報と、カメラ10により撮像された画像に含まれる標識等のランドマークの位置とに基づいて自車両の位置を特定する。一方、地図更新においては、車両に搭載されたカメラ10やセンサ30により得られた情報がプローブデータとしてサーバ3にアップロードされ、サーバ3内の地図情報が逐次更新される。これにより、車両は、常に最新の地図情報に基づいて高精度に位置特定がされつつ、例えば運転支援や自動ステアリングが実現される。なお、以降ではサーバ3から取得した地図データと、カメラ10が生成した画像から算出されたランドマーク63の座標とに基づいて、自車両が走行している道路上における自車両の詳細位置を決定する処理のことをローカライズと称する。
 カメラ10は、車両に搭載され、可視光領域の波長において車両周辺の環境を撮像する。カメラ10は、例えば車両前方の環境を撮像するものである。もちろん、他の態様として、カメラ10は、車両前方に限らず、後方及び側方の少なくとも何れか一方を撮像するように構成されていても良い。また、車両は、複数のカメラ10を備えていてもよい。例えば車両は、前方所定範囲を撮像する前方カメラ、後方所定範囲を撮像するリアカメラ、右側方を撮像する右側カメラ、及び左側方を撮像する左側カメラの4つのカメラ10を備えていてもよい。加えて前方カメラとして、相対的に遠方を撮像するための遠方カメラと、近距離を撮像するための近距離カメラとを備えていてもよい。カメラ10は、100°を超える画角を備える広角カメラであってもよい。加えて、カメラ10が捉える光の波長は可視光に限定されるものではなく、紫外、赤外の光を含んでいても良い。例えばカメラ10は赤外線カメラであってもよい。加えて、車両は可視光を撮像する可視光カメラと赤外線カメラとを備えていてもよい。カメラ10は、例えば図示しない撮像素子たるCMOSイメージセンサと、図示しない画像処理エンジンとを含むカメラモジュールとして構成されている。カメラ10により撮像された車両周辺の環境の情報は、静止画あるいは動画(以下、これらを総して画像と称する)の形式でメモリ80に格納される。後述の画像プロセッサ20は、メモリ80に格納されたデータに基づいて各種処理を実行する。なお、車両が複数のカメラ10を備える構成においては、画像プロセッサ20はカメラ10ごとに設けられていてもよいし、1つの画像プロセッサ20が複数のカメラ10での撮像データを処理するように構成されていてもよい。カメラ10に係る構成及び機能の配置は適宜変更可能である。
 画像プロセッサ20は、カメラ10により撮像された画像を解析する。画像プロセッサ20は、例えば、画像を解析することにより、予め定められた地物を検出する。検出対象とする地物は、例えば車両制御に必要となる地物である。また、検出対象とする地物は、別の観点によれば、地図データに収録されるべき要素(以降、地図要素とも記載)に相当する。画像プロセッサ20が検出する地物としては、例えば、道路標示(換言すれば路面標示)とランドマークとがある。
 路面標示とは、主として交通制御、交通規制のための路面に描かれたペイントを指す。路面標示には、規制表示や指示標示などがある。例えば、車線の境界を示す車線境界線(いわゆる区画線、レーンマーク)、横断歩道、停止線、導流帯、安全地帯、規制矢印などが道路標示に含まれる。また、路面標示には、チャッターバーやボッツドッツなどの道路鋲によって実現されるものも含まれる。
 ランドマーク63には、例えば規制標識や、案内標識、警戒標識、指示標識などといった交通標識に相当する看板、信号機、ポール、案内板などが含まれる。なお、案内標識とは、方面看板や、地域名称を示す看板、道路名を示す看板、高速道路の出入口やサービスエリア等を予告する予告看板などを指す。ランドマーク63には、街灯や、ミラー、電柱、商業広告、店舗、歴史的建造物等の象徴的な建築物などを含まれうる。ポールには街灯や電柱も含まれる。また、路面表示の一部(たとえばレーンマークや一時停止線)をランドマークとして取り扱うこともできる。ランドマークは、道路の舗装状態、起伏、ジョイント等も含む。画像プロセッサ20は、ランドマークの抽出に際して、色、輝度、色や輝度に関するコントラスト等を含む画像情報に基づいて、撮像された画像から背景とランドマーク63とを分離して抽出する。また、ランドマーク63は、大きさ、形状、設置位置に基づいて抽出されても良い。
 また、画像プロセッサ20は、SfM(Structure from Motion)技術を用いてカメラ10の撮像画像から、自車両に作用しているヨーレートや、前後方向加速度、横方向加速度、ワイパー作動状態などといった、車両の挙動を示す状態量(以降、挙動情報)も検出する。カメラ10が周辺監視センサの一例に相当する。
 なお、本実施形態の車載システム2は周辺監視センサとしてカメラ10を備えるものとするが、地図システム1を構成する周辺監視センサはカメラ10に限定されない。周辺監視センサは、ミリ波レーダであってもよいし、LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)であってもよい。LiDARは、スキャン方式のLiDARであってもよいし、フラッシュ方式のLiDARであってもよい。LiDARとしては、分解能等の観点からSPAD LiDAR(Single Photon Avalanche Diode Light Detection And Ranging)であることが好ましい。その他、周辺監視センサとしてソナーなど、多様な物体検出装置を採用可能である。LiDARが生成する3次元測距点群データや、ミリ波レーダの検出結果、ソナーの検出結果などが周辺物体データに相当する。3次元測距点群データは距離画像とも称される。周辺物体データとして3D測距点群データを使用する場合には、測距点/方向ごとの距離情報と受信強度情報とを用いて検出物の認識を行えばよい。LiDAR、ミリ波レーダ、ソナー等を用いた物体認識手法としては多様な手法を援用することができる。加えて、地図システム1は、複数の種類のデバイスを周辺監視センサとして備えていてもよい。例えば地図システム1は周辺監視センサとして、カメラ10たる前方カメラに加えて、車両前方を検出範囲に含むように構成されているLiDARを備えていてもよい。ランドマークに相当する物体の認識には、複数種類のセンサの検出結果を併用する技術(いわゆるセンサフュージョン技術)が援用されてもよい。仮に前方カメラとミリ波レーダを併用する態様によれば、ランドマークとの距離の検出精度を高めることができる。また、夜間など前方カメラによるランドマークの認識精度が劣化する環境下においても、ミリ波レーダの検出結果を相補的に用いることにより、ランドマークの認識率を担保することが可能となる。車両前方を撮像するカメラ10や、ミリ波レーダ、LiDARなどが前方監視装置に相当する。
 状態取得部たるセンサ30は、例えば、速度センサ、加速度センサ、ヨーレートセンサ(広義にはジャイロセンサ)、舵角センサ、照度センサ、測位センサ(例えばGPS受信機)30aを含んでいる。上記した各センサは、例えば次のような車両状態を取得する。取得された車両の状態を示す情報はメモリ80に格納される。
 速度センサは車両の速度を取得する。加速度センサは車両の進行方向および進行方向に直交する方向の加速度を取得する。ヨーレートセンサは車両に作用するヨーレートを取得する。舵角センサはステアリングの舵角を取得する。照度センサは車両周辺の明るさを取得する。測位センサ30aとしてのGPS受信機は、車両の現在位置を示す座標情報(緯度、経度、高度)を逐次取得及び出力する。なお、GPS受信機は、GPSドップラー速度や、捕捉している測位衛星の数や仰角、疑似距離、受信した衛星信号のSN比、補正情報の利用の有無等のデータを出力するように構成されていてもよい。仰角やSN比、補正情報の利用状況といった情報は測位結果の精度を表す指標に相当する。なお、ここでは一例としてGNSS(Global Navigation Satellite System)としてGPSを用いる態様を開示しているが、車両が利用するGNSSは、GLONASSや、BeiDou、Galileo、IRNSSなどであってもよい。
 また、例えば車両が走行している道路の舗装状態や起伏、橋梁とその他道路などのジョイントなどを、車両の振動を検出するセンサ等により検出することもできる。これら、道路の舗装状態や起伏、ジョイントなども、地図上での位置を特定するためのランドマーク63として採用することができる。
 主プロセッサ40は、上記した画像プロセッサ20およびセンサ30と通信可能に接続されており、画像プロセッサ20およびセンサ30から入力された各種情報を演算、処理している。主プロセッサ40は、例えば、車両の速度、加速度、ヨーレートに基づいて車両が走行すると予測される走行軌道を生成する。つまり、主プロセッサ40は自動運転用の走行計画(いわゆるパスプラン)を生成する。パスプランには、走行軌道を設定するだけでなく、各時点におけるステアリング制御量や、目標車速、乗員への運転権限の移譲タイミングを決定することも含まれる。なお、ヨーレートや、前後方向の加速度、横方向加速度は、画像プロセッサ20がSfM技術を用いてカメラ10の撮像画像から検出した値が使用されてもよい。例えば主プロセッサ40は、画像プロセッサ20にてヨーレートを検出できない場合には、センサ30としてのヨーレートセンサの出力値を使用するように構成されていてもよい。一般的にカメラの撮像画像から定まるヨーレートのほうが、ヨーレートセンサにて検出されるヨーレートよりも精度が良い。故に、主プロセッサ40はヨーレートとして、画像プロセッサ20にて検出された値を使用することによって、例えばデッドレコニングの精度を高めることができる。もちろん、画像解析に基づくヨーレートと、センサ30由来のヨーレートとは、相補的に組み合わせて使用されてもよい。また、主プロセッサ40は、後述するデッドレコニングまたはローカライズによって特定した自車位置の履歴をもとに、実際に走行した軌道を示す走行履歴を生成する。
 また、主プロセッサ40は、カメラ10により取得された画像に基づいて検出されたレーンマークに基づいて走路の軌道(具体的には曲率や幅員等の形状データ)を生成する。さらに、主プロセッサ40は、画像プロセッサ20により抽出されたランドマーク63や、レーンマークといった地物のグローバル座標系における位置座標(以降、観測座標とも記載)を算出する。
 地物の位置座標は、自車両の現在位置と、自車両に対する地物の相対位置情報とを組み合わせることで、特定されればよい。自車両に対する地物の相対位置(距離および方向)は、画像内における地物の大きさや姿勢(たとえば傾き度合い)に基づいて特定されればよい。主プロセッサ40は、例えば、GPSによりグローバル座標系において車両の初期座標を大まかに推定する。そして、車両の速度ベクトルの積分により計算される車両の初期座標からの相対座標を推定する。これにより、車両の大まかな現在位置がグローバル座標系で得られる。さらに、ランドマークやレーンマークといった地物の車両からの相対距離および方位を、SfM(Structure from Motion)情報を含む画像から演算する。これにより、ランドマーク等の地物が存在する位置のグローバル座標が得られる。ランドマークの車両からの相対距離および方位は、図示しないミリ波レーダやレーザレーダの情報を用いて算出しても良い。なお、地物の座標演算は画像プロセッサ20にて実行されてもよい。
 主プロセッサ40が演算、処理、又は取得した結果としての地物情報や走路情報はメモリ80に一時的に保持される。地物情報とは、画像認識によって特定された地物の位置座標や形状、大きさを示す情報である。メモリ80において各地物は、例えば、地物の輪郭に沿うように配置された座標点群によって表現される。地物の形状および位置の表現形式としては、多様な態様を採用可能である。例えば地物の形状や位置は多項式表現されていてもよい。
 なお、地物情報は、ランドマーク情報と、レーンマーク情報とに大別可能である。ランドマーク情報には、ランドマークの種別や、座標情報、色、大きさ、形状などを含まれる。ランドマークの種別としては、看板、信号、標識、ポール、横断歩道、路面標示(例えば停止線)、マンホールなどを採用可能である。また、レーンマークをランドマークとして採用することもできる。レーンマーク情報には、例えば、レーンマークの位置情報や、レーンマークが実線、破線、ボッツドッツのいずれのパターンによって実現されているかを示す情報が含まれている。レーンマークの位置情報は、レーンマークが形成されている地点の座標群(つまり点群)として表現されている。なお、他の態様としてレーンマークの位置情報は、多項式表現されていてもよい。レーンマークの位置情報は、多項式表現された線分の集合体(つまり線群)でもよい。
 また、主プロセッサ40は、地図活用および地図更新(または生成)に係る種々の処理を実行する。地図更新に係る処理として、主プロセッサ40は、例えば、地図情報のダウンロードやプローブデータのアップロード、ローカライズに使用するランドマークの選別などを実行する。地図活用および地図更新(または生成)に係る種々の処理について、いくつかの具体的な例は追って詳述する。
 通信モジュール50は、主プロセッサ40と後述するサーバ3とが相互に通信可能になるように、主プロセッサ40とサーバ3との間に介在している。通信モジュール50は、主プロセッサ40から入力されたプローブデータをサーバ3に送信する。また、通信モジュール50は、サーバ3に蓄積された地図情報、および関連する情報を受信し、メモリ80に格納する。主プロセッサ40は、通信モジュール50を介して受信され、メモリ80に格納された地図情報に基づいて、車両のステアリング制御や加速、制動などの各種制御を実行可能に構成されている。
 HMI60は、各種の情報をユーザに通知したり、ユーザが所定の操作を車両に伝達したりするためのユーザインタフェースである。HMI60としては、例えばカーナビゲーション装置に付属するディスプレイ、インストルメントパネルに内蔵されたディスプレイ、ウインドシールドに投影されるヘッドアップディスプレイ、マイク、スピーカ等を採用可能である。さらには、車両と通信可能に接続されたスマートフォン等のモバイル端末も地図システム1内のHMI60になりえる。
 ユーザはHMI60に表示される情報を視覚的に得るほか、音声や警告音、振動によっても情報を得ることができる。また、ユーザは、ディスプレイのタッチ操作や音声により車両に対して所望の動作を要求することができる。
 例えば、ユーザが地図情報を活用して自動ステアリング等の高度運転支援のサービスを受けようとするとき、ユーザはHMI60を介して該機能を有効化する。例えば、ディスプレイ上に示された「地図連携」ボタンをタップすると地図活用機能が有効化され、地図情報のダウンロードが開始される。別の例では、音声にて命令を与えることにより地図活用の機能が有効化される。なお、地図更新に係る地図情報のアップロードについては、車両とサーバ3との通信が確立されている間常時実行されていても良いし、「地図連携」ボタンをタップして地図活用の機能が有効化されている間に実行されるようにされても良い。ユーザの意思を反映する別のUIによって有効化されても良い。
 アクチュエータ70は、例えば制動装置(いわゆるブレーキアクチュエータ)や、電子スロットル、操舵アクチュエータなどを含む。アクチュエータ70は、車両の加速、減速、及び操舵の少なくとも何れかに係るハードウェア要素である。
 メモリ80は、例えばRAM等の揮発性メモリを用いて実現されている。メモリ80は、フラッシュメモリ等の不揮発性メモリを用いて実現されていてもよい。メモリ80は、揮発性メモリと不揮発性メモリの両方を備えていてもよい。ここでは一例としてメモリ80は、揮発性メモリを用いてなる一時記憶部81と、不揮発性メモリを用いてなるストレージ部82とを備えるものとする。ストレージ部82には、主プロセッサ40にプローブデータの生成等の処理を実行させるためのプログラム(以降、車両用プログラム)が格納されている。車両用プログラムは、非遷移的実体的な記憶媒体に格納されていればよい。
 [ローカライズについて]
 主プロセッサ40は、リアルタイムに撮像された画像に基づいて算出されたランドマークの座標と、サーバ3からダウンロードした地図情報に含まれるランドマークの座標とを照合して自車両の詳細位置を特定(つまりローカライズ)する。
 例えば主プロセッサ40は、方面看板、信号機、道路標識、停止線といったランドマークを用いて縦方向のローカライズを行う。ここでの縦方向とは、車両の前後方向に相当する。また、縦方向とは、直線道路区間においては、自車両から見て道路が伸びる方向(以降、道路延設方向とも記載)に相当する。縦方向のローカライズとは、道路延設方向における自車位置を特定する処理に相当する。例えば画像解析結果として、自車両正面に存在する方面看板までの距離が100mと特定している状況においては、地図データに登録されている当該方面看板の位置座標から100mだけ自車両側にずれた位置に自車両が存在すると判定する。このような縦方向のローカライズを行うことにより、交差点や、カーブ入口/出口、トンネル入口/出口、渋滞の最後尾などといった、道路上の特徴点(換言すればPOI)までの詳細な残り距離が特定される。
 また、主プロセッサ40は、レーンマーク、道路端、ガードレールなどのランドマークを用いて、横方向のローカライズを行う。横方向のローカライズとは、走行車線の特定や、走行車線内での自車両の詳細位置(車線中央から左右方向へのオフセット量)を特定することを指す。ここでの横方向とは、車幅方向や道路の幅方向を指す。横方向のローカライズは、例えば画像プロセッサ20で認識された左右の道路端/区画線からの距離に基づいて実現される。例えば、画像解析の結果として、左側道路端から車両中心までの距離が1.75mと特定されている場合には、左側道路端の座標から右側に1.75mずれた位置に自車両が存在すると判定する。ローカライズの結果としての自車位置は、地図データと同様の座標系(例えば緯度、経度、高度)で表現されればよい。自車位置情報は、例えばWGS84(World Geodetic System 1984)など、任意の絶対座標系で表現することができる。また、自車位置情報は、後述するマップタイル内での位置を示す局所座標系で表現されてもよい。
 ここでは一例として、縦方向のローカライズに用いるランドマークの種別と、横方向のローカライズに用いるランドマークの種別とは異なるものとする。ただし、他の態様として主プロセッサ40は1つのランドマークを用いて縦方向と横方向のローカライズを行うように構成されていてもよい。また、複数のランドマークを検出している場合には、自車両から最も近いランドマークを用いてローカライズを行えばよい。例えば主プロセッサ40は、自車両に前方に複数のランドマーク(例えば方面看板)を検出している場合には、それら複数のランドマークのうち自車両から最も近いものを用いて縦方向のローカライズを行う。画像等に基づく物体の種別や距離の認識精度は、車両から近い物体ほど、その認識精度が高くなる。つまり、複数のランドマークを検出している場合には、車両から最も近いランドマークを用いてローカライズを行う構成によれば、位置の推定精度を高めることができる。
 主プロセッサ40は、ランドマークを検出(換言すれば捕捉)できている限りは、所定の位置算出間隔で逐次ローカライズを行う。位置算出間隔は例えば100ミリ秒である。位置算出間隔は200ミリ秒や400ミリ秒であってもよい。位置算出間隔は、自車両が走行している道路(以降、走行路)の種別や、車速、外部環境に応じて動的に変更されてもよい。例えば、カーブや交差点までの残り距離が0.5km以内となる道路区間を走行している場合には、所定の標準間隔(例えば200ミリ秒)よりも短い値(例えば100ミリ秒)に設定されてもよい。カーブや交差点付近では、それらの地物に対する自車両の位置情報を高精度に維持する必要がある。カーブや交差点といった、相対的に高度/精密な車両制御(例えばステアリング制御)を実施するシーンにおいて、位置算出間隔を密に設定することにより、自車位置情報の精度を高めることが可能となる。つまり、位置算出間隔を密にするモードを備えることにより、カーブ等の相対的に高度/精密な車両制御を実施するシーンにおいて、自車位置情報に基づく車両制御をより適正に実施可能となる。他方、位置算出間隔を疎にするモードを備えることにより、主プロセッサ40の処理負荷を低減可能となる。
 なお、主プロセッサ40は、ユーザによって地図活用機能が有効化されてあって、かつ、現在位置付近の詳細地図データを取得できている場合に、ローカライズを逐次実施する。主プロセッサ40がローカライズを実施するか否かは、走行路の種別に応じて変更されてもよい。たとえば走行路が自動車専用道路である場合にはローカライズを実施する一方、走行路が一般道路である場合にはローカライズを実施しないように構成されていてもよい。ここでの自動車専用道路とは、歩行者の進入が原則的に禁止されている道路であって、例えば高速道路などの有料道路が含まれる。自動車用道路には、自動車以外の交通が禁止されている一般道路も含まれる。主プロセッサ40によるローカライズの実行/不実行は、地図データの整備状態や走行路の種別等に基づいて、主プロセッサ40が判断してもよいし、サーバ3によって制御されてもよい。
 主プロセッサ40は、ローカライズを実施できない場合(例えばランドマークを1つも検出できていない場合)や、地図活用機能が有効化されていない場合には、ヨーレートと車速を用いてデッドレコニング(Dead Reckoning /自律航法)を行う。デッドレコニングに用いるヨーレートは、SfM技術を用いて画像プロセッサ20で認識されたものでもよいし、ヨーレートセンサで検出されたものでもよい。
 主プロセッサ40は、ローカライズあるいはデッドレコニングにより特定した自車両の現在位置と地図データに基づいて、主プロセッサ40が車両に搭載されたハードウェアを動作させるためのアクチュエータ70に対して対応する命令を出力する。これにより、自動運転や運転支援が実現される。なお、主プロセッサ40は、主プロセッサ40自身又は他のECU(例えば自動運転ECU)が生成した走行計画に従って、方向指示器やハザードランプ、ヘッドライトなどのランプの点灯制御も行う。
 [地図活用による車両制御の例]
 主プロセッサ40は、現在位置よりも一定距離(例えば200m)先にある料金所等のPOI情報を地図データから取得することにより、車線変更や減速などの車両制御を、余裕をもって(換言すればより安全に)実行可能となる。ここでのPOIとは、車両の制御やパスプランの観点において注目されるべき地点を指す。たとえば、カーブ入口/出口、トンネル入口/出口、渋滞の先頭および最後尾などといった、車両の走行制御に影響を及ぼす地図要素がPOIに含まれる。POIには静的地図情報に該当する静的POIと、動的地図情報に該当する動的POIが含まれる。動的POIとは、渋滞の最後尾位置や、先頭位置を指す。
 ここでは一例として、地図データを用いて車両を自動走行させる場合を例にとって地図活用の有用性を説明する。なお、車両の自動制御に係るアプリケーション(以降、アプリとも記載)としては、ACCがある。ACCは、Adaptive Cruise Controlの略であって、車両の走行速度が所定の上限値を超えない範囲において、先行車との車間距離が一定となるように車両を自動的に走行させる機能を指す。また、車両の自動制御に係るアプリ(以降、車両制御アプリとも記載)には、レーン中心を維持するように車両を走行させるアプリ(以降、車線維持アプリ)や、車線変更に係る操作を支援又は自動的に実行する機能(以降、車線変更アプリ)などがある。
 例えば、車線維持アプリにおいては、車両前方のレーン形状(曲率など)を事前に把握して操舵量を調整する必要がある。しかしながら、前方がブラインドコーナーとなっている場合や前方車両によって視界が遮られている場合には、カメラ10では前方のレーン形状を認識不可能なことがある。また、雨や雪等で前方の見通しが悪くなる気象状況により、カメラ10で前方のレーン形状が認識困難な場合もある。これらのような場合に、地図データを用いて前方道路の曲率を取得し、カメラ10の認識結果を補完することにより、車線維持アプリが中断してしまう恐れを低減できる(換言すれば継続させることができる)。
 また、ACCにおいては、車両前方道路の曲率などを事前に把握して速度を調整する必要がある。例えば、車両がカーブを円滑、安全に走行可能なように、カーブ手前で所定の目標速度まで減速する制御を実行することがある。しかしながら、上述の通り、先行車両や気象条件、道路形状によっては、カメラ10で前方のレーン形状が認識困難な場合もある。そのような課題に対し、地図データを用いて前方道路の曲率を事前に取得する構成によれば、カメラ10にて前方道路の曲率を検出できない場合においても、車両がカーブ区間に進入するまでに、前方カーブの曲率に応じた目標速度まで自動的に減速することが可能となる。
 さらに、ACC機能がオンとなっている場合には、先行車の速度に合わせて、所定の目標速度よりも低速度で走行している場合がある。そのような状況下において、先行車が車線変更等で不在となった場合(換言すれば先行車が自車前方から離脱した場合)には、ACC機能は通常、所定の目標速度まで加速するように作動する。しかし、料金所の手前や、高速道路の退出路など、先行車離脱に伴う加速が好ましくない区間も存在する。そのような事情に対し、地図活用機能によれば、地図データに基づいて現在位置が、加速が好ましい道路区間であるかを判別できる。仮に現在位置が料金所の手前(たとえば200m以内)である場合には、目標速度への加速をキャンセルできる。つまり、地図データを活用することにより、不要な加速を実施する恐れを低減できる。なお、ACC設定速度への加速が好ましくない区間とは、料金所付近や高速道路の退出路、交差点付近、急カーブなどを指す。
 以上、種々の例を開示したが、地図活用による車両制御は以上に限定されない。また、地図データは運転席乗員(いわゆるドライバ)が運転権限をもっている状態においても有用である。現在位置よりも一定距離先にある渋滞等のPOI情報は、運転操作の支援情報としてドライバに報知されてもよい。
 [主プロセッサによるプローブデータの生成について]
 主プロセッサ40は、メモリ80に保持された走行軌道情報、走路情報、および地物情報を、含むデータセットをプローブデータとしてサーバ3に送信する。走行軌道情報は、自車両が走行した軌道を示す情報である。例えば走行軌道情報は、自車位置の点列として表現される。走路情報は、走行路の端部や中心線の軌道を示す情報である。走行路の端部等もまた、座標点群によって表現されればよい。走路情報は、直接的にまたは間接的に道路の曲率や幅員などの道路形状を示す。
 具体的には、主プロセッサ40は、画像認識等によって得られる地物情報、走路情報、及び自車位置座標(以降、認識結果)を逐次取得し、取得時刻(換言すれば観測時刻)と対応づけてメモリ80に時系列順に保存していく。地物情報等の認識結果は、たとえば画像プロセッサ20から逐次(例えば100ミリ秒ごとに)提供される。地物情報は、主プロセッサ40が画像プロセッサ20との協働により逐次生成してもよい。
 メモリ80に蓄積された各時刻における認識結果データは、所定のアップロード間隔でまとめてアップロードされる。アップロード間隔は、例えば画像認識処理の実行周期のK(Kは自然数)倍に設定されている。K≧2の場合には、主プロセッサ40は、メモリ80に保存されている一定時間以内の認識結果をパッケージ化したデータをプローブデータとしてアップロードする。ここでは一例として、K=4に設定されている。つまり、主プロセッサ40は、400ミリ秒以内の認識結果をパッケージ化したデータをプローブデータとしてアップロードする。なお、複数時点における車両位置を含むデータは、上述の走行軌道情報に相当する。
 車両が順次送信したプローブデータは、サーバ3にて、所定の保存/管理形式で保存される。たとえばサーバ3は、同一の車両が順次送信したプローブデータは、所定数のランドマークを含む長さに連結して保存する。なお、プローブデータの長さは、道路セグメント単位であってもよい。道路セグメントは、地図データにおける道路の管理単位である。道路セグメントは道路を所定の規則で区切ったものである。道路セグメントは、例えば道路リンクに対応するものであってもよい。ここでの道路リンクとは、交差点や道路の終端点を示す道路ノード間を接続する道路区間を指す。あるいは、道路セグメントは、道路リンクをさらに細分化したものであってもよい。道路セグメントは、道路を所定の長さで(例えば10mごとに)区切ったものであってもよい。
 ここでは一例として各車両(実態的には車載システム2)は、車両の走行軌道や道路端などを座標点列にて表現したデータをアップロードするものとするが、他の態様として走行軌道や道路端、車線中心線などは多項式表現されていても良い。また、車両位置情報の代わりに、主プロセッサ40がGPSによる測位結果、SfM情報、及び車速情報をアップロードし、サーバ3がそれらの情報をもとに各時点における車両位置を算出するように構成されていても良い。プローブデータに含まれる地物情報や走路軌道情報は、1つの側面においては、サーバ3が静的地図を生成するための情報(以降、静的情報)に相当する。
 その他、プローブデータは、直近一定時間以内における車速や、舵角、ヨーレート、ウインカー作動情報、レーンID、レーンに対する相対位置などといった、車両の挙動を示す動的情報(以降、車両挙動情報)を含んでいてもよい。車両挙動情報には、ワイパー作動情報、シフトポジション、車体の向き、車体のピッチ角、ロール角、先行車両との車間距離なども含まれる。レーンに対する相対位置情報とは、車線中心線に対する左右へのオフセット量や、レーンを車体がまたいでいるかなどを指す。
 なお、サーバ3は、車両挙動情報を取得することにより、例えば渋滞区間や、落下物や路上駐車車両などの障害物がある地点などといった、準動的地図情報に相当するPOI情報を取得することができる。例えばサーバ3は、車速が所定の閾値以下となっている車群の末尾を渋滞区間の最後尾として採用し、当該最後尾に相当する地点を渋滞に係る動的POIに設定する。また、車速が所定の閾値以下となっている車群の先頭位置を渋滞区間の先頭位置として採用し、当該先頭位置を動的POIに設定する。さらに、サーバ3は、一定台数(例えば10台)以上の車両が一時的にレーンをまたいで走行したり、車線変更したりしている地点を落下物や路上駐車車両などの障害物がある地点(以降、障害物存在地点)とみなす。そして、当該障害物存在地点を動的POIに設定する。
 サーバ3に格納されている地図データは、概略的には例えば図2に示すように、道路の形状を3次スプライン曲線で表現した道路セグメント62と、道路セグメント62周辺に存在するランドマーク63とを含む。道路セグメント62およびランドマーク63は、緯度、経度および高度の値をそれぞれ有している。ランドマーク63は、例えば、交通標識などを含み、カメラ10や状態取得部たる各種センサ30によりリアルタイムに得られる情報のほか、すでに位置が確定しているものも統合的に地図上に構成されている。地図情報はリアルタイムに得られる情報に基づいて逐次更新される。
 図3は、地図データの構造の一例を概念的に示したものである。地図データは、図3に示すように、道路ネットワークデータ、レーンネットワークデータ、地物データ、およびPOIデータを備える。各データは階層的に構成されている。道路ネットワークデータは、道路リンク毎のリンクID、リンク長、レーン数、及び接続ノード情報(例えばノードID)と、道路ノードごとのノードID、位置座標、接続リンク情報(例えばリンクID)と、を含む。レーンネットワークデータは、レーンID、レーンレベルでのリンクID、リンク長、及び接続ノード情報と、レーンノードごとのノードID、位置座標、接続リンク情報(例えばリンクID)と、を含む。レーンネットワークデータが備えるレーンレベルでのリンク情報は、道路ネットワークデータが備える道路リンクと対応付けられている。
 地物データは、区画線データと、ランドマークデータとを備える。区画線データは、区画線ごとの区画線ID、及び、設置部分を表す座標点群を備える。区画線データは、破線や実線、道路鋲などといったパターン情報を含む。区画線データは、レーン情報(例えばレーンIDやレーンレベルでのリンクID)と対応付けられている。ランドマークデータは、ランドマークごとの位置及び種別を表す。各地物の形状および位置は、座標点群によって表現されている。POIデータは、高速道路の本線から退出するための分岐点や、合流地点、制限速度変化点、車線変更地点、渋滞区間、工事区間、交差点、トンネル、料金所などといった、車両の走行計画に影響を及ぼす地物の位置及び種別を示すデータである。POIデータは種別や位置情報を含む。
 また、地図データは、走行軌道モデルを含んでいてもよい。走行軌道モデルは、複数の車両の走行軌跡を統計的に統合することで生成された軌道データである。走行軌道モデルは、たとえば車線ごとの走行軌跡を平均化したものである。走行軌道モデルは、自動運転時の基準となる走行軌道を示すデータに相当する。
 地図データは、静的地図情報と動的地図情報とを含みうる。ここでの静的地図情報とは、道路網や、道路形状、路面表示、Xガードレールなどの構造物、建築物などといった、変化が生じにくい地物についての情報(例えば1週間~1ヶ月以内での更新が求められる地物についての情報)を指す。静的な地図情報は、ベース地図とも称される。動的地図情報とは、道路工事情報や、交通規制情報など、相対的に短期間で状態が変化する地図要素についての情報を指す。なお、動的地図情報は、状態の存続期間の期待値(換言すれば変化の速度)に応じて、準静的情報、準動的情報、及び秒単位で変化する動的情報(以降、超動的情報)に区分されうる。準静的情報は例えば1時間~数時間以内での更新が求められる情報である。道路工事情報や、交通規制情報、渋滞情報、広域気象情報が準静的情報に該当する。準動的情報は例えば10分単位での更新が求められる情報である。渋滞の最後尾位置、事故情報、狭域気象情報、道路上への落下物などが準動的情報に該当する。超動的情報には、例えば、車両や歩行者等の移動体の位置情報や、信号機の点灯状態などのITS(Intelligent Transport Systems)情報が含まれる。
 ここでは一例として、地図システム1が取り扱う地図データは静的地図情報、準静的地図情報、及び準動的情報を含むものとする。もちろん、地図システム1が取り扱う地図情報は、静的地図情報だけであってもよい。また、超動的情報を含んでいてもよい。静的地図情報と動的地図情報とは別々に管理(更新及び配信)されるように構成されていてもよい。
 サーバ3は、地図情報を格納するとともに、サーバ3に付随するサーバプロセッサ31により地図情報の更新を実施する。全地図収録地域に対応する全地図データは、複数のパッチに区分されて管理される。各パッチはそれぞれ異なる区域の地図データに相当する。なお、各パッチは隣接するパッチと対応地域が一部オーバーラップしていてもよい。
 例えば地図データは、地図収録領域を2km四方の矩形状に分割したマップタイルの単位で格納されている。以降では便宜上、マップタイルが収録対象とする実空間範囲(矩形状の分割区域)のことも、単にマップタイルと記載する。サーバ3には複数のマップタイルが対応する緯度、経度および高度の情報とともに格納されている。各マップタイルには固有のID(以降、タイルID)が付与されている。マップタイルは前述のパッチの下位概念に相当する。
 マップタイルの大きさは適宜変更可能であって、2km四方の矩形状に限定されない。1km四方や4km四方の矩形状であってもよい。また、マップタイルは、六角形や円形などであってもよい。各マップタイルは、隣接するマップタイルと部分的に重なるように設定されていてもよい。マップタイルの大きさはレイヤ別に異なっていてもよい。例えば、静的地図データのタイルサイズは2km四方とする一方、動的地図データ(特に準動的情報に関する地図データ)のタイルサイズは1km四方に設定されていてもよい。高速道路と一般道といった、道路種別に応じてタイルサイズは異なっていてもよい。一般道路のタイルサイズは、高速道路のタイルサイズに比べて小さく設定されていることが好ましい。また、一般道路も、幹線道路と細街路とで区別されてもよい。その場合、細街路のタイルサイズは幹線道路よりも小さく設定されていることが好ましい。地図収録領域は、車両が使用される国全体であってもよいし、一部のエリアだけであってもよい。例えば地図収録領域は、一般車両の自動運転が許可されているエリアや、自動運転移動サービスが提供される地域だけであっても良い。
 また、ここでは一例としてサーバ3は地図収録地域を均一サイズの矩形状に分割したマップタイル単位で地図データを管理(生成、更新、配信)するものとするがこれに限らない。マップタイルの大きさ、形状は不均一であってもよい。つまり、各パッチが対応する現実世界の範囲(換言すれば収録対象とする範囲)であるパッチ対応エリアの大きさや形状は、一律であってもよいし、多様であってもよい。例えば、ランドマーク等の地図要素の存在密度が相対的に疎である可能性が高い田園部のマップタイルは、ランドマーク等の地図要素が密に存在する可能性が高い都市部のマップタイルよりも大きく設定されていてもよい。例えば、田園部のマップタイルは4km四方の矩形状とする一方、都市部のマップタイルは1kmや0.5km四方の矩形状としてもよい。ここでの都市部とは、例えば人口密度が所定値以上となっている地域や、オフィスや商業施設が集中している地域を指す。田園部は、都市部以外の地域とすることができる。田園部は、農村部と読み替えてもよい。なお、地域の分類態様は、都市部と田園部の2段階に限定されない。地図収録地域は、人口密度が高い順に都市部、地方部、田園部、過疎部の4段階に区分されてもよい。地域の分割基準としては、人口密度の他に、企業数や、行政が指定する地域の用途、土地の利用率なども採用することができる。地域の都会度合いは、複数の種類の指標は組み合わせて決定されてもよい。
 加えて、全地図データの分割態様は、データサイズによって規定されていてもよい。換言すれば、地図収録地域は、データサイズによって規定される範囲で分割されて管理されてもよい。その場合、各パッチは、データ量が所定値未満となるように設定されている。そのような態様によれば、1回の配信におけるデータサイズを一定値以下とすることができる。なお、都市部のパッチが対応する実空間範囲は、田園部のサブブロックが対応する実空間範囲よりも狭くなることが想定される。前述の通り、都市部は田園部よりもランドマークやレーンマーク等の地図要素が密に存在することが見込まれるためである。
 地図連携(換言すれば地図活用)機能がオンとなっている間、車両は、通行する道路が属するマップタイルの情報を逐次サーバ3から得つつ、ダウンロードした地図データに基づいて走行する。なお、車載システム2にダウンロードされた地図データの取り扱いについては、メモリ80の容量等を鑑みて、多様な規則を適用可能である。例えばメモリ80の容量が相対的に小さい場合、主プロセッサ40は自車両がすでに離脱したマップタイルの地図データは、離脱次第あるいは所定距離以上離れたタイミングで削除するように構成されていてもよい。そのような構成によれば、容量の小さいメモリ80を用いて車載システム2を実現できる。すなわち、車載システム2の導入コストを低減することができる。
 また、メモリ80にダウンロードされた地図データは、ダウンロードされた時点から所定時間(例えば1日)経過したタイミングで削除するように構成されていてもよい。通勤路や通学路など、日常的に使用する道路についての地図データについては、可能な限り(例えば空き容量が所定値以下とならない限りは)メモリ80にキャッシュするように構成されていてよい。ダウンロードされた地図データの保存期間は、データの属性に応じて変更されてもよい。例えば静的地図データについては一定量までストレージ部82に保存する。一方、例えば工事情報などの動的地図データについては、ストレージ部82に保存せずに、当該動的地図データに対応する地域を通過したタイミングで一時記憶部81から削除するように構成されていてもよい。
 ここでは一例として、少なくとも走行用電源がオフになったタイミングでメモリ80内の地図データは全て削除されるように構成されているものとする。ここでの走行用電源とは、車両が走行するための電源であって、車両がガソリン車である場合にはイグニッション電源を指す。また、車両が電気自動車やハイブリッドカーである場合には、システムメインリレーを指す。
 [プローブデータのアップロード制御について]
 地図システム1は、車両が収集した地図に関する情報を地図システム1に含まれるサーバ3にアップロードし、サーバ3に格納された地図情報が更新できるようになっている。アップロードは、通常、所定の頻度で実行されている。例えば通常のアップロード間隔としては400ミリ秒間隔に設定されている。もちろん、アップロード間隔は、200ミリ秒や、500ミリ秒、1秒、2秒などであってもよい。ただし、主プロセッサ40は、所定の条件下においては、プローブデータのアップロードを停止したり、その頻度を低減したり、アップロードする情報の種別を絞る動作モードを備えていてもよい。以下では、主プロセッサ40がアップロードを通常頻度で実行する通常モードに加えて、通常頻度よりもアップロードの頻度を低下させた低頻度モードを有している態様について図4を参照して説明する。図4は、主プロセッサ40が実行する処理フローの一例を示している。なお、通常モードが第1モードに相当するとともに、低頻度モードが第2モードに相当する。
 図4に示すように、まず、ステップS100が実行される。ステップS100は、主プロセッサ40がGPSによる測位結果の情報に基づいて、自車両の大まかな位置を決定するステップである。
 次に、ステップS101が実行される。ステップS101は、主プロセッサ40がサーバ3から、自車両の大まかな位置に対応した地図情報をダウンロードするステップである。自車両の大まかな位置に対応した地図情報の決定及び取得に関しては別途後述する。
 次に、ステップS102が実行される。ステップS102は、主プロセッサ40が自車両の詳細な位置を決定するステップである。自車両の詳細な位置とは、地球上における緯度、経度および高度を含むグローバル座標である。主プロセッサ40は、例えばGPSを利用した大まかな位置情報とともに、サーバ3からダウンロードされた地図情報に基づいて自車両の詳細なグローバル座標を決定する。
 次に、ステップS103が実行される。ステップS103は、自車両の置かれた状況が所定の低頻度条件を満たすか否かを判定するステップである。具体的には、自車両の位置が予め決められた所定の低頻度区域に存在しているか否かを主プロセッサ40が判定するステップである。すなわち、図4に示す例における低頻度条件は、自車両の位置が予め決められた所定の低頻度区域に存在しているか否か、である。
 自車両の置かれた状況が所定の低頻度条件を満たす、すなわち、自車両の位置が予め決められた所定の低頻度区域に存在しているときには、ステップS103はYES判定となり、ステップS104に進む。低頻度区域は、図5に示すように、地図上において予め設定されている。低頻度区域は、道路セグメント62に沿った線として設定されていても良いし、図5に例示したように所定の面積を持った面として設定されても良い。
 一方、自車両の置かれた状況が所定の低頻度条件を満たさない場合には、ステップS105に進む。ステップS105はアップロードの頻度を通常の頻度で行う通常頻度モードである。
 上記のとおり、自車両の位置が予め決められた所定の低頻度区域に存在しているときにはステップS104に進み、図4に示す通り、地図システム1は低頻度モードとなる。ステップS104またはステップS105を経て、ステップS106に進む。ステップS106は、地図情報を含むプローブデータをサーバ3に送信するステップである。ステップS104またはステップS105において設定されたプローブデータのアップロードに係る頻度モードに応じて所定の頻度でプローブデータをサーバ3にアップロードする。その後、本フローは終了する。
 以下、低頻度モードについて詳しく説明する。低頻度モードが有効にされている場合には、通常頻度モードに較べて通信モジュール50とサーバ3との間の地図情報に関する通信データ量が減少する。よって、回線の負荷を低減できるとともに、通信に係るコストを低減することができる。
 低頻度区域とは、例えば、都市部の幹線道路など、自車両の周囲に数多くの別の他車両が存在し、サーバ3に対して多くの他車両から十分な量の地図情報がアップロードされうる環境にあるような区域である。このような区域では、他車両からの地図情報のアップロードが多量に行われるため、自車両のアップロード頻度を低減しても、地図情報の更新のための十分な情報量を確保することができる。
 また、別の例では、例えば自動車専用道路など、交通標識や道路標示等のランドマーク63の変更頻度の比較的低い区域である。このような区域では、道路上および道路近傍のハードウェアとしてのランドマーク63の更新自体が低頻度であると予想されるため、自車両のアップロード頻度を低減しても、地図情報の更新のための十分な情報量を確保することができる。
 さらに、低頻度モードにおいて、アップロードの頻度をゼロにすることもできる。アップロードの頻度がゼロである状態とは、すなわちサーバ3への地図情報のアップロードを実質的に禁止する状態であり、特に禁止モードと称する。つまり、低頻度モードは禁止モードを含む。
 禁止モードが有効になる低頻度区域である禁止区域は、例えば、軍事施設や企業内施設等の機密性の高い施設や、サファリパークのような車両で走行可能な道路を有しつつも自動ステアリングによる操舵の対象として相応しくない施設における区域である。このような禁止区域では、車両からサーバ3への地図情報のアップロードが禁止され、サーバ3においても地図は生成されない。よって、車両制御のためのダウンロードも行われない。
 低頻度モードが有効にされる所定条件について、上記した例では、自車両の位置が予め決められた所定の低頻度区域に存在しているか否か、を採用したが、別の条件を設定することもできる。
 例えば、夜間において通常頻度モードから低頻度モードに移行しても良い。夜間は昼間に較べてカメラ10により交通標識や道路標示を認識することが困難になりがちであり、ランドマーク63の位置の決定の信頼性が昼間に較べて低下する。そのため、サーバ3へのランドマーク63の位置情報のアップロードの頻度を低下させることが好ましい場合がある。なお、夜間やそれに準じた低照度の環境下に車両が置かれる時刻帯を予め設定しておき、その時刻帯においてはアップロードの頻度を低頻度モードとすると良い。また、季節が存在する地域においては、夜間として定義される時刻帯が季節により異なるため、季節に対応して夜間として定義する時刻帯を可変とすることが好ましい。例えば、白夜のある地域においては夜間の時刻帯が比較的短く、車両の周辺環境が極端に低照度になる機会が少ない。このような地域では、低頻度モードが有効になる時間も短くなる。
 さらに、車両が走行する地域の気象条件に基づいて通常頻度モードから低頻度モードに移行しても良い。例えば豪雨や豪雪、濃霧、砂嵐などの悪天候時には交通標識や道路標示を認識することが困難になりがちであり、ランドマーク63の位置の決定の信頼性が晴天に較べて低下する。そのため、サーバ3へのランドマーク63の位置情報のアップロードの頻度を低下させることが好ましい場合がある。なお、車両がどのような気象条件下にあるかを判断する方法として、例えば、カメラ10が撮像した画像を用いて道路面の反射率を計測したり、画像のコントラストに基づいた天候の判定を実施したりすることができる。また、公的な機関が公開する情報に基づいて、豪雨や豪雪、濃霧、砂嵐などの所定の気象条件を満たす地域をリアルタイムに低頻度区域に指定しても良い。なお、低頻度区域の設定自体を、気象条件や時間帯、サーバ3でのプローブデータの収集状況(換言すれば集まり度合い)に応じて動的に変更してもよい。悪天候時や、夜間、プローブデータが十分に収集されている場合には、低頻度区域ではない区域(以降、通常区域)も低頻度区域に設定されてもよい。区域の設定変更は、サーバ3が実施してもよいし、車両が実施してもよい。
 さらに、主プロセッサ40や画像プロセッサ20の使用年数(換言すれば総稼働時間)に基づいて、アップロードの頻度を段階的に減少させるように構成しても良い。主プロセッサ40や画像プロセッサ20の性能は日々進化しており、より新しいプロセッサほど画像処理やアップロードに係る時間が短く、かつ高精度に行えると推察される。よって、プロセッサの使用年数が長くなるほど、地図情報のアップロードの頻度を少なくすると良い。逆に、使用年数が短いプロセッサに積極的に地図情報をアップロードさせることで、効率的に地図情報の収集を行うことができる。
 以上、走行区域や、気象条件、時間帯、画像プロセッサ20の使用年数に基づいて、プローブデータのアップロード頻度を変更する態様を開示したが、地図システム1は、次のように構成されていてもよい。主プロセッサ40は、動作モードとして、全送信モードと、抑制モードとを備える。全送信モードは、プローブデータとして送信するように予め指定されている全ての項目についての情報を含むデータセットをプローブデータとしてアップロードする動作モードに相当する。一方、抑制モードは、プローブデータとして、全送信モードにてアップロード対象に設定されている全ての項目のうちの一部のみをアップロードする動作モードである。全送信モードが所定の種別の地物をアップロード対象とする第1モードに相当し、抑制モードが、第1モードとしての全送信モードよりもアップロード対象とする地物の数が少ない第2モードに相当する。
 抑制モードにおいてアップロードする情報の種別は、予め設定されていてもよいし、サーバ3によって指定されてもよい。抑制モードにて車両にアップロードさせる情報の種類は、例えば、地図データの生成/更新の観点において不足している項目とすることができる。なお、抑制モードにてアップロードする項目数は0であってもよい。抑制モードは禁止モードも含みうる。仮に全送信モードにてアップロード対象とする情報が、静的情報と動的情報の両方を含む場合には、抑制モードにてアップロード対象とする情報は動的情報だけであってもよい。
 上記の構成においてサーバプロセッサ31は、所定のアップロード抑制区間に存在する車両に対しては、抑制モードで動作するように指示する。また、サーバプロセッサ31は、アップロード抑制区間以外の区間に存在する車両に対しては、全送信モードで動作するように指示する。各車両の主プロセッサ40は、サーバ3から指示された動作モードで動作する。
 アップロード抑制区間は、例えば地図データを生成/更新するために必要十分な量のプローブデータを収集済みの道路セグメントとすればよい。当該設定によれば、サーバ3は、十分な量のプローブデータが集まっている道路セグメントを走行している車両に対しては抑制モードを指示し、動的情報だけをアップロードさせたり、一部の地物情報だけをアップロードさせたりすることができる。
 また、アップロード抑制区間は、悪天候となっている道路セグメントであってもよい。当該設定によれば、精度の悪いプローブデータがアップロードされる恐れを低減できる。アップロード抑制区間は、プローブデータの集まり度合いや、時間帯、気象条件に応じて動的に変更されてもよい。アップロード抑制区間はサーバプロセッサ31によって決定されればよい。なお、サーバプロセッサ31は、決定したアップロード抑制区間の情報を車両に配信し、車両側にて、現在位置がアップロード抑制区間に該当するか否かを判断し、動作モードを決定してもよい。そのような構成によればサーバプロセッサ31が車両ごとに動作モードを指定する必要がなくなり、サーバプロセッサ31の処理負荷を低減できる。主プロセッサは、車両の走行区域、気象条件、及び時間帯の少なくとも何れか1つに基づいて、自発的に動作モードを切り替えるように構成されていてもよい。主プロセッサ40は、サーバ3からの指示、車両の走行区域、気象条件、及び時間帯の少なくとも何れか1つに基づいて第1モードから第2モードへ移行するように構成されていればよい。
 抑制モードによれば、全送信モード時よりも報告対象とする情報種別が低減される。その結果、システム全体としては車両からサーバ3への通信量が低減できる。また、不要な項目についてのアップロードを抑制することができるため、通信設備のみならず、主プロセッサ40やサーバプロセッサ31の負荷を低減することができる。
 その他、サーバプロセッサ31は、所定のアップロード抑制区間に複数の車両が存在する場合には、複数の車両のうちの任意の1つを送信担当車両に設定し、当該送信担当車両にのみ、プローブデータのアップロードを実施させてもよい。そのような構成によれば、アップロード抑制区間を走行している送信担当車両以外の車両はプローブデータをアップロードしない。ゆえに、システム全体としては、車両からサーバ3へのデータ通信量を低減することができる。
 なお、送信担当車両は、例えば、先行車両との車間距離が十分に空いている車両や、トラック等の背の高い車などとすればよい。これらの車両によれば、地物情報を認識しやすい。故に、品質の良い地物情報を効率よく収集することができる。また、送信担当車両は、1つの群を構成する複数の車両(以降、車両群)のなかで、先頭車両に相当する車両や、最も物体認識性能が良い画像プロセッサ20を使用している車両、GPSによる測位精度が最も高い車両などであってもよい。送信担当車両は、各車両から逐次報告されてくる位置情報に基づいて、サーバ3が決定すればよい。もちろん、他の態様として、送信担当車両各車両が車車間通信によって情報を共有することにより決定されてもよい。なお、サーバ3が送信担当車両を指名する構成においては、前提として、各車両は、位置情報や、画像プロセッサ20の性能、GPSの測位精度を示す情報等の車両情報をサーバ3に逐次報告するように構成されているものとする。以上の構成によっても、車両からサーバ3へのデータ通信量を低減することができる。車両群は、車線ごとに設定されることが好ましい。車間距離が所定の閾値未満となっている集合を1つの車両群に設定することができる。上記構成は、サーバ3が動作モードとして、道路セグメント上に位置する全ての車両に対してプローブデータを送信させる収集モードと、一部の車両に対してはプローブデータの送信を要求しないセーブモードと、を備える構成に相当する。
 サーバ3の動作モードは、道路セグメントごと又はマップタイルごとに異なり得る。各道路セグメント/マップタイルに対するサーバ3の動作モードは、当該道路セグメント/マップタイルに対するプローブデータの収集状況に応じて決定されればよい。例えばサーバ3は、プローブデータが不足している道路セグメントに対しては収集モードで動作する一方、必要十分な量のデータが集まっている道路セグメントに対してはセーブモードで動作すればよい。なお、サーバ3は、マップタイル単位で地図データを更新してもよいし、道路セグメント単位で地図データの更新を行っても良い。仮にマップタイル単位で地図更新を行う場合には、上述したアップロード抑制区間の概念は、マップタイルの概念へと拡張されればよい。つまり、アップロード抑制区間に相当するアップロード抑制タイルを適宜設定すればよい。各車両はアップロード抑制タイルに存在することに基づいて抑制モードで動作するように構成されていればよい。
 [地図生成処理について]
 図6~図8を参照して、通信モジュール50を介してサーバ3に送信されたプローブデータに基づいて、サーバプロセッサ31が地図を生成する際のフローの一例を説明する。
 あるマップタイルに対応する地域を走行する車両があり、当該車両は地図システム1を構成しているとする。すなわち、車両に搭載されたカメラ10により車両の環境を表す少なくとも1つの画像が取得され、画像に含まれるランドマークのグローバル座標が算出されてサーバ3にアップロードされる。
 図6に示すように、まずステップS200が実行される。ステップS200は、サーバ3を構成するサーバプロセッサ31が、プローブデータを取得するステップである。サーバプロセッサ31は、同一のマップタイル上を走行する複数の車両からプローブデータをそれぞれ取得する。すなわち、サーバプロセッサ31は、1つのランドマークに対して複数の座標データを取得することになる。なお、サーバ3には複数の車両からプローブデータが逐次アップロードされてくる。サーバプロセッサ31は、各車両から提供されたプローブデータを、提供元ごとに、所定の長さに連結又は分割した状態で保存する。
 次に、ステップS201が実行される。ステップS201は、サーバプロセッサ31が各ランドマークに対して座標の分散を算出し、算出された分散が所定の閾値よりも大きいか否かを判定するステップである。分散は緯度、経度、高度のそれぞれの座標に対して計算され、それぞれが予め指定された閾値と比較される。サーバプロセッサ31は、図7に示すように、複数の車両から受信したプローブデータに基づいて各ランドマーク63の分散σを算出する。図7に示す例では、マップタイルに4つのランドマーク63a~63dが存在し、各ランドマークに対して、σ 、σ 、σ 、σ 、を算出する。
 ステップS201において、すべてのランドマーク63の座標の分散が所定の閾値以下の場合には本ステップはNO判定となり、ステップS202に進む。
 ステップS202は、サーバプロセッサ31が、各ランドマーク63の座標を統計的に算出するステップである。各ランドマーク63の座標の分散が所定の閾値以下とは、ランドマーク63の座標がある程度の精度で検出できていることを示している。つまり、後述のリファレンスマークを用いることなく各ランドマーク63の座標を統計的に算出しても、比較的高い精度で地図を生成できることを意味している。ステップS202では、複数の車両から受信したプローブデータを用いて、各ランドマーク63に対して、例えば平均を求める処理を行い、グローバル座標を算出する。そして、本フローは終了する。
 一方、ステップS201において、少なくとも1つのランドマーク63の分散が所定の閾値より大きい場合には、YES判定となりステップS203に進む。ステップS203は、分散が所定の閾値よりも大きいランドマーク63について、高精度測位データが存在するか否かを判定するステップである。高精度測位データとは、例えばリアルタイムキネマティック(RTK)や精密単独測位(PPP)など、プローブデータとは異なる手法で測量された座標データである。高精度測位データは、レーザーレーダー(LiDAR)や光学カメラ、GNSS受信機、加速度センサなどを搭載した専用のモービルマッピングシステム車両や測位作業によって生成されたものを指す。以下、精密な測量によって確定された座標データをリファレンス座標と称する。また、リファレンス座標が付与されたランドマーク63をリファレンスマーク又は基準ランドマークと称する。リファレンスマークは、地上基準点(GCP:Ground Control Point)としての役割を担う。なお、リファレンスマークとしては、上記の高精度測位が実施されている地点である。例えば、規制標識や、案内標識などといった交通標識に相当する看板や、高速道路の料金所、高速道路と一般道路の接続点、ビル等の構造物の角部(エッジ)などをリファレンスマークとして採用可能である。また、区画線の角部や、他の区画線との分岐/合流点、ガードレールの端部などの特徴点もリファレンスマークとして採用可能である。車線が増減する地点もまたリファレンスマークとして採用可能である。リファレンスマークは、固定された立体構造物であることが好ましい。ここでは一例として、案内標識など、路面よりも相対的に高い位置に配置されてあって、カメラ10が撮影しやすい位置に配置されている地物がリファレンスマークに設定されているものとする。以降では便宜上、リファレンスマーク以外の地物のことを通常地物とも記載する。
 上記のように、ステップS203は、該当するランドマーク63にリファレンス座標が付与されているか否かを判定するステップである。ここで、例えば図7に示すランドマーク63bにリファレンス座標が存在すると仮定する(図8において、黒塗り三角マークで示す)。すなわち、ランドマーク63bがリファレンスマークである。リファレンスマークが存在する場合には、ステップS203はYES判定となり、ステップS204に進む。
 ステップS204は、サーバプロセッサ31が、リファレンスマークとしてのランドマーク63bについて、カメラ10やセンサ30によりリアルタイムに測定された当該ランドマーク63bの座標を、リファレンス座標に一致させるステップである。ここでは、ランドマーク63bにリファレンス座標が存在すると仮定しているが、例えばリファレンス座標がXrefであるとする。リアルタイムに測定されたプローブデータ上のランドマーク63bの座標をXとすれば、座標Xを座標Xrefに一致させる。すなわち、Xref-Xだけ平行移動させる。この操作により、複数のプローブデータに記録されたすべてのリファレンスマークとしてのランドマーク63bの座標はXrefとなる。一方、図8に示すように、ランドマーク63bを除くその他のランドマーク63a,63c,63dの座標もXref-Xだけ平行移動される。なお、ここでは便宜上、座標を1次元として表現しているが、実際には緯度、経度、高度の3次元で計算される。
 ステップS204の後、ステップS202が実行される。リファレンスマークとしてのランドマーク63bの座標はリファレンス座標に一致する。また、その他のランドマーク63a,63c,63dの座標は、例えば平均を求める処理を行い、グローバル座標を算出する。そして、本フローは終了する。
 ステップS203において、リファレンスマークが存在しない場合には、ステップS205に進む。ステップS205は、サーバプロセッサ31が、リファレンスマークが無い旨のフラグを立てるステップである。閾値より大きな分散が算出されたランドマーク63に対して、フラグを立てることにより、高精度測位が必要である可能性を可視化することができる。その後、本フローは終了する。
 上記のようなフローを採用することにより、地図システム1は、GPSおよびプローブデータの蓄積だけでは座標の精度が得られないランドマーク63に対して高精度測位データをリファレンス座標として用いることにより、高精度測位データを有しないその他のランドマーク63に対しても高精度に座標の算出を行うことができる。ひいては、該当するランドマーク63が属するマップタイルの精度を向上させることができる。
 上記構成は、サーバの観点においては、複数の車両から、走行している道路セグメントについての情報と対応付けられた、複数の地図要素の観測座標を含むプローブデータを取得することと、リファレンスマークの観測座標が含まれているプローブデータに対しては、リファレンスマークとして定義されている地図要素の観測座標が当該リファレンスマークの絶対座標と一致または乖離度合いが最小となるように、当該プローブデータに含まれる地図要素の観測座標を補正することと、補正された地図要素の観測座標を統計処理することによって、地図要素の座標を決定することと、を実行する構成に相当する。
 なお、以上では、ランドマーク情報を登録/更新する場合の処理について説明したが、上記の処理の対象は、例えばレーンマークなど、多様な地物(換言すれば地図要素)に適用可能である。サーバプロセッサ31は、図9に示すような手順にてランドマークや区画線などといった地物の座標情報を更新するように構成されていてもよい。なお、図9に示す処理(以降、地図データ更新処理)は、例えばマップタイルごとに定期的に実行されればよい。例えば図9に示す処理は、毎日深夜0時になったタイミングで実行される。もちろん、図9に示す処理は、処理対象とするマップタイルについてのプローブデータが所定数以上蓄積されたタイミングで実行されてもよい。地図データの更新は、道路セグメントごとに実施されてもよい。図9に示す地図データ更新処理は、ステップT201~T215を備える。
 まず、ステップT201では、同一の道路セグメント上を走行する複数の車両から提供され、図示しないデータベースに保存されている複数のプローブデータを読み出してステップT202に移る。なお、複数のプローブデータが、同一の道路セグメントについてのプローブデータであるか否かは、プローブデータに収容されている移動軌跡情報やGPS座標情報に基づいて判断されればよい。
 ステップT202では、ステップT201で抽出された複数のプローブデータのうちの任意の1つを選択してステップT203に移る。ステップT203では、選択されたプローブデータに含まれる種々の地物の座標情報に基づいて、対応する道路セグメントの地図データを抽出し、ステップT204に移る。
 ステップT204では、ステップT203で読み出した地図データに基づいて、プローブデータに所定数(例えば3個)以上のリファレンスマークの情報が含まれているか否かを判定する。ここでの所定数は、後段の位置合わせ処理の都合上、3以上であることが好ましい。他の態様として、含まれているべきリファレンスマークの数は4や5などに設定されていてもよい。サーバプロセッサ31は一例としてプローブデータに3個以上のリファレンスマークの情報が含まれている場合には、ステップT205を実行する。一方、プローブデータに含まれているリファレンスマークが3つ未満である場合にはステップT207を実行する。ステップT205では、地図データとプローブデータとで共通しているリファレンスマーク(以降、共通リファレンスマーク)を設定して、ステップT206を実行する。
 ステップT206では、共通リファレンスマークを用いて、プローブデータに対する位置合わせ処理を実施する。位置合わせ処理は、共通リファレンスマークの観測座標と地図登録座標とを用いて、プローブデータに含まれる種々の地物の観測位置座標を補正する処理である。ここでの地図登録座標とは、現行の(最新の)地図データに登録されている座標を指す。ここでの観測座標は、車両が算出した座標であって、プローブデータに記述されている座標を指す。
 プローブデータの補正方法としては、ICP(Iterative Closest Point)方式を採用可能である。ICP方式とは、2つの点群が全体として最も整合するように、各点群の平行移動及び回転を繰り返す方式である。具体的には、片側の点群(以降、第1点群)の各点から、他方の点群(以降、第2点群)で最近傍の点を探索し対応付けるステップと、対応付けた点の差を最小化するように,各点群の座標系の位置姿勢を調整するステップとを備える。各点群を回転、並進移動させるベクトルの算出方法としては、SVD(Singular Value Decomposition)や、最急降下法などを採用可能である。SVDによれば、或る点群を目標点群(例えば第1点群と第2点群の平均点群)に近づけるための回転行列と並進ベクトルを求めることができる。また、最急降下法によれば、対応する点同士の距離の平均二乗誤差を表す関数の最小値を探索し、回転行列と並進ベクトルを求めることができる。
 なお、プローブデータ中に含まれる地物の位置座標を、共通リファレンスマークの位置座標をもとに補正する方法は上記方法に限定されない。プローブデータの補正方法としては、別途出願した特願2018-163076号に記載の補正方法を採用してもよい。すなわち、共通リファレンスマークの観測座標の重心点(以降、第1重心点)を計算するとともに、複数の共通リファレンスマークを例えば最小二乗法により平面近似する。そして、その近似平面に対する法線ベクトル(以降、第1法線ベクトル)を計算する。また、サーバプロセッサ31は、共通リファレンスマークの地図登録座標の重心点(以降、第2重心点)を計算するとともに、それの共通リファレンスマークに対応する近似平面を算出する。そして、その平面に対する法線ベクトル(以降、第2法線ベクトル)を計算する。次に、第1重心点が第2重心点に一致するように、プローブデータ中の地物の位置座標を平行移動させる。加えて、第1法線ベクトルが第2法線ベクトルと一致するように、プローブデータ中の各地物の位置座標を回転移動させる。そして、共通リファレンスマークの誤差の二乗和が最小となるようにプローブデータ中の地物の位置座標を、第1重心点を通る第1法線ベクトル周りに回転移動させ、位置合わせ処理を終了する。
 サーバプロセッサ31は、位置合わせ処理を終了することで、地物の位置や向きを補正したプローブデータを取得する。このような位置合わせ処理は、プローブデータに含まれる種々の地物の位置座標を、共通リファレンスマークの位置座標をもとに補正する処理に相当する。なお、或るリファレンスマークの観測座標と関連する通常地物の観測座標とは、同一の車両によって検出およびアップロードされた通常地物の観測座標を指す。換言すれば、或るリファレンスマークと関連する通常地物の観測座標とは、当該リファレンスマークの観測座標を提供した車両によって提供された通常地物の観測座標を指す。
 ステップT207では、選択されているプローブデータに対する位置合わせ処理を省略して、ステップT208に移る。なお、プローブデータに含まれているリファレンスマークが3つ未満であるプローブデータは、後述する統合処理の対象から除外することが好ましい。あるいは、サーバプロセッサ31は、種々のプローブデータを、3または4以上のリファレンスマークを含む長さに分割/連結するように構成されていてもよい。ステップT209では、ステップT201で読み出されたプローブデータに、未処理のものが残っているかを判定する。未処理のプローブデータが残っている場合には、ステップT209に移り、任意の未処理のプローブデータに対してステップT203以降の処理を実行する。一方、未処理のプローブデータが存在しない場合には、ステップT210を実行する。
 ステップT210では、補正されたプローブデータの統合処理を実施する。プローブデータの統合処理は、S201と同様に、地物の座標を統計的に算出する処理である。例えば、各地物の座標の分散を算出し、分散が所定の閾値未満である場合には、その中央値/平均値を当該地物の座標として採用する。また、分散が所定の閾値以上である地物に対しては、例えば検証フラグを立てる。検証フラグは、地図として登録するには不確かなデータであることを示すフラグに相当する。なお、サーバプロセッサ31はプローブデータの統合処理に際し、分散が所定の閾値以下となるように外れ値を除外した上でランドマークごとの座標を算出してもよい。また、統合処理における分散の評価は必須ではなく、省略されてもよい。以上の処理により、各地物の位置座標は、所定のリファレンスランドマークを用いて補正されたうえで、統計的に決定される。例えばサーバプロセッサ31は、各プローブデータに含まれるレーンマークの座標を、所定のリファレンスランドマークを用いて補正したうえで、複数の座標情報を統計処理することによってレーンマークの位置座標を決定する。
 続くステップT211では、ステップT210で生成された、各地物の統計的な位置座標を示すデータ(以降、統合データ)と、地図データとを比較して、変化点を検出する。統合データそのもの、又は、統合データの内容を反映した地図データが仮地図データに相当する。ここでの変化点とは、統合データにおいて現行の地図データとは相違する部分であって、地物が移設、追加、または削除された可能性がある場所を指す。例えば、統合データに含まれる地物のうち、現行の地図データに対応するランドマークが存在するもの(つまり既存の地物)については、統計的に定まった位置座標と、地図データ中の位置座標のずれ量を算出する。そして、位置座標のずれ量が所定の誤差範囲を超えている場合には、移設の疑いがある地物として検出する。なお、ここでは一例として位置座標のずれ量が所定の誤差範囲(例えば3cm未満)である場合には、観測誤差とみなし、地図の変化点としては検出しない。そのような構成によれば観測誤差に起因して地図データの更新が頻繁に実行される恐れを低減できる。もちろん、他の態様として1cm以上のずれは変化点として検出するように構成されていてもよい。許容する誤差の大きさは適宜変更可能である。
 また、統合データに含まれており且つ地図データに登録されていない地物については、新たに設けられた可能性がある地物として検出する。加えて、地図データに登録されてあって、且つ統合データに含まれていない地物については、削除された可能性がある地物として検出する。ステップT211での処理が完了すると、ステップT212を実行する。
 ステップT212では、変化点の妥当性を判断する。変化点として検出された地物を検出しているプローブデータの数が所定の閾値以上である場合や、所定期間(例えば3日間)継続して検出されている場合には、当該変化点は一時的なものではなく、妥当性があるものと判断し、地図データに反映させる。また、変化点として、区画線の削除が検出されている場合には、その削除区間が例えば所定距離(例えば5m)未満であるか否かを判定する。区画線は、通常、連続に延設されるため、一部区間のみが削除される可能性は低い。また、区画線上に物体(車両や、水たまり、雪)が一時的に存在している場合には、当該区画線が検出されなくなる。つまり、削除区間が例えば所定距離未満である場合には、路上駐車や積雪、降雨などの一時的な事象によって、本来存在する区画線が検出されなくなっているだけである可能性が高い。上記の判定ロジックを導入することにより、実際には削除されていない区画線が、削除されたと誤判断する恐れを低減できる。ひいては、地図データの区画線情報を誤更新する恐れを低減できる。
 なお、削除区間が所定距離以上である場合など、広範囲にわたって変化点が検出されている場合には、道路工事等によって変更されたもの(つまり妥当性がある)と判断すればよい。その他、変化点において、直近所定期間以内(例えば3日以内)に工事が行われたことを示す工事情報を、外部サーバから取得またはプローブデータから検出できている場合には、当該変化点は妥当性があるものと判断してもよい。上記の思想は、区画線に限らず、看板などの他の地物にも適用できる。妥当性があると判断した変化点については、地図データに反映させる(ステップT215)。また、妥当性がないと判断した変化点については、更新を保留にするか、検証フラグを立てるといった処置を施す。変化点の継続時間、規模、及び、当該変化点付近での工事情報の有無に基づいて、変化点の妥当性を判断する構成によれば、一時的な要因によって地図データの内容を誤って更新する恐れを低減できる。
 以上では、プローブデータごとにリファレンスマークを用いて各地物の位置合わせをした上で、複数のプローブデータを統合し、種々の地物の位置座標を算出する態様を開示したが、地物の位置座標の算出手順はこれに限らない。プローブデータ単位での地物の座標補正を行わず、各地物の位置座標を統計的に算出してなる統合データを生成してから、各地物の座標情報をリファレンスマークに基づいて補正するように構成されていてもよい。
 例えばサーバプロセッサ31は、ステップT201に相当するプローブデータの読み出し処理の次のステップとして、複数のプローブデータをもとに、S201やステップT210で言及した方法によって、地物ごとの座標を統計的に算出する。その際、サーバプロセッサ31は、分散が所定の閾値以下となるように、使用する観測データを調整するように構成されていてもよい。統計的に算出された座標が代表観測座標に相当する。代表観測座標は、複数の観測座標の平均値または中央値を指す。次に、サーバプロセッサ31は、統合プローブデータに含まれる種々のランドマークの代表観測座標を、リファレンスマークの座標情報をもとに補正する。補正の仕方は、ステップT206と同様の手法を援用することができる。そのような構成によっても、各地物の座標の精度を高くすることができる。
 なお、走行軌道モデルを地図データとして生成及び配信する地図システム1においては、プローブデータに含まれる走行軌道データを、走行軌道モデルを生成するための地図要素として取り扱うように構成されていてもよい。例えばサーバプロセッサ31は、各車両の走行軌道を当該走行軌道に紐づけられているリファレンスマークを用いて補正したうえで、補正された複数の走行軌道データを統合処理することにより、走行軌道モデルを生成するように構成されていてもよい。リファレンスマークを用いて各走行軌道を補正したうえで統合し、走行軌道モデルを生成する構成によれば、より精度良い自動運転用の走行軌道を生成することが可能となる。もちろん、サーバプロセッサ31は、複数の車両の走行軌道を平均化してなる走行軌道モデルを生成してから、当該走行軌道モデルをリファレンスマークを用いて補正するように構成されていてもよい。上述した種々の処理は、複数のサーバ/プロセッサが分担して実行するように構成されてもよい。例えばプローブデータの統合処理は、プローブデータを取得及び補正するサーバとは異なるサーバが実施するように構成されていてもよい。
 なお、上述した地図システム1は、複数の車両から提供された同一の地物についての観測座標を、リファレンスマークの観測座標と地図登録座標とを用いて補正するとともに、補正された当該地物の観測座標を統計的に処理(例えば平均化)することで、当該地物の座標を決定するシステムに相当する。同一の地物についての複数の観測座標は、それぞれ異なる複数の車両から提供されてもよいし、同一の車両が同一地点を複数回通過することによって生成されてもよい。プローブデータに含まれる種々の地物の観測座標は、リファレンスマークの観測座標が、当該リファレンスマークの地図登録座標としての絶対座標と一致するように補正されるが、ここでの一致とは完全な一致に限定されない。略一致も含まれる。上記の補正は、リファレンスマークの観測座標と絶対座標との乖離度合が最小となるように実行されればよい。以上で述べた補正処理は、道路セグメント単位で実行されてもよいし、マップタイル単位で実行されてもよい。
 [地図精度に基づく車両の制御態様]
 マップタイルに含まれるランドマーク63は、複数のプローブデータに基づいて座標が算出されるため、統計的ばらつきが存在する。地図システム1は、マップタイルごとに統計的ばらつきに基づいた精度レベルを付与する。そして、精度レベルに応じて、地図情報を利用するアプリケーションを制限する。図10を参照して、地図システム1の動作フローについて説明する。
 図10に示すように、まず、ステップS300が実行される。ステップS300は、サーバ3を構成するサーバプロセッサ31が、プローブデータを取得するステップである。サーバプロセッサ31は、同一のマップタイル上を走行する複数の車両からプローブデータをそれぞれ取得する。すなわち、サーバプロセッサ31は、1つのランドマークに対して複数の座標データを取得することになる。
 次に、ステップS301が実行される。ステップS301は、サーバプロセッサ31が各ランドマークに対して座標の分散を算出するステップである。分散は緯度、経度、高度のそれぞれの座標に対して計算される。サーバプロセッサ31は、図7に示すように、複数の車両から受信したプローブデータに基づいて各ランドマーク63の分散σを算出する。図7に示す例では、マップタイルに4つのランドマーク63a~63dが存在し、各ランドマークに対して、σ 、σ 、σ 、σ を算出する。
 次に、ステップS302が実行される。ステップS302は、サーバプロセッサ31が計算された分散σ 、σ 、σ 、σ の中央値pを算出し、所定の閾値T1と比較するステップである。ここで、分散の中央値を算出するのは一例であり、マップタイルに属するランドマークの座標のばらつき具合を統計的に指標化できるものであればよく、例えば平均値を用いても良い。中央値pが所定の閾値T1との間で0<p≦T1の関係を満たせばステップS302はYES判定となり、ステップS303に進む。
 ステップS303は、ステップS302でYES判定とされたマップタイルに対して、精度レベル「High」を付与するステップである。精度レベル「High」が付与されるマップタイルは最も精度が高いと判定されたマップタイルである。
 一方、ステップS302においてNO判定であるときにはステップS304に進む。ステップS304は、サーバプロセッサ31が中央値p(平均値でも良い)を算出し、所定の閾値T1、T2と比較するステップである。中央値pが所定の閾値T1および閾値T2との間でT1<p≦T2の関係を満たせばステップS304はYES判定となり、ステップS305に進む。
 ステップS303は、ステップS302でYES判定とされたマップタイルに対して、精度レベル「Middle」を付与するステップである。
 一方、ステップS304においてNO判定であるときにはステップS306に進む。ステップS306は、ステップS304でNO判定とされたマップタイルに対して、精度レベル「Low」を付与するステップである。精度レベル「Low」が付与されるマップタイルは最も精度が低いと判定されたマップタイルである。
 マップタイルの精度レベルは「High」「Middle」「Low」の順で高い。精度レベルが高いほど車両の現在位置を精度良く決定することができ、より高度な運転支援を実現することができる。すなわち、精度レベルが高いマップタイルに対応する地域を走行中は、例えば自動運転などの高度運転支援に供することができる。一方で、精度レベルが低いマップタイルに対応する地域を走行中は、自動運転には供さないようにアプリケーションを制限する。より具体的には、主プロセッサ40は、精度レベルが最も高いレベルに設定されているマップタイルの地図データについては、自動運転アプリケーションが当該地図データを利用することを許容する一方、精度レベルが最も低いレベルに設定されているマップタイルの地図データについては、自動運転アプリケーションが当該地図データを利用することを禁止する。これにより、高精度で得られたマップタイルを有効活用できるとともに、低精度のマップタイルが自動運転アプリケーション等といった、より安全性を要するアプリケーションに誤って供されないようにできる。なお、マップタイルの精度レベルに起因してアプリケーションの利用に制限がかかっている場合、主プロセッサ40は、その旨をHMI60を介してユーザに通知することが好ましい。アプリケーションへの地図データの提供を禁止することは、間接的に、アプリケーションの実行自体を禁止したり、機能を縮退させたりすることに相当する。
 [衛星測位システムの代替手段について]
 自車両の位置を特定するにあたり、地図システム1は、GPS等の衛星による測位により自車両の大まかな位置を特定し、サーバ3からダウンロードされた地図情報と、車両によりリアルタイムに撮像された画像から算出されたランドマーク63の座標と、に基づいて詳細な自車両の位置を決定している。しかしながら、自車両がトンネル内や高層ビルの間にあって、衛星による位置特定が困難なシチュエーションが存在する。
 地図システム1は、測位センサ30aとして、例えば無線LANに供される電波強度を検出する電波検出器を採用することができる。無線LANの基地局(アクセスポイント)から発せられる電波による測位が代替測位手段に相当する。無線LANの電波を発信する基地局のうち、基地局が設置されたグローバル座標が既知のものの電波を車両が受信する。これにより、基地局の座標と受信した電波の強度とに基づいて自車両の位置が推定される。図11を参照して、地図システム1の動作フローについて説明する。
 図11に示すように、まずステップS400が実行される。ステップS400は、主プロセッサ40が、GPS衛星からの電波の受信強度と所定の閾値とを比較するステップである。閾値は、例えば、GPSによる測位とダウンロードして得られる地図情報とで自車両の位置が十分に特定できるときのGPSの電波強度が指定される。GPS衛星からの電波の受信強度がこの閾値よりも大きい場合には、本ステップはYES判定となり、ステップS401に進む。すなわち、代替測位手段として無線LAN電波の電波検出器は無効とされる。そして、ステップS402に進み、GPSによる測位とダウンロードして得られる地図情報とで自車両の位置を特定する。また、カメラ10により得られたランドマーク63等の地図情報をサーバ3にアップロードする。自車両の位置の特定後は、該自車両位置を自動ステアリング等の運転支援に利用する。
 一方、ステップS400において、GPS衛星からの電波の受信強度がこの閾値以下の場合には、本ステップはNO判定となり、ステップS403に進む。すなわち、代替測位手段として無線LAN電波の電波検出器が有効とされる。そして、ステップS404に進む。
 ステップS404は、主プロセッサ40が無線LANの電波を発している基地局のセキュリティレベルを判定するステップである。セキュリティレベルとは、当該基地局の発する情報の信頼の指標である。セキュリティレベルが高ければ、主プロセッサ40は当該基地局が有する設置場所の座標の値を信頼し、基地局のグローバル座標と、車両に搭載された電波検出器が受信する電波の受信強度、およびSfM等による自車両の位置予測に基づいて自車両の現在位置を特定する。例えば受信強度に基づいて基地局からの距離を推定し、基地局設置位置から当該推定距離以内に存在すると判定する。複数の基地局からの信号を受信できている場合には、各基地局からの信号の受信強度に基づいて、各基地局までの距離を推定し、各基地局の設置位置と各基地局からの距離を用いて現在位置を算出する。基地局が発する電波を用いた位置推定方法としては、電波の到来方向を利用するAOA(Angle Of Arrival)方式や、到達時間(TOA:Time Of Arrival)方式、到達時間差(TDOA:Time Difference Of Arrival)方式など、多様な方式を採用することができる。なお、セキュリティレベルの高低については任意に設定できるが、例えば公的機関や公共インフラの事業者が設けた基地局はセキュリティレベルが高いと推察できる。一方、個人が設けたような基地局はセキュリティレベルが低いと推察できる。
 ステップS404において、基地局のセキュリティレベル、ひいては代替測位手段のセキュリティレベルが低いと判断されると、本ステップはNO判定となり、ステップS405に進む。ステップS405では、カメラ10により得られたランドマーク63等の地図情報をサーバ3にアップロードする。なお、GPSの受信強度が十分に確保できていたり、セキュリティレベルの高い代替測位手段による測位が実現できている場合には、ステップS402の通り、代替測位手段による測位の情報は自車両の位置の特定に供される。一方、セキュリティレベルが低い代替測位手段による測位しか実現できない場合には自車両の位置の特定は行わず、測位の情報は地図情報をサーバ3にアップロードすることのみに供される。
 なお、代替測位手段のセキュリティレベルの高低を判定するステップについては任意であり、必ずしも実施しなくても良い。すなわち、図11におけるステップS404は実施されなくても良い。このような態様では、衛星による測位が十分に行えず、代替測位手段により測位する場合には、測位の情報は地図情報をサーバ3にアップロードすることのみに供されるようにすると良い。
 ところで、代替測位手段について、設置位置の座標が既知の無線LAN基地局から発せられる電波による測位に限定されず、設置位置の座標が既知の近距離無線通信の基地局から発せられる電波による測位、IMESによる測位、地磁気による測位などを採用することができる。
 なお、無線LANや近距離無線通信、IMESの電波を受信する電波検出器や、地磁気を検出する磁気検出器は必ずしも車両に固定されている必要はない。例えば、スマートフォンのようなモバイル機器に上記したような検出器が搭載されており、モバイル機器が地図システム1とリンクされている場合には、モバイル機器により得られた測位情報を地図システム1に用いることができる。
 [地図データの更新方法について]
 自車両の位置を特定するにあたり、地図システム1は、GPS等の衛星による測位により自車両の大まかな位置を特定し、サーバ3からダウンロードされた地図情報と、車両によりリアルタイムに撮像された画像から算出されたランドマーク63の座標と、に基づいて詳細な自車両の位置を決定している。しかしながら、サーバ3に地図情報が存在しなかったり、地図情報が古く現状が正確に反映されていなかったりといったシチュエーションが存在する。
 そのような事情を踏まえると、マップタイルごとに「地図無し」「地図は存在するが古い」「最新の地図が存在する」の3モードが設定され、「地図無し」「地図は存在するが古い」の2モードに対してマップタイルに更新フラグを設定されてもよい。更新フラグが設定された地域に対応するマップタイルは優先的に地図生成あるいは更新がなされるべきである。図12を参照して、当該技術思想に対応する地図システム1の動作フローについて説明する。
 図12に示すように、まずステップS500が実行される。ステップS500は、主プロセッサ40がGPS等により自車両の大まかな位置を特定するステップである。このステップにより、自車両が存在する地域が把握される。
 次に、ステップS501が実行される。ステップS501は、主プロセッサ40が、自車両が存在する地域に対応するマップタイルの地図情報がサーバ3に格納されているか否かを判定するステップである。例えば、主プロセッサ40は、自車両の現在位置情報をサーバ3に送信する。サーバ3は、車両が存在する地域のマップタイルの地図情報が存在する場合には、地図情報が存在する旨を示す信号を返送する。また、サーバ3は、車両が存在する地域のマップタイルを有していない場合には、要求された地域の地図データを有していない旨の信号を返送する。このようにステップS501は、主プロセッサ40とサーバ3と連携することで実施してもよい。地図情報がマップタイルとして格納されていない場合には本ステップはNO判定となり、ステップS502に進む。なお、車両が存在するマップタイルの地図データがない場合には、当該マップタイルの地図データの有効期限が切れている場合も含まれる。
 ステップS502は、主プロセッサ40が、該当する地域に対応するマップタイルを「地図無し」モードに設定するステップである。その後、ステップS503に進む。
 ステップS503は、主プロセッサ40が、該当する地域に対応するマップタイルに対して更新フラグをONに設定するステップである。更新フラグがONに設定されている場合、主プロセッサ40はプローブデータとしての白線情報等の地物情報を逐次アップロードする。これにより、更新フラグがONに設定された地域に対応するマップタイルは、サーバプロセッサ31にて、優先的に地図生成される。ステップS503を経て本フローは終了する。なお、より好適な態様として、主プロセッサ40は、更新フラグがONに設定されているマップタイルを走行している間は、地物情報に加えて、車両挙動情報も併せてアップロードする。
 ステップS501において、自車両が存在する地域に対応するマップタイルに地図情報が存在する場合には、本ステップはYES判定となり、ステップS504に進む。
 ステップS504は、マップタイルに記録された地図情報に対して、最新の情報が公的に公開されているか否かを判定するステップである。公的な公開とは、日本国の場合であれば例えば国土交通省国土地理院が公開する地図情報である。ここで、サーバ3に格納された地図情報におけるランドマークの座標と、国土地理院が公開する地図情報におけるランドマークの座標との差異が所定距離(例えば10cm)以上である場合に、最新の情報が公的に公開されていると判定する。なお、国土地理院が提供する地図情報以外にも、特定の地図ベンダが提供する地図情報も公的な地図情報として利用してもよい。公的な公開とは、政府機関による公開に限らず、所定の地図ベンダによる準公的な公開も含まれる。また、一般に公にされていなくとも、国土地理院が所有する定点測量計や高精度なGPS測位等により、サーバ3に格納された地図情報におけるランドマークの座標と、測位されたランドマークの座標との差異が所定距離(例えば10cm)以上である場合に、最新の情報が公的に公開されていると判定する。このような場合には本ステップはYES判定となり、ステップS505に進む。なお、当該ステップS504は、車両及びサーバのどちらが実施してもよい。主プロセッサ40又はサーバプロセッサ31は、地図ベンダや政府機関が管理する外部サーバと通信を実施することにより、車両が存在するマップタイルに対して最新の地図情報が公開されているか否かを判定すればよい。
 ステップS505は、主プロセッサ40が、該当する地域に対応するマップタイルを「地図は存在するが古い」モードに設定するステップである。その後、ステップS503に進む。
 ステップS503は、上記のとおり、主プロセッサ40が、該当する地域に対応するマップタイルに対して更新フラグをONに設定するステップである。更新フラグがONに設定された地域に対応するマップタイルは、車両からサーバ3へと地物情報が逐次アップロードされるため、優先的に地図更新がなされる。ステップS503を経て本フローは終了する。
 ステップS504において、マップタイルに記録された地図情報に対して最新の情報が公的に公開されていないと判定された場合には、本ステップはNO判定となりステップS506に進む。
 ステップS506は、主プロセッサ40が、サーバ3から現在位置に対応するマップタイルの地図情報をダウンロードするステップである。
 次に、ステップS507が実行される。ステップS507は、主プロセッサ40が、サーバ3からダウンロードした地図情報に含まれるランドマーク63の座標と、リアルタイムに撮像された画像に基づいて算出されたランドマーク63の座標と、を照合して自車両の位置を特定(つまりローカライズ)するステップである。
 次に、ステップS508が実行される。ステップS508は、主プロセッサ40が、自車両の座標のずれ(以降、位置ずれとも記載)を検出したか否かを判定するステップである。
 サーバ3からダウンロードした地図情報に含まれるランドマーク63の座標と、カメラ10によりリアルタイムに撮像された画像から算出されたランドマーク63の自車位置に対する相対座標と、に基づいて特定された自車両の位置を第1の位置と称する。一方、サーバ3に格納された地図情報に依存しないGPSの電波を用いて特定された自車両の位置を第2の位置と称する。なお、リアルタイムにランドマーク63の座標の算出するための手段は、カメラ10によるものに限定されず、例えばレーダーやLiDARを利用しても良い。また、地図情報に依存せず自車両の位置を特定する手段としては、GPSに限定されず、例えばオドメトリやデッドレコニング、無線LANや近距離無線通信、IMESの電波を利用した位置特定、地磁気による位置特定を採用しても良い。
 自車両の座標のずれの検出とは、例えば、第1の位置と第2の位置との乖離が所定距離以上であることを検出したことを示す。あるいは、自車両の座標のずれの検出とは、第1の位置と第2の位置との乖離が所定距離以上である状態が所定回数生じたことを示す。位置ずれが生じた回数や頻度が、地図データの更新が必要であることを示す指標情報(換言すればエラー信号)に相当する。また、位置ずれが指標情報を送信するためのイベント(以降、送信イベント)に相当する。位置ずれの検出(換言すれば送信イベントの検出)は、主プロセッサ40自身が実施してもよいし、他のデバイス(例えば画像プロセッサ20)が実行してもよい。他のデバイスが検出する場合、主プロセッサ40は当該デバイスから位置ずれが生じた旨を示す信号が入力されることによって、位置ずれ(換言すれば送信イベント)が生じたことを検出すればよい。
 また、自車両の座標ずれ検出の別の例は、地図情報を用いて自動運転や車線維持などの運転支援が実行されている際に、ドライバの操舵介入が所定の量あるいは頻度で発生したことを以って、自車両の座標のずれが検出されたとしても良い。地図情報を用いて自動運転や車線維持などの運転支援が実行されている際に、ドライバの操舵/減速操作が介入した地点は、不調地点とも称する。なお、操舵介入と同様に、ブレーキペダルの踏み込みなどといった速度調整の介入も、位置ずれ発生の判断指標として採用可能である。ドライバによる操舵介入や減速操作といった操作介入が行われた量や頻度は、地図データを更新する必要であることを示す指標情報に相当する。また、自動走行時におけるドライバの操作介入が、サーバ3へ指標情報を送信するためのイベントに相当する。
 ステップS508において自車両の位置ずれが検出された場合には、本ステップはYES判定となりステップS505に進む。なお、位置ずれが検出された回数をカウントアップしていき、位置ずれが検出された回数が所定の閾値以上となった場合にステップS508をYES判定してステップS505を実行するように構成されていてもよい。
 ステップS505は、上記の通り、該当する地域に対応するマップタイルを「地図は存在するが古い」モードに設定するステップであり、その後、ステップS503を経て更新フラグがONに設定される。自車両の位置ずれが検出される状態とは、例えば自然災害等により公的に情報の更新がされる前に地形やランドマーク63の位置が変化してしまったようなシチュエーションが想定される。ステップS508を経て更新フラグをONに設定することで、公的な地図更新に先立ってサーバ3に格納された地図情報の更新を促進することができる。
 一方、自車両の位置のずれが検出されない場合にはステップS508はNO判定となり、ステップS509に進む。
 ステップS509は、主プロセッサ40が、該当する地域に対応するマップタイルを「最新の地図が存在する」モードに設定するステップである。その後、ステップS510に進む。
 ステップS510は、上記のとおり、主プロセッサ40が、該当する地域に対応するマップタイルに対して更新フラグをOFFに設定するステップである。更新フラグがOFFに設定された地域に対応するマップタイルは直近の地図更新は不要であり、運転支援などに積極的に活用することができる。ステップS510を経て本フローは終了する。なお、更新フラグがOFFに設定されている場合、主プロセッサ40はプローブデータとして白線情報等の地物情報は送らずに、車両挙動情報をアップロードする。車両挙動情報をアップロードする構成によれば、サーバ3は渋滞の発生等を検出することができる。
 以上記載したように、主プロセッサ40は、ステップS501、ステップS504およびステップS508に係る所定の条件に基づいて、自車両が存在する地域に対応するマップタイルに対して、「地図無し」「地図は存在するが古い」「最新の地図が存在する」の3モードのいずれかが設定し、各モードに対応する更新フラグを設定する。「地図無し」および「地図は存在するが古い」のモードが付与されたマップタイルに対しては更新フラグがONに設定されることにより、当該マップタイルに含まれる地図情報の更新あるいは生成を優先的に実行させることができる。
 なお、以上では車両側にて地図データの更新の要否を判定する構成を開示したが、これに限らない。各マップタイルの地図データの更新の要否は、複数の車両からのプローブデータをもとにサーバ3が判断してもよい。例えば、主プロセッサ40はステップS508にて位置ずれや車両の自動走行に対する乗員の操作介入を検出した場合には、その旨をサーバ3に報告する。或いは、更新の必要があることを示す信号をサーバ3に送信する。
 サーバプロセッサ31は、位置ずれが検出された回数が所定の閾値を超えたマップタイルの更新フラグをONに設定する。そして、更新フラグがONに設定されている区域を走行している車両に対して、地物情報を含むプローブデータを送信するように要求する。このような構成によっても、地図データを速やかに更新することが可能となる。なお、地図データの更新の単位は、マップタイル単位に限定されない。道路セグメント単位で更新の要否が管理されてもよい。例えば道路セグメント単位で更新フラグのON/OFFが設定されてもよい。
 また、プローブデータをもとに生成/更新された地図データは、仮地図データとして、各車両に仮配信されてもよい。仮配信された地図は、例えば、複数の車両にて自動制御に利用可能かどうかを検証される。例えば各車両の主プロセッサ40は、仮地図データを用いて自車位置を算出した場合に位置ずれが検出されたか否か、ドライバの操作介入がなされたか、などに基づいて仮地図を検証する。仮地図データは、画像認識結果に基づいて計画された走行軌道と、仮地図を用いて計画した走行軌道とが整合しているか否かに基づいて検証されてもよい。仮地図データは検証が完了して正式地図データとなるまでは、実際の自動運転には使用されないことが好ましい。なお、仮地図データの検証方法については、別途出願した特願2018-163077号に記載されている方法を援用してもよい。各車両は、仮地図データを検証した結果として問題ないと判断した場合には、その旨をサーバ3に報告する。また、仮地図データに不具合があると判断した場合には、その旨をサーバ3に報告する。サーバ3は、複数の車両での検証結果に基づいて仮地図データに問題がないかを最終的に判断し、問題ないと判断した場合に仮地図データを正式地図として採用する。正式地図として採用された地図データは、各車両に配信される。なお、仮地図データを配信済みの車両に対しては、仮地図データが正式地図データとして利用するように通知してもよい。
 上記地図システム1は、予め決められた所定の条件に基づいて更新が必要である旨の更新フラグが設定されるので、地図情報の更新の要否を明確に区別することができる。そして、自然災害等により突発的にランドマーク63の座標が変化した場合などに特に効果的である。
 [ランドマークを検出できない場合の対応]
 自車両の位置を特定するにあたり、地図システム1は、GPS等の衛星による測位により自車両の大まかな位置を特定し、サーバ3からダウンロードされた地図情報と、車両によりリアルタイムに撮像された画像から算出されたランドマーク63の座標と、に基づいて詳細な自車両の位置を決定している。しかしながら、自車両の周辺にランドマーク63の撮像を阻害する障害物が存在し、ランドマーク63の座標が特定できないシチュエーションが存在する。
 地図システム1は、自車両が上記のようなシチュエーションにあるとき、撮像装置であるカメラ10の画角内に、障害物に遮られないランドマーク63が少なくとも1つ存在するように自車両の挙動を制御してもよい。ここでは図13を参照して、当該技術思想に基づく地図システム1の動作フローについて説明する。なお、ここでは一例として車両の前方の環境を撮像するために設置されたカメラ10を例に説明する。カメラ10は前方を監視するものの他、後方監視を担う後方カメラや、側方監視を担うカメラ10(つまり、左/右側カメラ)が共存していても良い。また、ランドマーク63を遮る障害物として先行車を例に説明するが、障害物としては、後方監視用のカメラ10に対応した後続車であることもあるし、側方監視用のカメラ10に対応した並走車であることもある。車両以外のオブジェクトが障害物として作用する場合もある。地図システム1を構成する周辺監視センサとしては、前方カメラ、後方カメラ、及び側方カメラの一部又は全部を採用することができる。後方所定範囲を撮像する後方カメラが後方監視装置に相当する。
 図13に示すように、まずステップS600が実行される。ステップS600は、主プロセッサ40がGPS等により自車両の大まかな位置を特定するステップである。このステップにより、自車両が存在する地域が把握される。
 次に、ステップS601が実行される。ステップS601は、主プロセッサ40が、カメラ10に撮像される画像に基づいて先行車を検出するステップである。
 次に、ステップS602が実行される。ステップS602は、主プロセッサ40が先行車の車両種別を取得するステップである。車両種別は、メモリ80あるいはサーバ3に格納されたデータベースに記録されており、画像から得られる対象のシルエット情報等から種別を決定する。
 次に、ステップS603が実行される。ステップS603は、主プロセッサ40が、車両種別に基づいて障害物となる先行車の車高を取得するステップである。車高の情報は車両種別に紐付いており、先行車の車両種別に対応した車高が取得される。なお、車高の情報は撮像された画像から算出されてもよい。
 次に、ステップS604が実行される。ステップS604は、主プロセッサ40が、障害物としての先行車が背高車か否かを判定するステップである。先行車が背高車か否かの判定は、例えばステップS603において取得した車高と所定の閾値とを比較して、車高が閾値よりも高い場合に先行車が背高車であると判定する。あるいは別の例では、背高車に分類される車両種別を予め決めておき、先行車が該当する車両種別である場合に背高車であると判定しても良い。車両種別に応じて背高車か否かを判定する場合には、車高を取得するステップS603を省略することができる。なお、背高車として判定される車両種別としては、例えばトラックや消防車等が該当する。ステップS604において、先行車が背高車であると判定される場合にはステップS605に進む。
 ステップS605は、主プロセッサ40がアクチュエータ70を制御して自車両と障害物との相対位置を変更し、カメラ10によりランドマーク63が認識可能にするステップである。具体的には、例えばアクチュエータ70は制動装置であり、主プロセッサ40は制動装置を駆動して自車両のブレーキングを実施する。これにより、自車両と障害物たる先行車との車間距離が大きくなり、画角に対して先行車が占める面積は小さくなる。このため、画角内に標識等のランドマーク63が写り込みやすい状況を実現できるので、主プロセッサ40がランドマーク63を認識できるようになり、ランドマーク63の座標を算出することができる。先行車が背高車である場合には、信号機や行き先表示などが先行車によって遮られてカメラ10が認識できない状況が発生しやすいので、ステップS605を経ることによってランドマーク63の検出頻度を向上させることができる。これに伴い、ランドマーク63の座標の画像からの算出頻度も向上するので、より長時間にわたって地図情報が有するランドマーク63の座標との照合が可能となり、自車両の位置をより正確に特定することができる。減速等によって先行車との車間距離が大きくする制御は、周辺監視センサがランドマークを検出しやすくするための車両制御の一例に相当する。
 なお、主プロセッサ40が制御するアクチュエータ70は制動装置に限定されるものではなく、例えばステアリングであっても良い。具体的には、先行車が背高車であった場合において、主プロセッサ40はステアリングを制御して車線変更し、自車両の前方に障害物となる先行車が存在しない状況を作り出しても良い。
 ステップS605の後、本フローは終了する。また、ステップS604において、先行車が背高車ではないと判定された場合も同様に本フローを終了する。
 以上の構成を採用することにより、地図システム1は、ランドマーク63の座標の画像からの算出頻度も向上するので、より長時間にわたって地図情報が有するランドマーク63の座標との照合が可能となり、自車両の位置をより正確に特定することができる。
 [ランドマークを検出できない場合の対応(変形例)]
 以上では障害物たる先行車の車両種別を取得して、その車両種別に基づいて車両を制御する例について説明した。他の態様として地図システム1は、リアルタイムに計測された車間距離と画像認識により算出された車高とに基づいて、ランドマーク63が認識可能なように車両を制御してもよい。当該技術思想に基づく地図システム1の動作例を図14~図16を参照して説明する。なお、ここでも車両の前方の環境を撮像するために設置されたカメラ10を例に説明する。カメラ10は前方を監視するものの他、後方監視、側方監視を担うカメラ10が共存していても良い。また、ランドマーク63を遮る障害物として先行車を例に説明するが、障害物としては、後方監視用のカメラ10に対応した後続車であることもあるし、側方監視用のカメラ10に対応した並走車であることもある。障害物は、車両以外のオブジェクトである場合もある。
 図14に示すように、まずステップS700が実行される。ステップS700は、主プロセッサ40がGPS等により自車両の大まかな位置を特定するステップである。このステップにより、自車両が存在する地域が把握される。
 次に、ステップS701が実行される。ステップS701は、主プロセッサ40が、カメラ10により撮像される画像に基づいて先行車を検出するステップである。
 次に、ステップS702が実行される。ステップS702は、主プロセッサ40が、先行車までの距離、すなわち車間距離を計測するステップである。車間距離は、レーダやLIDAR、あるいはそれらと撮像装置とのフュージョン構成により計測が可能である。
 次に、ステップS703が実行される。ステップS703は、主プロセッサ40が、先行車の高さを計測するステップである。先行車の高さは、ステップS702で取得された先行車までの距離と、カメラ10により撮像される画像において、映された先行車の上端の画像上のV方向座標と、に基づいて一意に計測することができる。
 次に、ステップS704が実行される。ステップS704は、主プロセッサ40が、画角内に存在すると想定されるランドマーク63の座標を地図情報から取得するステップである。主プロセッサ40は、ステップS700において特定された大まかな自車両の位置から車両が存在する地域を特定し、該地域に対応するマップタイルを読み込む。そして、マップタイルに記録されたランドマーク63の座標を取得する。ここで、ランドマーク63とは白線(換言すればレーンマーク)を含むものであるが、先行車の体格が大きいことによりカメラ10で撮像が困難になる対象であるとより効果的であり、信号機や行き先表示、制限速度標識などが好適である。ランドマーク63の座標とは、例えばランドマーク63が車両の進行方向に直交する矩形板状であるとすれば、矩形をなす四隅の座標情報を含む。
 次に、ステップS705が実行される。ステップS705は、先行車が画角内に存在するはずのランドマーク63を遮る位置に存在するか否かを判定するステップである。図15に示すように、ステップS702により取得された車間距離と、ステップS703により取得された先行車の車高と、自車両に搭載されたカメラ10の画角とによってカメラ10の死角となる部分(図15においてハッチングを施した部分)が決まる。この死角の部分にランドマーク63を構成する座標の少なくとも一部が含まれる場合には、先行車がランドマーク63を遮ると判定し、本ステップはYES判定となる。図15に示す例は、ランドマーク63が先行車の作り出す死角にすべて含まれており、本ステップがYES判定となる一例である。
 ステップS705がYES判定である場合にはステップS706に進む。ステップS706は、主プロセッサ40がアクチュエータ70を制御して自車両と障害物との相対位置を変更し、カメラ10によりランドマーク63が認識可能にするステップである。具体的には、例えばアクチュエータ70は制動装置であり、主プロセッサ40は制動装置を駆動して自車両のブレーキングを実施する。
 図16に示すように、主プロセッサ40は、この制動によって、ランドマーク63が死角の部分からすべて外れるように自車両と先行車との車間距離を大きくする。具体的には、先行車の上端より上の部分に、ランドマーク63の上端から下端まですべてが視認できるような車間距離になるまで自車両を制動する。なお、後述するが、ランドマーク63の一部が視認できるまで制動するような構成も可能である。これにより、主プロセッサ40がランドマーク63を認識できるようになり、ランドマーク63の座標を画像に基づいて算出することができる。
 上記地図システム1では、車両種別を取得することなく、ランドマーク63が認識しやすくすることができる。これは、急な割り込み等により先行車の車両種別の取得のための十分な時間が確保できなかったり、車両以外の障害物が急に車両前方に飛び込んできた場合に特に有効である。
 なお、主プロセッサ40が制御するアクチュエータ70は制動装置に限定されるものではなく、例えばステアリングであっても良い。具体的には、先行車が背高車であった場合において、主プロセッサ40はステアリングを制御して車線変更し、自車両の前方に障害物となる先行車が存在しない状況を作り出しても良い。周辺監視センサがランドマークを検出しやすくするための車両制御(以降、検出率向上制御)としては、減速や車線変更、車線内での位置変更など、多様な制御を採用可能である。検出率向上制御は、ランドマークが認識できない状態が継続する恐れを低減するための制御に相当する。
 また、先行車の死角にランドマーク63の一部でも含まれていれば、先行車がランドマーク63を遮っていると判定する例を説明したが、ランドマーク63の一部でも死角外で視認できる場合には先行車がランドマーク63を遮っていないと判定しても良い。あるいは、ランドマーク63の種類によってこれらの判定基準を可変にしても良い。
 なお、自車両が複数の周辺監視センサを備えており、複数の少なくとも1つの周辺監視センサがランドマークを捕捉できている場合には、周辺監視センサがランドマークを検出しやすくするための車両制御を実施しないように構成されていてもよい。例えば、先行車が背高車であったり、先行車が自車両前方のランドマークを遮る位置に存在する場合であっても、後方カメラにて車両後方のランドマークを撮像できている場合には、車間距離の拡大や車線変更等の車両制御を実施しないように構成されていてもよい。
 また、検出率向上制御を実施する場合は、先行車が背高車である場合や、先行車によって自車両前方のランドマークを遮られている場合に限定されない。より細かくは、先行車との車間距離が所定距離(例えば20m)未満以内となっている場合に、検出率向上制御を実行するように構成されていてもよい。当該構成は、カメラ10の撮像範囲内の所定領域(ここでは車両前方20m以内となる領域)に障害物としての先行車が存在する場合に、検出率向上制御を実行する構成に相当する。また、カメラ10から先行車の背面上端部へ向かう直線が路面に対してなす角度(以降、見上げ角θ)が所定の閾値(例えば15度)以上となっている場合に、減速等の検出率向上制御を実行するように構成されていてもよい。画像フレームにおいて先行車に相当する部分が占める比率が所定の閾値以上(例えば30%以上)となっている場合に、減速等の検出率向上制御を実行するように構成されていてもよい。
 その他、本来ランドマークが観測されるはずの区間を車両が走行している状況において、所定回数(例えば5回)あるいは所定時間(例えば3秒間)連続してランドマークの検出に失敗した場合に、検出率向上制御を実行するように構成されていてもよい。また、本来観測されるべきランドマークに対する検出成功率が所定の閾値未満となった場合に、検出率向上制御を実行するように構成されていてもよい。検出成功率は一定時間以内において当該ランドマークの検出を試みた回数と、検出に成功した回数の比で表現されればよい。
 検出率向上制御を実行するための条件は適宜変更可能である。その他、主プロセッサ40は、検出率向上制御として、車車間通信によって他車両から当該他車両の現在位置及び当該他車両で取得された周辺画像を取得するように構成されていてもよい。そのような構成によれば、主プロセッサ40は、他車両から提供された周辺画像をもとにランドマークを検出できる。また、当該ランドマークの位置情報と、当該他車両の位置情報と、当該他車両に対する自車両の相対位置とに基づいて、間接的に自車両をローカライズすることができる。
 さらに、主プロセッサ40は、検出率向上制御として、車車間通信によって他車両(例えば先行車両)のローカライズ結果(つまり、他車両の詳細位置情報)を取得するように構成されていてもよい。そのような構成によれば、主プロセッサ40は、ローカライズ結果の提供元である他車両(以降、リファレンス車両)の詳細位置情報と、当該リファレンス車両に対する自車両の相対位置とに基づいて、間接的に自車両をローカライズできる。リファレンス車両に対する自車両の相対位置は、カメラ10などの周辺監視センサの検出結果に基づいて特定されれば良い。
 また、主プロセッサ40は、通常時には、自車両前方に存在するランドマークを用いて(換言すれば前方カメラ画像を用いて)ローカライズを行う。一方、先行車によって前方カメラの視界が遮られている場合には、後方監視装置としての後方カメラの画像を用いてローカライズを実施するように構成されていても良い。つまり、検出率向上制御として、ランドマークの検出に使用する周辺監視センサを変更してもよい。ランドマークの検出に使用する周辺監視センサの数や組み合わせを変更することも、検出率向上制御の一例に相当する。
 上記の制御は、自車両が所定の道路(例えば一般道路)を走行していることを条件として実行されるように構成されていてもよい。一般道路においては高速道路走行中よりも、他車両との車間距離は短く、ランドマークが見えにくい。ゆえに、上記の制御は、高速道路走行中よりも一般道路走行中のほうが有用となり得る。また、逆の観点によれば、主プロセッサ40は、走行路が所定の道路種別(例えば自動車専用道路)に該当する場合には、上記制御を実行しないように構成されていてもよい。高速道路などの自動車専用道路走行中においては他車両によってランドマークが検出しにくくなる可能性は低い。自動車専用道路を走行している間は、上記の検出率向上制御をキャンセルことにより、主プロセッサ40の負荷を軽減することができる。
 その他、主プロセッサ40は、地図活用機能が有効化されている場合にはACCの設定距離を、地図活用機能が有効化されていない場合よりも長くするように構成されていてもよい。当該構成によれば、ランドマークの検出が困難となる恐れをより一層低減することができる。
 [夜間等、暗環境下での対応について]
 ランドマーク63の座標が特定しにくくなるシチュエーションは、自車両の周辺にランドマーク63の撮像を阻害する障害物が存在する場合だけとは限らない。例えば、トンネル内や夜間など、車両の周辺環境が比較的暗い場合にも、カメラ10によるランドマーク63の検出および座標の算出が困難となる場合がある。
 地図システム1は、車両の周辺環境が比較的暗所な場合でもランドマーク63の検出と座標の算出を容易にし、ひいては自車両の位置をより正確に特定するように構成されていてもよい。
 以下、そのような技術思想に基づく地図システム1の作動について図17を参照して説明する。なお、ここでは一例として、車両の前方に照明光を照射するために設置されたヘッドライトの制御を例に説明する。ライトは車両前方に照射するものの他、車両後方、車両側方を照射するライトが共存していても良く、制御の対象も車両後方、車両側方を照射するライトであって良い。
 図17に示すように、まずステップS800が実行される。ステップS800は、地図情報を利用するアプリケーションを起動中か否かが判定されるステップである。地図情報を利用するアプリケーションとは、例えば、画像に基づいて算出されたランドマーク63の座標と地図情報とを照合して自車両の位置を特定することによって実現される自動ステアリングなどである。地図情報を利用するアプリケーションが実行されていなければ本ステップはNO判定となり、本フローは終了する。該アプリケーションが実行されていれば、本ステップはYES判定となりステップS801に進む。
 ステップS801は、車両におけるヘッドライトの制御がオートモードに設定されているか否かを判定するステップである。オートモードに設定されているとは、ヘッドライトの上下あるいは左右などの配光制御が自動に設定されている状態であり、例えばアクティブハイビームシステム(AHS)がその例である。ヘッドライトの制御がマニュアル(手動)モードである場合には本ステップはNO判定となり本フローは終了する。一方、ヘッドライトの制御がオートモードである場合には、本ステップはYES判定となりステップS802に進む。
 ステップS802は、主プロセッサ40が、車両の周辺環境の明るさが所定の閾値以下であるか否かを判定するステップである。具体的には、車両に搭載された照度センサにより検出された照度と所定の閾値とを比較する。照度が閾値より大きい場合には、必ずしもヘッドライトを点灯する必要がないとの判定により、本ステップはNO判定となって本フローは終了する。一方、照度が閾値以下の場合には、ステップS803に進んでヘッドライトが点灯される。
 次に、ステップS804が実行される。ステップS804は、主プロセッサ40が自車両に対する先行車あるいは対向車が存在するか否かを判定するステップである。先行車の存在は、例えばカメラ10により撮像された画像からリアライトの光を検出してその存在を認識する。あるいはカメラ10とレーダーやLIDARとによるフュージョン構成により先行車の存在を認識する。また、対向車の存在は、例えばカメラ10により撮像された画像からヘッドライトの光を検出してその存在を認識する。あるいはカメラ10とレーダーやLIDARとによるフュージョン構成により対向車の存在を認識する。
 ステップS804において対向車あるいは先行車の存在が検出されると本ステップはYES判定となりステップS805に進む。ステップS805はヘッドライトの照射モードをロービームに設定するステップである。ロービームのモードでは、先行車あるいは対向車のドライバの眩光を抑制するために、少なくとも先行車あるいは対向車が存在する方向において、直接的に該当する車両に照明光を照射しないようにヘッドライトの照射方向を調整する。
 その後、ステップS806が実行される。ステップS806は、主プロセッサ40が、ランドマーク63の存在が想定される方向に、選択的に照明光を照射するようにヘッドライトの配光を制御するステップである。一例として、図18に示すように、左側通行の対向二車線道路において、先行車と対向車とが存在する状況を想定する。このとき、主プロセッサ40は、アクチュエータ70たるヘッドライトを制御して、対向車が走行する対向車線側に照明光が過剰に照射されないように、車両右側のヘッドライトをロービームで維持する。一方、先行車に照明光が過剰に照射されないように、車両左側のヘッドライトの一部光源の配光を制御して、先行車周辺への照射についてはロービームで維持するとともに、標識等のランドマーク63が存在するであろう車線外、すなわち自車両が走行する車線側の路肩を含む車線外、にヘッドライトの照明光が照射されるように、車両左側のヘッドライトの一部光源の配光を制御してハイビームとする。これにより、対向車あるいは先行車のドライバの眩光を抑制しつつ、ランドマーク63の存在が想定される方向にヘッドライトの照明光を照射することができる。これに伴い、ランドマーク63の検出頻度が高くなり、ランドマーク63の座標の画像からの算出頻度も向上するので、より長時間にわたって地図情報が有するランドマーク63の座標との照合が可能となり、自車両の位置をより正確に特定することができる。
 ステップS804において対向車あるいは先行車の存在が検出されないと本ステップはNO判定となりステップS807に進む。ステップS807はヘッドライトの照射モードをハイビームに設定するステップである。ハイビームのモードでは、自車両の周辺に先行車および対向車が存在しないので、遠方を視認できるようにヘッドライトの照射方向を調整する。
 その後、ステップS808が実行される。ステップS808は、主プロセッサ40が、ランドマーク63の存在が想定される方向に、選択的に照明光を照射するようにヘッドライトの配光を制御するステップである。本ステップでは、ヘッドライトの配光に、例えばワイド配光や遠方配光を採用することができる。ワイド配光とは、ハイビームあるいはハイビームにおける左右方向の照射範囲に較べてより広範囲を照らす配光モードである。これにより、路肩を含めた車線外のランドマーク63をより容易に検出することができる。また、遠方配光とは、高速走行時において、ハイビームよりも遠方に照明光を集中させてより遠方まで照明光を届かせる配光モードである。これにより、高速走行時であっても、行き先標識等のランドマーク63をより容易に検出することができる。
 上記地図システム1においては、ライト制御がオートモードであることを条件の1つとしてランドマーク63が検出しやすい配光を実施する例について説明したが、ライト制御が自動ではなく、ドライバの操作に依存するモードにおいて、ヘッドライトがロービームに設定され、且つ、車両周辺の環境の照度が所定の閾値以下である場合には、地図システム1がドライバに対して、ヘッドライトの配光をハイビームに変更する旨の提案を行うようにしても良い。配光の変更の提案は、例えばHMI60にその旨表示する、あるいは音声で伝達する等の方法を採用できる。
 なお、夜間には、照明等が併設されていないランドマークはカメラ10の撮像画像からは認識しにくい。ゆえに、昼間は、多様なランドマークをもとにローカライズを行う一方、夜間は、ローカライズに使用するランドマークは内部照明式標識や、付近に街灯等の照明が付設されている標識、信号機、電光掲示板などに限定されることが好ましい。内部照明式標識は、標識板の内側に光源が設けられた標識を指す。地図データは、夜間時も検出可能であるか否かをランドマークの属性情報として備えていることが好ましい。なお、夜間時も検出可能であるか否かは、夜間時のプローブデータをもとに設定されればよい。例えば夜間に収集されたプローブデータにおいて所定の確率で検出されているランドマークを、夜間でも認識可能なランドマークに設定されればよい。
 [マップタイルのダウンロード方法について]
 地図情報のサーバ3からのダウンロードは、サーバ3と車両との間の限られた通信帯域の中で実行される必要があり、効率的な通信が要求される。ここでは、地図情報のダウンロードに係り、効率的に、漏れなくマップタイルのダウンロードを実現できる地図システム1について説明する。
 この地図システム1は、車両が向かうべき目的地の設定の有無により、異なるフローでマップタイルのダウンロードを実現する。以下、目的地が設定されていない場合と、目的地が設定されている場合とで、それぞれ説明する。
 <目的地が設定されていない場合>
 図19および図20を参照して具体的なフローについて説明する。図19に示すように、まず、ステップS900が実行される。ステップS900は、主プロセッサ40がGPS等により自車両の大まかな位置を特定するステップである。このステップにより、自車両が存在する地域が把握される。なお、図19に例示する一連の処理は、走行用電源がオンとなったことをトリガとして開始されればよい。その他、図19に例示する一連の処理は、地図活用機能や自動運転機能が有効化された場合に開始されても良い。
 次に、ステップS901が実行される。ステップS901は、主プロセッサ40が、自車両が存在する地域に対応するマップタイルをダウンロードするステップである。主プロセッサ40は、自車位置に対応するマップタイルの地図データを配信するようにサーバ3にリクエストする。例えば、主プロセッサ40は、自車位置が属する地域のタイルIDを、サーバ3に送信する。サーバ3は、車両からリクエストされたマップタイルを配信する。なお、サーバ3は、要求された地域の地図データを有していない場合(例えば有効期限が切れている場合など)には、要求された地域の地図データを有していない旨の信号を返送する。例えば、データフォーマットの所定位置に無効値(例えば“NULL”)を設定した信号を返送する。
 なお、ここでは一例として走行用電源がオンとなった時点でメモリ80には地図データが存在しない場合を想定している。メモリ80に地図データが残す構成において、自車両が存在する地域に対応するマップタイルがメモリ80に保存されている場合には、ステップS901は省略されてもよい。また、ここでは一例として車両側から必要な地図データを特定し、サーバ3に要求するが、地図データの配信態様はこれに限定されない。車両は現在位置をサーバ3に送信し、サーバ3が、報告された車両位置に対応する地図データを判断し、車両へ配信するように構成されていてもよい。
 図20にマップタイルの一例を示す。図20では80枚のマップタイルが示されている。サーバ3に格納されたマップタイルにはそれぞれ固有のIDが付与されているが、ここでは、便宜的に、25枚のマップタイルにa~yの通し符号を付与している。ここで、ステップS900において特定された自車両の大まかな位置が図20に示す菱形であるとすれば、マップタイルmが第1タイルに相当する。以降、自車両が存在する地域に対応するマップタイルを特に第1タイルと称する。
 次に、ステップS902が実行される。ステップS902は、主プロセッサ40が、第1タイルをサブタイルに分割するステップである。主プロセッサ40は、図20に示すように、第1タイルであるマップタイルmを4つの方形領域に分割して以降の処理を実行するように設定する。
 次に、ステップS903が実行される。ステップS903は、主プロセッサ40が、複数のサブタイルの中から自車両が属するサブタイルを特定するステップである。図20に示す例では、分割されたマップタイルmのなかで、自車両は右上のサブタイルに属している。
 次に、ステップS904が実行される。ステップS904は、自車両が属するサブタイルに隣接するマップタイルをダウンロード対象に指定するステップである。図20に示す例では、第1タイルはマップタイルmであり、自車両が属するサブタイルは右上に位置するサブタイルであるから、ステップS904においてダウンロード対象に指定されるマップタイルは、マップタイルh、i、nの3つである。なお、サブタイルに隣接するマップタイルとは、車両がマップタイルを跨いで移動する際に、次に移動することが可能なマップタイルの候補に相当する。換言すれば、サブタイルに隣接するマップタイルは、車両が通過する可能性があるマップタイルに相当する。なお、1つの観点においては、所定時間(0.5時間)以内に車両が進入しうる位置に存在するマップタイルが車両が通過する可能性が相対的に高いマップタイルに該当しうる。また、車両の現在位置から所定距離以内に存在するマップタイルもまた、車両が通過する可能性があるマップタイルに該当しうる。
 次に、ステップS905が実行される。ステップS905は、ダウンロード対象に指定され、且つ、メモリ80にキャッシュされていない(つまり未取得の)マップタイルをダウンロードするステップである。上記の通り、マップタイルh、i、nがダウンロード対象に該当するが、これらのうち、既にダウンロードされメモリ80に格納されているものが存在する場合には、該当するマップタイルはダウンロードしない。
 次に、ステップS906が実行される。ステップS906は、ダウンロードしたマップタイルをメモリ80にキャッシュするステップである。キャッシュされたマップタイルは、該当するデータがメモリ80に残存している限り、ダウンロードすることなく利用することができる。
 次に、ステップS907が実行される。ステップS907は、自車両が第1タイルとは異なる第2タイルに移動したか否かを判定するステップである。例えば、車両がマップタイルmからマップタイルiに移動したとすると、本ステップはYES判定となる。この例では、マップタイルiが第2タイルに相当する。なお、車両が第1タイルに引き続き存在する場合には、ステップS907の処理を継続する。本ステップがYES判定になるとステップS908に進む。
 ステップS908は、第2タイル周辺のマップタイルをダウンロード対象に指定するステップである。車両がマップタイルmからマップタイルiに移動したとすると、第2タイルはマップタイルiであり、ダウンロード対象に指定されるマップタイルは、マップタイルc、d、e、h、j、m、n、oの8つである。
 次に、ステップS909が実行される。ステップS909は、ステップS905は、ダウンロード対象に指定され、且つ、メモリ80にキャッシュされていないマップタイルをダウンロードするステップである。上記の通り、マップタイルc、d、e、h、j、m、n、oの8つのマップタイルがダウンロード対象であるが、マップタイルh、m、nは以前のステップにおいてダウンロードされキャッシュされたマップタイルであるから、ダウンロードされない。すなわち、ステップS909においてダウンロードされるマップタイルは実質的に5つである。そして、第1タイルが設定されてから連続して走行している限り、あらゆるシチュエーションにおいて、第2タイルに移動後にダウンロードされるマップタイルは最大で5つとなる。すなわち、自車両が属するマップタイルに対して周辺のすべてのタイルを改めてダウンロードしなくとも、多くとも5つのマップタイルのダウンロードを行えば、次に自車両が移動すると想定されるマップタイルの情報を確実に取得することができる。
 次に、ステップS310が実行される。ステップS310は、ダウンロードしたマップタイルをメモリ80にキャッシュするステップである。キャッシュされたマップタイルは、該当するデータがメモリ80に残存している限り、ダウンロードすることなく利用することができる。
 次に、ステップS311が実行される。ステップS310が、主プロセッサ40が、地図情報を必要とするアプリケーションが実行されているか否かを判定するステップである。地図情報を必要とするアプリケーションとは、地図活用に係るアプリケーションであり、例えば自車両の位置を特定しながらの自動ステアリング制御等である。地図情報が必要なアプリケーションが起動中は、引き続き車両が進行する先でのマップタイルのダウンロードが必要であり、ステップS907からステップS311のフローを繰り返す。すなわち、移動先のマップタイル周辺のマップタイルをダウンロード候補とし、キャッシュされていないマップタイルのダウンロードが継続的に実行される。一方、地図情報を活用するアプリケーションが停止され、ステップS311の実行時点でアプリケーションが起動していなければ、本フローは終了する。
 上記例では、第1タイルにおいて最初に所在したサブタイルから別のサブタイルに移動することなく直接第2タイルに移動した例を説明したが、別の例についても簡単に説明する。
 例えば、マップタイルmを第1タイルとし、右上のサブタイルに存在した車両が、同じ第1タイルのうち右下のサブタイルに移動したと仮定する。この場合、ステップS904において、ダウンロード対象とされるマップタイルは、車両が右上のサブタイルに所在する時点ではマップタイルh、i、nであり、右下のサブタイルに移動した時点でマップタイルn、r、sとなる。その後車両がマップタイルrに移動したとすれば、ステップS909においてダウンロードされるマップタイルは、マップタイルl、q、v、w、xの5つとなる。
 上記したように、本開示の地図システム1を採用することにより、車両が走行すると想定される地域に対応するマップタイルを、最低限のダウンロード数で網羅的にダウンロードすることができる。尚、上記構成は、走行用電源がオン後、目的地が未設定である場合のダウンロード方針として、第1タイルを4分割してなるサブタイルのうち、自車両が属するサブタイルに隣接する3つのマップタイルと第1タイルとをダウンロード対象に設定する構成に相当する。上記の地図ダウンロードに係る処理は、走行用電源がオンとなった後、HMI60に対するユーザ入力に基づき、自動運転機能が有効化されたこと、又は、地図活用機能が有効化されたことをトリガとして実行されれば良い。第1タイルは、1つの側面においては、走行用電源がオンとなった時点における車両の位置に対応するマップタイルである。また、他の側面においては、第1タイルは、自動運転機能が有効化された時点、又は、地図活用機能が有効化された時点における車両位置が属するマップタイルに相当する。
 <目的地が設定されている場合>
 次いで、目的地が設定されている場合のフローについて、図21および図22を参照して具体的に説明する。
 図21に示すように、まず、ステップS920が実行される。ステップS920は、主プロセッサ40がGPS等により自車両の大まかな位置を特定するステップである。このステップにより、自車両が存在する地域が把握される。図22に示す例では、自車両の位置を点A(黒塗りの菱形)で示している。
 次に、ステップS921が実行される。ステップS921は、設定された目的地のグローバル座標を取得するステップである。目的地は、ユーザである運転者の能動的な指示のほか、外部の指示系統からの自動設定その他の手段により設定され得る。また、車両に搭載されたカーナビゲーションシステムでの操作のほか、モバイル通信機器により設定された目的地を地図システム1が受信することにより目的地が設定されても良い。図22に示す例では、目的地を点B(白抜きの菱形)で示している。
 次に、ステップS922が実行される。ステップS922は、ステップS920により特定された自車両の位置と、ステップS921により取得された目的地の座標とに基づいて主経路Lを算出するステップである。主経路Lとは、指定された条件を満たすように、自車両が現在位置から目的地まで移動するために推奨される走行ルートである。図22に示す例では、現在位置Aと目的地Bとを結ぶ実線として示している。
 次に、ステップS923が実行される。ステップS923は、分岐路Rを算出するステップである。分岐路Rとは、主経路Lに接続された路線であり、車両が主経路Lを離脱して走行する可能性が有る経路である。分岐路Rは、主経路Lから直接分岐する第1分岐路R1と、主経路Lとは直接接続されないが第1分岐路R1から分岐する第2分岐路R2と、を含んでいる。
 次に、ステップS924が実行される。ステップS924は、主経路Lおよび分岐路Rが属するマップタイルをダウンロード対象に指定するステップである。主経路Lが属するマップタイルはすべてがダウンロード対象となる。一方、分岐路Rが属するマップタイルについては、分岐路Rが属するマップタイルであって、主経路Lが属するマップタイルから連続する2タイルがダウンロード対象として指定される。なお、分岐路Rに係るマップタイルについては、主経路Lが属するマップタイルから連続するタイル数は限定されるものではなく、2タイルという数は1つの例である。図22に示す例では、ダウンロード対象となるマップタイルにハッチングを施している。
 次に、ステップS925が実行される。ステップS925は、ダウンロード対象に指定され、且つ、メモリ80にキャッシュされていないマップタイルをダウンロードするステップである。過去にダウンロードされメモリ80に格納されているものが存在する場合には、該当するマップタイルはダウンロードしない。
 次に、ステップS926が実行される。ステップS926は、ダウンロードしたマップタイルをメモリ80にキャッシュするステップである。キャッシュされたマップタイルは、該当するデータがメモリ80に残存している限り、ダウンロードすることなく利用することができる。
 以上の工程を経ることにより、現在位置から目的地までの主経路と、主経路を離脱して走行する可能性のある分岐路について、ダウンロードするべきマップタイルを適切に選定することができる。
 なお、ダウンロード対象に指定された複数のマップタイルにおいて、ダウンロードの優先度を設定することが好ましい。例えば、車両が属するマップタイルに近いマップタイルほどダウンロードの優先度を高く設定すると良い。これにより、マップタイルの到達順に沿ってマップタイルがダウンロードされるので、通信帯域を有効活用しつつ、マップタイルを漏れなく、効率的にダウンロードすることができる。
 また、主経路Lが属するマップタイルを、分岐路Rが属するマップタイルに較べて優先的にダウンロードすると良い。車両は分岐路Rよりも主経路Lを走行する確率が高いため、通信帯域を有効活用しつつ、マップタイルを効率的にダウンロードすることができる。
 さらに、主経路Lおよび分岐路Rを含む、車両の走行が予測される経路のうち、車両とサーバ3との通信状態が悪化することが予め知られている地域が存在する場合には、対応するマップタイルを優先的にダウンロードすると良い。例えば通信状態が悪化する山間部やトンネル内といった、通信困難区間を走行することが予想されるときには、通信状態が良好な都市部を走行中に、山間部/トンネル区間(つまり通信困難区間)に対応するマップタイルを予めダウンロードしておくと良い。ダウンロードの優先順位は、例えば、現在位置に対応するマップタイル(つまり第1タイル)、第1タイルに隣接し且つ主経路が通るマップタイル、通信困難区間の順に高く設定されれば良い。
 上記、ダウンロードするマップタイルに優先度を設けるいくつかの例について説明したが、これらの例に限定されない。また、これらの条件を適宜組み合わせて優先度を設定しても良い。
 また、ダウンロード対象に指定するマップタイルについて、主経路Lおよび分岐路Rの両方について対応するマップタイルをダウンロードする例を説明したが、主経路Lのみに対応したマップタイルをダウンロードするようなシステムを採用しても良い。また、主経路Lに接続する全ての路線を、分岐路Rとして採用しなくともよい。主経路に接続する細街路などは、分岐路Rとして採用しなくともよい。また、主経路Lに接続する道路のうち、主経路を構成する道路と同格以上の道路を分岐路Rに設定するように構成されていてもよい。ある道路と同格の道路とは、例えば、道路種別(国道や県道、細街路)が同じ道路を指す。なお、県道にとって、同格以上の道路とは国道や県道などを指す。米国においては道路種別は、道路格が高い順に、インターステイト・ハイウェイ、USハイウェイ、州道、市町村道に区分されうる。また、主経路と車線数が同じかそれ以上の道路を、同格以上の道路として採用してもよい。主経路に接続する道路を分岐路Rとして採用するか否かは、当該接続点(実体的には交差点)付近における主経路の道路規模と、接続道路の規模とを比較して判断されればよい。道路規模とは前述の道路格や車線数に相当するものである。
 さらに、以上では目的地が設定されている場合に、自車両が通りそうな道路が属するマップタイルを事前に計画的にダウンロードする構成を開示したがこれに限らない。目的地が設定されていない場合においても、自車走行路が通るマップタイルをダウンロード対象に設定してもよい。より具体的には、自車走行路が通るマップタイルのうち、現在位置から自車進行方向側に存在する所定個数(例えば3個)分のマップタイルをダウンロード対象に設定するように構成されていてもよい。そのような構成によれば、目的地が設定されていない場合においても、目的地が設定されている場合と同様に、自車両が通りそうな道路が属するマップタイルを事前にダウンロード可能となる。
 上述した計画的なマップタイルのダウンロード方法は、静的地図データにのみ適用されてもよい。自車両が通りそうなマップタイルの動的地図のデータは、一度にすべてダウンロードしてもよい。動的地図データは静的地図情報に比べてデータ量が小さいことが期待できるためである。また、主プロセッサ40は、静的情報と動的情報といった種別に応じて、それらのデータをダウンロードするタイミングや規則を変更するように構成されていてもよい。例えば、動的地図データはリアルタイムに逐次ダウンロードする一方、静的地図データは月単位や週単位でダウンロードするように構成されていてもよい。上述した種々の構成及び手法は、車両が高速道路等の自動車専用道路を走行している場合に限らず、一般道路を走行する場合にも適用可能である。
 ところで、以上では走行用電源がオンとなってから所定の準備時間(例えば30秒)以内にGPS等を用いて大まかな自車位置を特定できる場合について言及した。しかしながら、実際には、走行用電源がオンとなってから所定の準備時間に自車位置を特定できるとは限らない。地下駐車場など、GPS電波が入らないところに駐車されている場合には、自車両の位置座標を特定することが困難である。そのような事情を鑑みると、主プロセッサ40は、車両が駐車された場合(例えばシフトポジションがパーキング位置にセットされた場合)に、その時点で特定されている自車位置座標をストレージ部82等に保存しておくように構成されていることが好ましい。当該構成によれば、GPS電波が届かないところに駐車された場合であっても、ストレージ部82に記録されている位置情報を参照することで、走行用電源がオンとなったタイミングで大まかな自車位置を特定できる。その結果、第1タイルを特定することができる。
 なお、車両の状態及び外部環境に由来して、実行可能な自動運転機能に制限がかかっている場合には、その旨を例えばディスプレイにアイコン表示するなど、HMI60を介してユーザに報知することが好ましい。例えば自車位置を特定できない場合や、地図データを取得できない場合には、主プロセッサ40はHMI60を介してレベル3以上の自動運転機能は実行できない旨を乗員に報知する。なお、以上では地図データがマップタイル単位で配信されるように構成されている場合を例示したが、地図データがパッチ単位で配信されるように構成されている場合も同様である。すなわち、上記のマップタイルをパッチ又はパッチ対応エリアと読み替えることにより実施することができる。
 [車両側システムの構成の変形例について]
 地図システム1を構成する車載システム2の構成は、図2に示す構成に限定されない。例えば図23に示すように、車載システム2は、前方カメラモジュール90と、ロケータ100と、イーサネットスイッチ110と、通信モジュール50とを用いて実現されていてもよい。なお、イーサネットは登録商標である。また、図23においてはセンサ30やHMI60の図示は省略している。
 前方カメラモジュール90は、カメラ本体部91、カメラプロセッサ92、および図示しないメモリを備える。カメラ本体部91は前述のカメラ10に相当する構成である。カメラプロセッサ92は画像プロセッサ20に相当する。また、カメラプロセッサ92は、ここではより好ましい態様として、画像認識結果と地図データとを相補的に用いた位置算出(つまりローカライズ)を実施可能に構成されている。加えて、カメラプロセッサ92は、画像認識結果及び地図データの少なくともいずれか一方を用いて、車両の制御(例えばステアリング制御)を実施する機能を備える。当該前方カメラモジュール90は、画像認識の結果としての地物情報や車両情報(たとえば現在位置やヨーレート等)のデータを逐次(例えば100ミリ秒ごとに)をロケータ100に提供する。前方カメラモジュール90とロケータ100とのデータ通信は、CAN(Controller Area Network:登録商標)や、FlexRay(登録商標)、Ethernet(登録商標)、USB、UART等によって実現されればよい。
 ロケータ100は、サーバ3から提供される地図データを用いて現在位置を特定する装置である。ロケータ100はロケータプロセッサ101、揮発性メモリ102、及び不揮発性メモリ103を備える。ロケータ100は、測位センサ30aとしての機能を備える。ロケータプロセッサ101は、前方カメラモジュール90から提供される画像認識結果や車両情報を逐次取得し、プローブデータとしてサーバ3にアップロードする。また、ロケータ100は、通信モジュール50等を介してサーバ3から、自車位置に応じた地図データをダウンロードし、不揮発性メモリ103に保存する。このようなロケータ100は、1つの側面において、地図データに送受信に係る処理を実施するECUに相当する。
 ロケータ100は、サーバ3からダウンロードした地図のうち、自車両の走行にかかる区間のデータを揮発性メモリ102に逐次展開し、前方カメラモジュール90に逐次提供する。展開された自車両周辺の地図データは、前方カメラモジュール90によるローカライズやステアリング制御などに使用される。なお、ローカライズやステアリング制御は、前方カメラモジュール90の代わりにロケータ100が実行するように構成されていても良い。各構成が備える機能の配置は適宜変更可能である。
 自車両の走行にかかる区間とは、例えば自車両の進行方向(基本的には前方)において、現在位置から所定距離以内となる道路を指す。ここでの所定距離は、地図データの読み出し範囲を規定するパラメータであって、例えば200mである。読み出し範囲は、自車両の前方100mや、400m、500mなどであっても良い。読み出し範囲は、車速や走行路の種別に応じて調整されても良い。例えば車速が早いほど、読み出し範囲は長く設定される。また、走行路が高速道路である場合には、走行路が一般道路である場合よりも読み出し範囲は長く設定されればよい。便宜上、自車両前方所定距離以内の詳細な道路形状情報(曲率や勾配、幅員など)を含む、局所的な地図データのことを前方地図データと称する。前方地図データが現在位置周辺の地図データに相当する。
 ロケータ100は、例えばイーサネットスイッチ110を介して通信モジュール50と接続されている。また、ロケータ100は、イーサネットスイッチ110を介して又は直接的に、自動運転ECUやボディECU、運転支援装置などとも相互通信可能に接続されている。図23に示す構成では、地図データの送受信をロケータ100が統括的に行う。また、図23に示す構成によれば、主プロセッサ40が担当していた処理を、画像プロセッサ20及びロケータプロセッサ101が分担して行う。故に、個々のプロセッサの負荷を軽減することができる。
 なお、前方カメラモジュール90は撮像した画像フレームは、連続的な映像信号としてマルチメディアECUに出力されるように構成されていても良い。映像信号は、LVDS(Low voltage differential signaling)など、所定の形式で伝送されれば良い。また、ロケータ100と通信モジュール50の間に存在するイーサネットスイッチ110は任意の要素である。ロケータ100と通信モジュール50はUSBケーブル等で直接的に接続されていても良い。加えて、ロケータ100は、ナビゲーションECUやマルチメディアECUを援用して実現されていてもよい。ナビゲーションECUは、乗員に対する地図表示や経路案内処理を実行するECUである。マルチメディアECUは、オーディオや、動画再生、ウェブブラウジング等の機能を提供するECUである。既存のECUに、地図データの送受信及び管理機能を追加する構成によれば、システムの導入コストを低減することができる。
 また、車載システム2において、サーバ3から地図データをダウンロードする系統と、プローブデータをサーバ3にアップロードする系統は分離されていても良い。例えば図24に示す例では、マルチメディアECU120が、前方カメラモジュール90から画像認識結果及び車両情報を取得し、プローブデータとしてパッケージングを行い、通信モジュール50を介してサーバ3にアップロードする。つまり、マルチメディアECU120がプローブデータのサーバ3へのアップロードを制御する。また、図24に示す構成では、ロケータ100が通信モジュール50を介してサーバ3から地図データをダウンロードし、運転支援装置130を介して前方カメラモジュール90に、前方地図データを逐次提供する。つまり、ロケータ100が地図のダウンロードを制御する。運転支援装置130は、ロケータ100から提供された前方地図データを前方カメラモジュール90に逐次提供する。また、運転支援装置130は、前方カメラモジュール90による自動走行制御が継続困難となった場合には、前方カメラモジュール90の代わりに、前方地図データを用いて所定時間/所定距離、車両を自動走行させる。上記構成によれば、システム異常に対するロバスト性を高めることができる。
 [付言]
 この明細書および図面等における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、請求の範囲の記載によって示され、さらに請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものと解されるべきである。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされた専用コンピュータにより、実現されてもよい。また、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。さらに、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 なお、ここでの制御部とは、例えば主プロセッサ40、画像プロセッサ20、サーバプロセッサ31、カメラプロセッサ92、ロケータプロセッサ101、マルチメディアプロセッサ121等、種々のプロセッサを指す。上述した種々のプロセッサが提供する手段および/または機能は、実体的なメモリ装置に記録されたソフトウェアおよびそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供することができる。通信マイコン123が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。プロセッサとしては、CPUや、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)、データフロープロセッサ(DFP:Data Flow Processor)など、多様なプロセッサを採用することができる。また、1つの装置(例えば前方カメラモジュール90)は、CPUや、MPU、GPU、DFPなど、複数種類のプロセッサを組み合せて実現されていてもよい。さらに、例えば主プロセッサ40が提供すべき機能の一部は、FPGA(Field-Programmable Gate Array)や、ASIC(Application Specific Integrated Circuit)などを用いて実現されていても良い。
1…地図システム,2…車載システム(車両側装置、車両制御装置)、3…サーバ,31…サーバプロセッサ,10…撮像装置(カメラ,周辺監視センサ),20…画像プロセッサ,30…状態取得部(センサ),40…主プロセッサ,50…通信モジュール,60…HMI,63…ランドマーク(地物),70…アクチュエータ,80…メモリ,90…前方カメラモジュール,100…ロケータ,110 イーサネットスイッチ、120…マルチメディアECU,130…運転支援装置

 

Claims (9)

  1.  道路セグメント(62)に沿って車両を自律的に走行させるためのシステムであって、
     少なくとも1つのプロセッサ(20,31、40)を含み、
     前記プロセッサは、
     撮像装置(10)から、前記車両の環境を表す少なくとも1つの画像を取得することと、
     前記車両の環境の明るさを取得することと、
     前記画像を解析して、前記車両が走行した道路に対するランドマーク(63)の位置を算出することと、
     前記ランドマークの位置の情報を含む地図情報をサーバ(3)にアップロードすることと、
     前記画像に基づいて算出された前記ランドマークの位置と、前記サーバに格納された地図情報とに基づいて自車両の位置を決定することと、を実行するようにされ、
     前記明るさが所定の閾値以下であるとき、前記ランドマークの存在が想定される方向に向かって照明光を照射する、システム。
  2.  前記照明光は、前記車両に搭載され、前記車両の前方を照らすライトにより照射される、請求項1に記載のシステム。
  3.  前記照明光は、先行車あるいは対向車を避けて照射される、請求項1または請求項2に記載のシステム。
  4.  道路セグメント(62)に沿って車両を自律的に走行させるための方法であって、
     撮像装置(10)から、前記車両の環境を表す少なくとも1つの画像を取得すること、
     前記車両の環境の明るさを取得すること、
     前記画像を解析して、前記車両が走行した道路に対するランドマーク(63)の位置を算出すること、
     前記ランドマークの位置の情報を含む地図情報をサーバ(3)にアップロードすること、
     前記画像に基づいて算出された前記ランドマークの位置と、前記サーバに格納された地図情報とに基づいて自車両の位置を決定すること、を備え、
     前記明るさが所定の閾値以下であるとき、前記ランドマークの存在が想定される方向に向かって照明光を照射する、方法。
  5.  前記照明光は、前記車両に搭載され、前記車両の前方を照らすライトにより照射される、請求項4に記載のシステム。
  6.  前記照明光は、先行車あるいは対向車を避けて照射される、請求項4または請求項5に記載のシステム。
  7.  道路セグメント(62)に沿って車両を自律的に走行させるために、少なくとも1つのプロセッサ(20,31,61)にプログラムを実行させる非一過性コンピュータ可読記憶媒体であって、
     前記プログラムは、
     撮像装置(10)から、前記車両の環境を表す少なくとも1つの画像を取得することと、
     前記車両の環境の明るさを取得することと、
     前記画像を解析して、前記車両が走行した道路に対するランドマーク(63)の位置を算出することと、
     前記ランドマークの位置の情報を含む地図情報をサーバ(3)にアップロードすることと、
     前記画像に基づいて算出された前記ランドマークの位置と、前記サーバに格納された地図情報とに基づいて自車両の位置を決定することと、を前記プロセッサに実行させるようにされ、
     前記明るさが所定の閾値以下であるとき、前記ランドマークの存在が想定される方向に向かって照明光を照射する、非一過性コンピュータ可読記憶媒体。
  8.  前記照明光は、前記車両に搭載され、前記車両の前方を照らすライトにより照射される、請求項7に記載の非一過性コンピュータ可読記憶媒体。
  9.  前記照明光は、先行車あるいは対向車を避けて照射される、請求項7または請求項8に記載の非一過性コンピュータ可読記憶媒体。
     

     
PCT/JP2019/033203 2018-08-31 2019-08-26 地図システム、方法および記憶媒体 WO2020045317A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/185,665 US11410332B2 (en) 2018-08-31 2021-02-25 Map system, method and non-transitory computer-readable storage medium for autonomously navigating vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018162472A JP2020034472A (ja) 2018-08-31 2018-08-31 自律的ナビゲーションのための地図システム、方法および記憶媒体
JP2018-162472 2018-08-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/185,665 Continuation US11410332B2 (en) 2018-08-31 2021-02-25 Map system, method and non-transitory computer-readable storage medium for autonomously navigating vehicle

Publications (1)

Publication Number Publication Date
WO2020045317A1 true WO2020045317A1 (ja) 2020-03-05

Family

ID=69644143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/033203 WO2020045317A1 (ja) 2018-08-31 2019-08-26 地図システム、方法および記憶媒体

Country Status (3)

Country Link
US (1) US11410332B2 (ja)
JP (1) JP2020034472A (ja)
WO (1) WO2020045317A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210180981A1 (en) * 2018-08-31 2021-06-17 Denso Corporation Method for uploading probe data
CN113012446A (zh) * 2021-02-18 2021-06-22 安徽中科美络信息技术有限公司 一种车辆导流方法及系统
US20210190507A1 (en) * 2019-12-23 2021-06-24 Denso Corporation Localization apparatus and method for vehicle
CN114572102A (zh) * 2022-01-28 2022-06-03 上海康耐司信号设备有限公司 一种适用于车灯的智能调节系统及方法
WO2022223267A1 (de) * 2021-04-23 2022-10-27 Zf Friedrichshafen Ag Abgleich von kartendaten und sensordaten
WO2023286810A1 (ja) * 2021-07-16 2023-01-19 株式会社小糸製作所 静止物情報利用装置、プログラム、静止物情報利用方法、車両システム、及び静止物情報利用システム
WO2023286811A1 (ja) * 2021-07-16 2023-01-19 株式会社小糸製作所 静止物情報蓄積システム、プログラム、及び静止物情報記憶方法
WO2023286806A1 (ja) * 2021-07-16 2023-01-19 株式会社小糸製作所 静止物情報取得装置、プログラム、及び静止物情報取得方法
US20230035780A1 (en) * 2021-07-29 2023-02-02 Zoox, Inc. Systematic fault detection in vehicle control systems
US11821750B2 (en) 2018-08-31 2023-11-21 Denso Corporation Map generation system, server, vehicle-side device, method, and non-transitory computer-readable storage medium for autonomously driving vehicle
US11835361B2 (en) 2018-08-31 2023-12-05 Denso Corporation Vehicle-side device, method and non-transitory computer-readable storage medium for autonomously driving vehicle
US11840254B2 (en) 2018-08-31 2023-12-12 Denso Corporation Vehicle control device, method and non-transitory computer-readable storage medium for automonously driving vehicle
US11920948B2 (en) 2018-08-31 2024-03-05 Denso Corporation Vehicle-side device, method, and non-transitory computer-readable storage medium for uploading map data

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
EP3884480A1 (en) * 2018-11-21 2021-09-29 Arrival Limited Apparatus and method for warning of an oncoming vehicle
JP7165093B2 (ja) * 2019-03-29 2022-11-02 本田技研工業株式会社 車両制御システム
DE102019213612A1 (de) * 2019-09-06 2021-03-11 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
US11521487B2 (en) * 2019-12-09 2022-12-06 Here Global B.V. System and method to generate traffic congestion estimation data for calculation of traffic condition in a region
JP7429143B2 (ja) * 2020-03-30 2024-02-07 本田技研工業株式会社 移動体制御装置、移動体制御方法、およびプログラム
EP3893150A1 (en) * 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
US11987261B2 (en) 2020-09-15 2024-05-21 Tusimple, Inc. Detecting a road structure change by a lead autonomous vehicle (AV) and updating routing plans for the lead AV and following AVs
US20220081003A1 (en) * 2020-09-15 2022-03-17 Tusimple, Inc. DETECTING A CONSTRUCTION ZONE BY A LEAD AUTONOMOUS VEHICLE (AV) AND UPDATING ROUTING PLANS FOR FOLLOWING AVs
JP2022135545A (ja) * 2021-03-05 2022-09-15 トヨタ自動車株式会社 車載装置、情報処理装置、ダウンロード実行可否判定方法、プログラム、記録媒体
JP2022137532A (ja) * 2021-03-09 2022-09-22 本田技研工業株式会社 地図生成装置および位置認識装置
US11967059B2 (en) * 2021-05-18 2024-04-23 Deere &Company Methods and apparatus to identify headlands
US11532221B1 (en) * 2021-08-05 2022-12-20 Ford Global Technologies, Llc System and method for vehicle security monitoring
CN114199233B (zh) * 2021-11-08 2024-04-05 北京旷视科技有限公司 位姿确定方法及可移动设备
JP7537451B2 (ja) 2022-02-14 2024-08-21 トヨタ自動車株式会社 制御装置、制御方法、制御プログラム
US20230403542A1 (en) * 2022-06-08 2023-12-14 GM Global Technology Operations LLC Method to extend operational domain using pre-downloads of tiles for non- or low cellular signal area
CN115290086B (zh) * 2022-08-10 2023-07-07 国能榆林能源有限责任公司 基于本安型惯性导航的地下巷道环境定位方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283219A (ja) * 2004-03-29 2005-10-13 Clarion Co Ltd 車両走行道路判定方法、車両走行道路判定装置およびナビゲーションシステム
JP2007078600A (ja) * 2005-09-16 2007-03-29 Hitachi Ltd 通信端末及びナビゲーションシステム
JP2010163141A (ja) * 2009-01-19 2010-07-29 Koito Mfg Co Ltd 車両用前照灯装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012210467A1 (de) * 2012-06-21 2013-12-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur automatischen Anpassung einer Fahrzeugbeleuchtung an eine Umgebung des Fahrzeugs
CN118816908A (zh) 2015-02-10 2024-10-22 御眼视觉技术有限公司 用于自主车辆导航的稀疏地图
JP6477348B2 (ja) * 2015-08-10 2019-03-06 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
CN116176402A (zh) * 2017-06-27 2023-05-30 株式会社小糸制作所 车辆用灯具系统、车辆用灯具的控制装置及车辆用灯具的控制方法
WO2020045324A1 (ja) 2018-08-31 2020-03-05 株式会社デンソー 車両側装置、方法および記憶媒体
WO2020045319A1 (ja) 2018-08-31 2020-03-05 株式会社デンソー 車両制御装置、方法および記憶媒体
WO2020045322A1 (ja) 2018-08-31 2020-03-05 株式会社デンソー 地図システム、車両側装置、方法および記憶媒体
WO2020045318A1 (ja) 2018-08-31 2020-03-05 株式会社デンソー 車両側装置、サーバ、方法および記憶媒体
WO2020045323A1 (ja) 2018-08-31 2020-03-05 株式会社デンソー 地図生成システム、サーバ、車両側装置、方法、および記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283219A (ja) * 2004-03-29 2005-10-13 Clarion Co Ltd 車両走行道路判定方法、車両走行道路判定装置およびナビゲーションシステム
JP2007078600A (ja) * 2005-09-16 2007-03-29 Hitachi Ltd 通信端末及びナビゲーションシステム
JP2010163141A (ja) * 2009-01-19 2010-07-29 Koito Mfg Co Ltd 車両用前照灯装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11821750B2 (en) 2018-08-31 2023-11-21 Denso Corporation Map generation system, server, vehicle-side device, method, and non-transitory computer-readable storage medium for autonomously driving vehicle
US11979792B2 (en) 2018-08-31 2024-05-07 Denso Corporation Method for uploading probe data
US11920948B2 (en) 2018-08-31 2024-03-05 Denso Corporation Vehicle-side device, method, and non-transitory computer-readable storage medium for uploading map data
US20210180981A1 (en) * 2018-08-31 2021-06-17 Denso Corporation Method for uploading probe data
US11840254B2 (en) 2018-08-31 2023-12-12 Denso Corporation Vehicle control device, method and non-transitory computer-readable storage medium for automonously driving vehicle
US11835361B2 (en) 2018-08-31 2023-12-05 Denso Corporation Vehicle-side device, method and non-transitory computer-readable storage medium for autonomously driving vehicle
US20210190507A1 (en) * 2019-12-23 2021-06-24 Denso Corporation Localization apparatus and method for vehicle
US11976929B2 (en) * 2019-12-23 2024-05-07 Denso Corporation Localization apparatus and method for vehicle
CN113012446A (zh) * 2021-02-18 2021-06-22 安徽中科美络信息技术有限公司 一种车辆导流方法及系统
CN113012446B (zh) * 2021-02-18 2022-04-26 安徽中科美络信息技术有限公司 一种车辆导流方法
WO2022223267A1 (de) * 2021-04-23 2022-10-27 Zf Friedrichshafen Ag Abgleich von kartendaten und sensordaten
WO2023286806A1 (ja) * 2021-07-16 2023-01-19 株式会社小糸製作所 静止物情報取得装置、プログラム、及び静止物情報取得方法
WO2023286811A1 (ja) * 2021-07-16 2023-01-19 株式会社小糸製作所 静止物情報蓄積システム、プログラム、及び静止物情報記憶方法
WO2023286810A1 (ja) * 2021-07-16 2023-01-19 株式会社小糸製作所 静止物情報利用装置、プログラム、静止物情報利用方法、車両システム、及び静止物情報利用システム
US20230035780A1 (en) * 2021-07-29 2023-02-02 Zoox, Inc. Systematic fault detection in vehicle control systems
CN114572102B (zh) * 2022-01-28 2023-07-14 上海康耐司信号设备有限公司 一种适用于车灯的智能调节系统及方法
CN114572102A (zh) * 2022-01-28 2022-06-03 上海康耐司信号设备有限公司 一种适用于车灯的智能调节系统及方法

Also Published As

Publication number Publication date
JP2020034472A (ja) 2020-03-05
US20210183099A1 (en) 2021-06-17
US11410332B2 (en) 2022-08-09

Similar Documents

Publication Publication Date Title
US11410332B2 (en) Map system, method and non-transitory computer-readable storage medium for autonomously navigating vehicle
JP7067536B2 (ja) 車両制御装置、方法および記憶媒体
US11835361B2 (en) Vehicle-side device, method and non-transitory computer-readable storage medium for autonomously driving vehicle
US11920948B2 (en) Vehicle-side device, method, and non-transitory computer-readable storage medium for uploading map data
US11821750B2 (en) Map generation system, server, vehicle-side device, method, and non-transitory computer-readable storage medium for autonomously driving vehicle
US11979792B2 (en) Method for uploading probe data
WO2020045323A1 (ja) 地図生成システム、サーバ、車両側装置、方法、および記憶媒体
US11846522B2 (en) Warning polygons for weather from vehicle sensor data
WO2020045318A1 (ja) 車両側装置、サーバ、方法および記憶媒体
WO2020045324A1 (ja) 車両側装置、方法および記憶媒体
WO2020045319A1 (ja) 車両制御装置、方法および記憶媒体
WO2020045322A1 (ja) 地図システム、車両側装置、方法および記憶媒体
JP7414150B2 (ja) 地図サーバ、地図配信方法
US20230115708A1 (en) Automatic driving device and vehicle control method
US20230175863A1 (en) Traffic signal recognition device, traffic signal recognition method and vehicle control device
JP7315101B2 (ja) 障害物情報管理装置、障害物情報管理方法、車両用装置
CN115769050A (zh) 本车位置估计装置、行驶控制装置
WO2022009847A1 (ja) 悪環境判定装置、悪環境判定方法
US20230256992A1 (en) Vehicle control method and vehicular device
JP7247491B2 (ja) 自律的ナビゲーションのための地図システム、方法および記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19853859

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19853859

Country of ref document: EP

Kind code of ref document: A1