WO2019230683A1 - 情報処理システム、情報処理方法、及び、プログラム - Google Patents
情報処理システム、情報処理方法、及び、プログラム Download PDFInfo
- Publication number
- WO2019230683A1 WO2019230683A1 PCT/JP2019/021002 JP2019021002W WO2019230683A1 WO 2019230683 A1 WO2019230683 A1 WO 2019230683A1 JP 2019021002 W JP2019021002 W JP 2019021002W WO 2019230683 A1 WO2019230683 A1 WO 2019230683A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- information
- danger
- unit
- moving
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- the present disclosure relates to an information processing system, an information processing method, and a program for processing traffic information of a vehicle traveling on a road.
- Patent Document 1 when making a right turn at an intersection, the driver of the right turn vehicle is informed of the trend of a vehicle that becomes a blind spot by an opposite right turn vehicle based on information received from a roadside device installed at the intersection.
- a system for visualizing and presenting the same is disclosed.
- Patent Document 1 there is a case where an accurate determination cannot be made when the vehicle is operated. In other words, safety in traveling (an example of movement) of a vehicle (an example of a moving body) may not be ensured. In addition, it is desirable that a person (for example, a pedestrian) possessing a portable terminal (an example of a moving body) can ensure safety in walking (an example of movement).
- the present disclosure provides an information processing system, an information processing method, and a program with improved safety in moving a moving object.
- An information processing system is a prediction result of movement of a moving body based on movement information related to the moving body in each of two or more moving bodies among a plurality of moving bodies existing within a predetermined range And the predetermined range for each of the two or more moving objects based on a first determination result that determines the possibility of contact of the two or more moving objects using the prediction result.
- a danger map creation unit that creates a danger map indicating a danger area in the movement of the mobile body in the vehicle, and a control unit that performs control to transmit a danger map corresponding to the mobile body to each of the two or more mobile bodies; Is provided.
- An information processing method includes a movement of a moving body based on information on movement of the moving body in each of two or more of the plurality of moving bodies that exist within a predetermined range. Based on the acquisition step of acquiring a prediction result, and the determination result of determining the possibility of contact of the two or more mobile objects using the prediction results acquired from each of the two or more mobile objects, the two or more A danger map creating step for creating a danger map indicating a dangerous area in traveling of the mobile body within the predetermined range for each mobile body, and a risk corresponding to the mobile body for each of the two or more mobile bodies Transmitting a map.
- the program according to one aspect of the present disclosure is a program for causing a computer to execute the traffic information processing method.
- FIG. 1 is a diagram illustrating a schematic configuration including a traffic information processing system according to the first embodiment.
- FIG. 2 is a block diagram illustrating a functional configuration of the traffic information processing system and the vehicle according to the first embodiment.
- FIG. 3 is a diagram illustrating an example of a functional configuration for driving behavior prediction by the learning unit and the driving behavior prediction unit in FIG. 2.
- FIG. 4 is a flowchart illustrating an operation of driving behavior prediction according to the first embodiment.
- FIG. 5A is a diagram illustrating an example of a result of driving behavior prediction according to Embodiment 1 in the first vehicle of FIG. 1.
- FIG. 5B is a diagram illustrating an example of a result of the driving behavior prediction according to Embodiment 1 in the second vehicle in FIG. 1.
- FIG. 5A is a diagram illustrating an example of a result of driving behavior prediction according to Embodiment 1 in the first vehicle of FIG. 1.
- FIG. 5B is a diagram illustrating an example of a result of the driving behavior prediction according
- FIG. 5C is a diagram illustrating an example of a result of the driving behavior prediction according to Embodiment 1 in the third vehicle in FIG. 1.
- FIG. 6 is a flowchart showing the operation of the roadside machine according to the first embodiment.
- FIG. 7 is a diagram illustrating an example of a danger map at an intersection created by the roadside machine according to the first embodiment.
- FIG. 8A is a diagram illustrating an example of a danger map that the roadside machine according to the first embodiment transmits to the first vehicle.
- FIG. 8B is a diagram showing an example of a danger map that the roadside machine according to Embodiment 1 transmits to the second and third vehicles.
- FIG. 9 is a flowchart showing an operation of displaying a danger map in the vehicle according to the first embodiment.
- FIG. 10A is a diagram illustrating an example of a danger map displayed by the second vehicle according to the first embodiment.
- FIG. 10B is a diagram illustrating an example of a danger map displayed by the third vehicle according to the first embodiment.
- FIG. 11 is a diagram illustrating a schematic configuration including the traffic information processing system according to the second embodiment.
- FIG. 12A is a diagram illustrating an example of a traveling state radar chart according to Embodiment 2 in the fourth vehicle.
- FIG. 12B is a diagram showing an example of a traveling state radar chart according to Embodiment 2 in the fifth vehicle.
- FIG. 13 is a diagram illustrating an example of a danger map at an intersection created by the roadside machine according to the second embodiment.
- FIG. 12A is a diagram illustrating an example of a danger map displayed by the second vehicle according to the first embodiment.
- FIG. 10B is a diagram illustrating an example of a danger map displayed by the third vehicle according to the first embodiment.
- FIG. 11 is a diagram illustrating
- FIG. 14A is a diagram illustrating an example of a danger map that the roadside machine according to the second embodiment transmits to the first vehicle.
- FIG. 14B is a diagram illustrating an example of a danger map that the roadside machine according to the second embodiment transmits to the second vehicle.
- FIG. 15 is a block diagram illustrating a functional configuration of the traffic information processing system and the vehicle according to the third embodiment.
- FIG. 16 is a diagram illustrating an example of a reference running state radar chart.
- FIG. 17 is a diagram illustrating an example of a traveling state radar chart in a case where the road surface of the traveling road of the vehicle is frozen.
- FIG. 18 is a diagram illustrating an example of a traveling state radar chart in a case where the amount of traffic on the traveling road of the vehicle is small.
- FIG. 19 is a diagram illustrating an example of a traveling state radar chart according to the third embodiment in consideration of the external environment in the fifth vehicle.
- FIG. 20 is a diagram illustrating an example of a danger map that the roadside machine according to the third embodiment transmits to the second vehicle.
- FIG. 21 is a diagram illustrating a schematic configuration including the traffic information processing system according to the fourth embodiment.
- FIG. 22 is a block diagram illustrating functional configurations of the traffic information processing system, the vehicle, and the mobile terminal according to the fourth embodiment.
- FIG. 23 is a diagram illustrating an example of a danger map at an intersection created by the roadside machine according to the fourth embodiment.
- the driving assistance image display system described in Patent Document 1 cited in “Background Art” performs driving assistance based on an image captured by a roadside device.
- the roadside machine has a camera that images a vehicle existing on an intersection, creates road information including the size and number of the vehicle from an image captured by the camera, and transmits the road information to the vehicle.
- the vehicle determines from the received road information whether or not the right turn signal of the oncoming vehicle is on, and when it is on, the vehicle is in the blind spot by the oncoming vehicle (hereinafter referred to as dark facing) (Also referred to as a vehicle) is displayed on the display unit.
- dark facing Also referred to as a vehicle
- the present inventors have eagerly studied to reduce the risk of collision of the vehicle, in other words, to reduce the blind spot area on the road, and use the image taken by the roadside device to determine the traveling of the oncoming vehicle. It has been found that the vehicle information, which is information related to the traveling of the vehicle, that the vehicle itself has, is used instead of the vehicle information. The present inventors have considered using vehicle information, and have found a technique as described in the claims and the following description.
- FIG. 1 is a diagram showing a schematic configuration including a traffic information processing system 10 according to the present embodiment.
- the traffic information processing system 10 includes a roadside machine 30 that communicates with a plurality of vehicles (for example, the vehicles 20a to 20c shown in FIG. 1).
- the traffic information processing system 10 is a system that uses the roadside machine 30 that communicates with a plurality of vehicles.
- the number of roadside devices included in the traffic information processing system 10 is not particularly limited.
- the roadside machine 30 is not limited to being installed near the intersection 103. Further, the vicinity of the intersection 103 is an example of a predetermined range.
- the traffic information processing system 10 is an example of an information processing system.
- FIG. 1 shows vehicles 20a to 20c traveling near the intersection 103 as the situation of the roads 101 and 102 near the intersection 103 at a certain moment.
- the vehicle 20a (an example of a first vehicle) is a vehicle traveling on the road 102 from the x-axis plus side toward the x-axis minus side.
- the vehicle 20b (an example of a second vehicle) is a vehicle traveling on the road 101 from the y-axis minus side to the y-axis plus side.
- the vehicle 20c (an example of a third vehicle) is a vehicle that travels on the road 101 from the y-axis plus side toward the y-axis minus side.
- FIG. 2 is a block diagram showing functional configurations of the traffic information processing system 10 and the vehicle 20 according to the present embodiment.
- Each of vehicles 20a to 20c shown in FIG. 1 has the same configuration as vehicle 20 shown in FIG.
- the vehicle 20 is a car, a truck, a bus, an AVG (Automated Guided Vehicle), or the like that can run on roads, parking lots, airports, ports, stores, warehouses, factories, and the like.
- AVG Automated Guided Vehicle
- the vehicle 20 may be an automatically driven vehicle that controls all or part of the driving of the vehicle without requiring the driver's operation.
- a vehicle is an example of a moving body.
- the vehicle 20 includes a detection unit 21, a determination unit 22, a control unit 23, a communication unit 24, a display unit 25, and a storage unit 26.
- Components such as the detection unit 21, the determination unit 22, and the control unit 23 may be configured with dedicated hardware, or may be realized by executing a software program suitable for each component.
- Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
- the moving body may be realized as a device that exists inside the vehicle 20 and includes the above-described components.
- the moving body may be, for example, a device that is detachably attached to the vehicle 20.
- the detection unit 21 detects the traveling state of the vehicle 20, the situation around the vehicle 20, and the driver state. Then, the detection unit 21 outputs the detected traveling state, information on the surrounding situation, and the driver state to the control unit 23.
- the detection unit 21 includes, for example, a sensor 21a, a sensor 21b, a position information acquisition unit 21c, a vehicle information acquisition unit 21d, and a map information acquisition unit 21e.
- the sensor 21a detects the situation around the vehicle 20.
- the sensor 21a detects, for example, the position of other vehicles existing around the vehicle 20 and lane position information.
- the sensor 21 a also detects the position of an obstacle present around the vehicle 20.
- Such a sensor 21a is realized by a millimeter wave radar, a laser radar, a camera, or a combination thereof.
- the camera may be a camera such as a drive recorder, for example.
- the sensor 21a may also detect intersection information including information such as the distance from the host vehicle to the intersection 103, the position of the traffic signal, the distance from the host vehicle to the traffic signal, the color of the traffic light, and a predetermined blind spot.
- the sensor 21b detects the situation inside the vehicle 20.
- the sensor 21b detects a driver state such as whether or not the driver (driver) is looking away and whether or not he is asleep.
- the driver's degree of concentration on driving and the degree of dozing are included in the driver state.
- the sensor 21b may detect the driver state from, for example, the direction of the driver's line of sight and the movement of the head.
- Such a sensor 21b is realized by a camera or the like.
- the sensor 21b may include an alcohol detector that detects a driver's dependence on alcohol and its level. The presence or absence of the driver's alcohol and the level thereof are included in the driver state.
- the sensor 21b may be a sensor that measures a sweating state, blood pressure, and the like. For example, the degree of driving allowance can be known from the state of sweating or blood pressure.
- the driving allowance is included in the driver state.
- the driver state is information that cannot be known by the vehicle 20 and the roadside machine 30 other than the host vehicle.
- the driver status indicates the current driver status.
- the sensor 21b includes a load sensor arranged on the seat of the vehicle 20, and may detect the number of passengers on the vehicle 20.
- the position information acquisition unit 21c acquires position information of the vehicle 20 (own vehicle) based on a GPS positioning result by a car navigation device mounted on the vehicle 20.
- the vehicle information acquisition unit 21d acquires information related to travel of the vehicle 20 from various sensors mounted on the vehicle 20 via an in-vehicle network such as CAN (Control Area Network).
- the various sensors include a steering angle sensor that detects the steering angle of the vehicle 20, a speed sensor that detects the speed of the vehicle 20, and the like.
- the vehicle information acquisition unit 21d acquires the steering angle of the vehicle 20 from the steering angle sensor, and acquires the speed of the vehicle 20 from the speed sensor.
- the various sensors include a winker sensor that detects the direction of the winker of the vehicle 20, a brake sensor that detects the degree of braking (hereinafter also referred to as strength), and the degree of accelerator (hereinafter also referred to as opening). ) May be included.
- the various sensors may be sensors mounted on the vehicle 20 other than that.
- the traveling direction of the vehicle 20 may be acquired from a vehicle information acquisition unit 21d, for example, a blinker sensor, the brake strength of the vehicle 20 may be acquired from the brake sensor, and the accelerator opening of the vehicle 20 may be acquired from the accelerator sensor.
- the vehicle information acquisition unit 21d may calculate the acceleration of the host vehicle from the speed acquired in time series, or may calculate the acceleration of the host vehicle from the accelerator opening.
- the map information acquisition unit 21e acquires map information indicating the situation around the vehicle 20.
- the map information acquisition unit 21e acquires, as the map information, map information including, for example, the road on which the vehicle 20 travels, the junction point with other vehicles on the road, the currently traveling lane on the road, the position of the intersection on the road, and the like. To do.
- the determination part 22 acquires the information from the detection part 21 via the control part 23, and determines the driving action of the own vehicle based on the acquired information.
- the driving behavior is, for example, behavior of the host vehicle such as lane change, lane keeping, right / left turn, braking, acceleration, and the like, and is an example of movement of the moving body.
- the determination unit 22 is a route prediction engine that predicts the travel route of the host vehicle based on the information detected by the detection unit 21.
- the determination unit 22 includes a learning unit 22a and a driving behavior prediction unit 22b.
- the learning unit 22a constructs machine learning data for travel prediction corresponding to the driver of the vehicle 20.
- the learning unit 22a uses a neural network (hereinafter also referred to as NN) for machine learning, but may use other machine learning methods.
- the neural network is an information processing model using the cranial nervous system as a model.
- the neural network is composed of a plurality of node layers including an input layer and an output layer.
- the node layer includes one or more nodes.
- the model information of the neural network indicates the number of node layers constituting the neural network, the number of nodes included in each node layer, and the type of the entire neural network or each node layer.
- the number of nodes in the input layer is, for example, 100
- the number of nodes in the intermediate layer is, for example, 100
- the output The number of nodes in the layer can be assumed to be 5, for example.
- the neural network sequentially performs output processing from the input layer to the intermediate layer, processing at the intermediate layer, output processing from the intermediate layer to the output layer, and processing at the output layer for the information input to the nodes of the input layer, Outputs output results that match the input information.
- Each node in one layer is connected to each node in the next layer, and the connection between the nodes is weighted.
- Information on nodes in one layer is output to nodes in the next layer with weighting of connections between the nodes.
- the learning unit 22a constructs a neural network of the driver X from the driving history of the specific driver X of the vehicle 20.
- the learning unit 22a may construct a neural network of the driver X from the driving history of the driver X of the vehicle 20 and general driving histories of a plurality of drivers other than the driver X.
- the learning unit 22a may construct a neural network of the driver X from the above driving history and the driving history of the driver X of the vehicle 20.
- the learning unit 22a constructs a neural network of the driver X from the above driving history, the driving history of the driver X of the vehicle 20, and general driving histories of a plurality of drivers other than the driver X. May be.
- the learning unit 22a includes a case using the driving history of the driver X, a case using the driving history and the general driving history of the driver X, a case using the driving history and the driving history of the driver X, and the driver X
- a neural network may be constructed using at least one of cases using a driving history, a driving history, and a general driving history.
- the plurality of drivers may be an unspecified number of drivers and may not be related to the vehicle 20. Then, the learning unit 22a outputs the constructed neural network as the driving behavior prediction NN to the driving behavior prediction unit 22b.
- the driving history is configured such that each driving action (behavior) performed by the vehicle 20 in the past is associated with a plurality of feature amounts (hereinafter also referred to as a feature amount set) and driver information.
- Each of the feature amounts corresponding to the behavior is, for example, an amount indicating the traveling state of the vehicle 20 from the time when the behavior is started by the vehicle 20 to the time before a predetermined time elapses.
- the predetermined time may be a preset time, for example, a time until the next driving action is started.
- it is the driving history of an unspecified number of vehicles 20.
- FIG. 3 is a diagram illustrating an example of a functional configuration for driving behavior prediction by the learning unit 22a and the driving behavior prediction unit 22b of FIG.
- the feature amount is a parameter related to the driving behavior (behavior) of the vehicle. For example, the number of passengers of the vehicle, the speed of the vehicle, the movement of the steering wheel (also referred to as steering), the strength of the brake, the accelerator Indicates the opening degree.
- the feature amount is, for example, a traveling state of the vehicle as detected by the detection unit 21.
- the travel history is configured so that each driving action performed by the vehicle in the past is associated with a plurality of environmental parameters (hereinafter also referred to as an environmental parameter set) and a driver state.
- Each of the environmental parameters corresponding to the driving behavior is, for example, an amount indicating the surrounding situation of the vehicle 20, that is, the environment at the time before the predetermined time has elapsed from when the driving behavior was performed by the vehicle 20.
- a general travel history it is the travel history of an unspecified number of vehicles.
- the behavior and the environmental parameter set corresponding to the behavior are combined and stored in the storage unit 26.
- the environmental parameter is a parameter related to the environment of the vehicle 20, for example, information on the host vehicle such as speed, information on the preceding vehicle relative to the host vehicle such as relative speed and inter-vehicle distance, host vehicle such as relative speed and head-to-head distance.
- the side vehicle information and the position information of the host vehicle are shown.
- the travel history may include intersection information in addition to the environmental parameter set and the driver state. That is, the intersection information may be used for constructing the neural network.
- the environmental parameter is, for example, the surrounding situation of the vehicle 20 detected by the detection unit 21.
- the driving behavior prediction unit 22b inputs the driving behavior prediction NN constructed by the learning unit 22a by inputting at least one of the feature amount set and the environmental parameter set obtained at the present time and driver information as test data.
- the driving behavior corresponding to the information is output as the predicted driving behavior.
- the driving behavior prediction unit 22b outputs the driving behavior corresponding to the input information as a prediction result (predicted driving behavior) by inputting the vehicle information and the driver information as test data.
- the prediction result of the driving action is information based on the vehicle information regarding the traveling state of the vehicle 20 and the driver information regarding the state of the driver of the vehicle 20. For example, the driving behavior prediction unit 22b outputs a prediction result of the driving behavior after a predetermined time has elapsed to the control unit 23.
- the driving behavior prediction unit 22b may output the prediction result based on at least the vehicle information.
- the movement information only needs to include at least vehicle information. However, from the viewpoint of outputting a prediction result with higher accuracy, the movement information may include both vehicle information and driver information.
- the control unit 23 is a control device that controls various components of the vehicle 20.
- the control unit 23 outputs the information acquired from the detection unit 21 to the determination unit 22.
- the control unit 23 may further store information acquired from the detection unit 21 in the storage unit 26.
- the control unit 23 transmits the prediction result of the determination unit 22 to the roadside device 30 via the communication unit 24.
- the control part 23 transmits the identification information (vehicle ID) of the own vehicle together with the prediction result.
- the control unit 23 may further store the prediction result of the determination unit 22 in the storage unit 26.
- the control unit 23 displays information (for example, a danger map described later) received from the roadside device 30 on the display screen of the display unit 25 of the vehicle 20.
- the communication unit 24 is a communication interface that communicates with the communication unit 34 of the roadside device 30. Communication between the communication unit 24 and the communication unit 34 is performed wirelessly. Communication between the communication unit 24 and the communication unit 34, that is, communication between the vehicle 20 and the roadside device 30, is performed by, for example, V2X (Vehicle to X) communication including VI (Vehicle to Infrastructure) communication and VP communication (Vehicle to Pedestrian). Done.
- V2X Vehicle to X
- VI Vehicle to Infrastructure
- VP communication Vehicle to Pedestrian
- the display unit 25 is a display device that displays information received from the roadside device 30.
- the display unit 25 may be a UI (User Interface) display, for example, a head-up display (Head Up Display: HUD), an LCD (Liquid Crystal Display), an organic or inorganic EL (Electro Luminescence) display, or an HMD (Head).
- HUD head-up display
- LCD Liquid Crystal Display
- organic or inorganic EL Electro Luminescence
- HMD Head
- -Mounted Display or Helmet-Mounted Display glasses-type display (Smart Glasses), and other dedicated displays.
- the HUD may have a configuration that uses a windshield of the vehicle 20, or may have a configuration that uses a glass surface, a plastic surface (for example, a combiner), or the like that is provided separately from the windshield.
- the windshield may be a windshield of the vehicle 20, or a side glass or a rear glass of the vehicle 20.
- the storage unit 26 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk device, or an SSD (Solid State Drive).
- the storage unit 26 includes various detection results such as detection results from the detection unit 21, knowledge for predicting driving behavior in the determination unit 22 (also referred to as machine learning data), neural networks used for machine learning, and information received from the roadside device 30. The information is memorized.
- the roadside machine 30 is an infrastructure facility outside the vehicle 20 and is a device having a communication function installed on the side of a road or the like.
- the roadside machine 30 may be a dedicated infrastructure facility, or all or at least a part of the functional configuration described below may be installed in another infrastructure facility such as a traffic light or a curve mirror.
- the roadside machine 30 is installed in the vicinity of an intersection 103 where a road 101 and a road 102 intersect, for example.
- the roadside machine 30 includes a detection unit 31, a danger map creation unit 32, a control unit 33, a communication unit 34, and a storage unit 35.
- Components such as the detection unit 31, the danger map creation unit 32, and the control unit 33 may be configured with dedicated hardware, or may be realized by executing a software program suitable for each component.
- Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
- a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
- the detection unit 31 detects the situation near the intersection 103. Then, the detection unit 31 outputs the detected situation near the intersection 103 to the control unit 33.
- the detection unit 31 includes, for example, a sensor 31a, a position information acquisition unit 31b, and a map information acquisition unit 31c.
- the sensor 31a is a sensor that observes the surroundings of the roadside machine 30.
- the sensor 31a is, for example, a camera (image sensor).
- the sensor 31a is an example of an imaging unit.
- the sensor 31a is not limited to being a camera, and may be anything as long as the position of the surrounding vehicle 20 can be acquired, may be a millimeter wave sensor using radio waves in a high frequency band, or a laser range finder using a laser. Alternatively, an ultrasonic sensor using ultrasonic waves or a combination of a plurality of them may be used.
- the sensor 31a may further detect a pedestrian walking near the intersection 103. Specifically, the sensor 31a may detect the position of a pedestrian and the like.
- the senor 31a may be provided separately from the roadside device 30.
- the sensor 31a may be, for example, a camera attached to a traffic light.
- the roadside device 30 may acquire an image captured by the sensor 31a from the sensor 31a installed as a separate body and captured in the vicinity of the intersection 103.
- the location information acquisition unit 31b acquires location information of the roadside device 30 based on a GPS positioning result by a GPS sensor mounted on the roadside device 30.
- the information where the roadside machine 30 is installed is stored in the storage unit 35 in advance, and the position information acquisition unit 31b may acquire the position information from the storage unit 35.
- the map information acquisition unit 31c acquires map information indicating the situation around the roadside device 30.
- the map information acquisition unit 31c acquires, as the map information, map information including, for example, roads around the roadside machine 30, positions of intersections on the roads, and the like.
- the danger map creation unit 32 creates a danger map indicating a dangerous area in the vicinity of the intersection 103 from the prediction result of the driving behavior of the vehicle 20 acquired from each of the plurality of vehicles 20. Specifically, the danger map creation unit 32 determines the possibility of a collision of the plurality of vehicles 20 from the prediction result, and creates a danger map based on the result of determining the possibility of the collision. Further, the danger map creation unit 32 may further create a danger map using the detection result detected by the detection unit 31. A collision is an example of contact.
- the danger map creation unit 32 creates a danger map for each of the plurality of vehicles 20. That is, the danger map creation unit 32 creates a danger map corresponding to the vehicle 20 for each of the plurality of vehicles 20.
- the dangerous area refers to an area where any one of the plurality of vehicles 20 may collide.
- the danger map is a map that is created in order to avoid any of the vehicles 20 from colliding with each other.
- the danger map created by the danger map creation unit 32 will be described later.
- the collision includes a collision between the vehicle and a vehicle and a collision between the vehicle and a person such as a pedestrian.
- the possibility of collision includes collision or a possibility of collision. In the present embodiment, an example in which the danger map creation unit 32 determines whether or not there is a collision between a plurality of vehicles will be described.
- the control unit 33 is a control device that controls various components of the roadside machine 30.
- the control unit 33 outputs the information acquired from the detection unit 31 to the danger map creation unit 32.
- the control unit 33 may further store information acquired from the detection unit 31 in the storage unit 35.
- the control unit 33 transmits the danger map created by the danger map creation unit 32 to the vehicle 20 via the communication unit 34.
- the control unit 33 performs control to transmit a danger map corresponding to the vehicle 20 for each of the plurality of vehicles 20.
- the control unit 33 may transmit a danger map corresponding to the vehicle 20 to all of the plurality of vehicles 20.
- the control unit 33 may further store the danger map created by the danger map creation unit 32 in the storage unit 35.
- the communication unit 34 is a communication interface that communicates with the communication unit 24 of the vehicle 20.
- the communication unit 34 acquires the prediction result of the driving behavior of the vehicle 20 from each of the plurality of vehicles 20.
- the communication unit 34 is an example of an acquisition unit that acquires a prediction result of driving behavior, and is an example of a first transmission unit that transmits a danger map to each of the plurality of vehicles 20.
- the communication unit 34 acquiring the prediction result is included in the traffic information processing system 10 acquiring the prediction result via the roadside device 30.
- the storage unit 35 may be a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk device, or an SSD (Solid State Drive).
- the storage unit 35 stores various information such as the detection result of the detection unit 31 and the danger map created by the danger map creation unit 32.
- the danger map creation unit 32 may not be included in the roadside device 30.
- the danger map creation unit 32 may be provided in, for example, an information center or server that aggregates traffic information.
- the roadside device 30 may relay communication between the danger map creation unit 32 and the plurality of vehicles 20.
- the roadside device 30 transmits, for example, the prediction result of the operation information acquired from the plurality of vehicles 20 to the danger map creation unit 32 via the communication unit 34, receives the danger map created by the danger map creation unit 32, The received danger map may be transmitted to the vehicle 20 corresponding to the danger map.
- the danger map creation unit 32 acquires the prediction result via the roadside device 30.
- a communication unit installed in an information center is an example of an acquisition unit that acquires a prediction result.
- a communication unit installed in an information center or the like may acquire prediction results from a plurality of vehicles 20 without using the roadside device 30.
- FIG. 4 is a flowchart showing an operation of driving behavior prediction according to the present embodiment. In the present embodiment, the operation shown in FIG. Further, the operation shown in FIG. 4 is performed in each of the plurality of vehicles 20.
- control unit 23 inputs the detection result detected by the sensor 21a and the sensor 21b and the own vehicle information acquired by the vehicle information acquisition unit 21d to the determination unit 22 (S11). That is, the control unit 23 outputs the detection result and the own vehicle information acquired from the detection unit 21 to the determination unit 22.
- the determination unit 22 predicts an action next to the host vehicle using the acquired detection result and host vehicle information (S12). Specifically, the driving behavior prediction unit 22b predicts the driving behavior of the own vehicle corresponding to the input information by inputting the detection result and the own vehicle information to the driving behavior prediction NN constructed by the learning unit 22a. Output the result. For example, the driving behavior prediction unit 22b outputs position information of the host vehicle for each time as a prediction result. An example of the driving action prediction result in the determination unit 22 will be described with reference to FIGS. 5A to 5C.
- FIG. 5A is a diagram illustrating an example of a result of driving behavior prediction according to the present embodiment in the first vehicle (vehicle 20a) of FIG.
- FIG. 5B is a diagram showing an example of the result of the driving behavior prediction according to the present embodiment in the second vehicle (vehicle 20b) of FIG.
- FIG. 5C is a diagram showing an example of a result of the driving behavior prediction according to the present embodiment in the third vehicle (vehicle 20c) of FIG.
- the prediction result of the driving action includes time (t), x coordinate, and y coordinate.
- Time 0 means the current time. Times 1, 2, 3,... Mean future times with time 0 as a reference.
- the GPS positioning result acquired by the position information acquisition unit 21c is used.
- the x coordinate and y coordinate at time 0 are not limited to the GPS positioning result (global coordinate system).
- the position after time 1 is determined based on the x coordinate and y coordinate at time 0 as a reference (zero). You may calculate as a difference of. That is, the prediction result may be calculated for each vehicle 20 in the local coordinate system of the vehicle 20.
- FIG. 5A shows a prediction result in which the vehicle 20a travels on the road 102 from the x-axis plus side to the x-axis minus side.
- the determination unit 22 mounted on the vehicle 20a predicts that the host vehicle travels straight in the y-axis minus direction.
- the prediction result shown in FIG. 5A is information that cannot be known by vehicles other than the host vehicle (vehicles 20b and 20c in FIG. 1) and roadside machine 30.
- FIG. 5B shows a prediction result in which the vehicle 20b makes a right turn at the intersection 103.
- the determination unit 22 mounted on the vehicle 20b predicts that the host vehicle will turn right.
- the prediction result shown in FIG. 5B is information that cannot be known by vehicles other than the host vehicle (vehicles 20a and 20c in FIG. 1) and roadside machine 30.
- FIG. 5C shows a prediction result that the vehicle 20c travels on the road 101 from the y-axis plus side toward the y-axis minus side.
- the determination unit 22 mounted on the vehicle 20c predicts that the host vehicle travels straight in the x-axis minus direction.
- the prediction result shown in FIG. 5C is information that cannot be known by vehicles other than the host vehicle (vehicles 20a and 20b in FIG. 1) and roadside machine 30.
- the prediction result may include the vehicle type.
- the vehicle type is information capable of grasping the size of the vehicle and is, for example, an ordinary vehicle (four-wheeled vehicle), a tricycle, a two-wheeled vehicle, a truck, or a bus.
- 5A to 5C show an example in which the vehicle 20a is a truck and the vehicles 20b and 20c are ordinary vehicles. Since the truck is heavier than a normal car, the braking distance may be longer.
- the danger map creation unit 32 may create a danger map in consideration of the type of each vehicle 20.
- the vehicle type of the host vehicle may be stored in the storage unit 26 in advance, for example. The vehicle type may not be included in the prediction result.
- control unit 23 transmits the prediction result of the driving behavior of the host vehicle predicted by the determination unit 22 to the roadside device 30 via the communication unit 24 (S13).
- Each of the plurality of vehicles 20 repeats the operations of steps S11 to S13 at predetermined time intervals.
- FIG. 6 is a flowchart showing the operation of the roadside machine 30 according to the present embodiment.
- the roadside device 30 images a plurality of vehicles 20 existing in the vicinity of the intersection 103 (S21), and identifies all the vehicles in the intersection 103 from the video signals obtained by the imaging (S22). .
- the detection unit 31 specifies the number and position of the vehicles 20 existing in the intersection 103 from the video signal in the vicinity of the intersection 103 imaged by the sensor 31 a, and outputs it to the control unit 33.
- the control unit 33 outputs the position information of the vehicle 20 to the danger map creation unit 32.
- the method by which the roadside machine 30 specifies all the vehicles in the intersection 103 is not limited to this.
- the roadside machine 30 is located in the intersection 103, and even if all the vehicles in the intersection 103 are specified by acquiring the position information of the vehicle 20 from the vehicle 20 that can communicate with the roadside machine 30. Good.
- the inside of the intersection 103 includes a region where the roads 101 and 102 intersect and a peripheral region thereof. All the vehicles in the intersection 103 are all the vehicles which exist in the vicinity of the intersection 103. All the vehicles in the intersection 103 include, for example, a vehicle that is traveling near the intersection 103 and a vehicle that is stopped near the intersection 103. Step S21 is an example of an imaging step.
- the roadside machine 30 receives a prediction result from all the vehicles 20 which exist in the intersection 103 (S23). Specifically, the control unit 33 receives prediction results from each of the plurality of vehicles 20 (vehicles 20a to 20c in the example of FIG. 1) via the communication unit 34. The control unit 33 outputs the received prediction result to the danger map creation unit 32. When the prediction result is received from all the vehicles in the intersection 103, the process proceeds to step S24. For example, if the roadside machine 30 creates a danger map before receiving prediction results from all the vehicles 20, there is a possibility that an area that is originally determined as a dangerous area is determined as a safety area. Therefore, from the viewpoint of creating a more accurate danger map, it is preferable to proceed to step S24 after receiving prediction results from all the vehicles 20.
- step S23 may be performed continuously. For example, when the number of vehicles 20 in the intersection 103 acquired in step S22 matches the number of prediction results received in step S23, the process may proceed to step S24.
- Step S23 is an example of an acquisition step.
- the control unit 33 may proceed to step S24. Thereby, it can suppress that the time interval which a danger map is transmitted becomes more than predetermined time.
- the roadside machine 30 creates a danger map for each of the plurality of vehicles 20 (S24).
- the danger map creation unit 32 creates a danger map for each of the plurality of vehicles 20 using the prediction results acquired from each of the plurality of vehicles 20. For example, after creating a danger map at the intersection 103, the danger map creation unit 32 creates a danger map in which a portion corresponding to the vehicle 20 is cut out for each vehicle 20 from the danger map.
- the danger map at the intersection 103 is also referred to as an overall danger map
- a danger map obtained by cutting out a portion corresponding to the vehicle 20 from the overall danger map for each vehicle 20 is also referred to as an individual danger map.
- Step S24 is an example of a danger map creation step.
- the danger map created by the danger map creation unit 32 will be described with reference to FIGS. 7 to 8B.
- FIG. 7 is a diagram illustrating an example of the danger map M1 created by the roadside device 30 according to the present embodiment.
- FIG. 7 is a diagram illustrating an example of the entire danger map at the intersection 103.
- the danger map creation unit 32 first creates an overall danger map near the intersection 103.
- the danger map creation unit 32 uses the prediction result for map information indicating the situation around the roadside device 30 acquired by the map information acquisition unit 31c (that is, map information indicating the situation near the intersection 103), and The current vehicle positions 20a to 20c and the predicted route are superimposed and displayed.
- the predicted route is indicated by a dashed arrow.
- the predicted route intersects with the vehicle 20b and the vehicle 20c. Specifically, they intersect at time t2. This indicates that there is a risk of collision between the vehicle 20b and the vehicle 20c at time t2. Therefore, the danger map creation unit 32 displays an area including a point where the predicted routes intersect as a danger area R1. For example, the danger map creation unit 32 may display the danger area R1 in a color such as red that allows easy recognition of danger. In addition, the predicted route of the vehicle 20a does not intersect with other vehicles.
- the danger map creating unit 32 sets the danger area R1 near the intersection of the predicted route because the vehicles 20b and 20c are located at the same coordinate at the time t2, but is located at the same coordinate even if the predicted route intersects.
- the time to perform is different by a predetermined time or more, it is not necessary to set it as a dangerous area. For example, this is a case where the vehicle 20b passes through the dangerous region R1 after a predetermined time has elapsed since the vehicle 20c passed through the dangerous region R1.
- the size of the dangerous area R1 displayed on the danger map M1 is not particularly limited, but may be determined based on the size of the vehicle 20.
- the danger map creation unit 32 may specify the size of the vehicle from the type of vehicle included in the prediction result, or may specify the size of the vehicle from an image captured by the sensor 31a of the roadside device 30.
- the danger map creation unit 32 may display the danger area R1 larger as the vehicle 20 is larger.
- the danger map creating unit 32 displays information on the driver's dangerous driving acquired from the received driver information. May be displayed.
- the dangerous driving indicates that the driver is driving in a state where the driver cannot normally drive, and indicates that the driver is driving while taking a nap or looking away, for example.
- the danger map creation unit 32 displays a display indicating that the driver of the vehicle 20c is asleep. It may be displayed superimposed on the danger map M1.
- the danger map creation unit 32 may display the positions of the vehicles 20a to 20c after the elapse of a predetermined time on the danger map M1 in addition to the current positions of the vehicles 20a to 20c. Further, the danger map creation unit 32 may display the positions of the vehicles 20a to 20c after a predetermined time has elapsed on the danger map M1 instead of the positions of the vehicles 20 at the current time.
- the danger map creation unit 32 may display the vicinity of the vehicle 20 as a dangerous area. Since it is assumed that a person gets on and off the stopped vehicle 20, a collision with the person can be suppressed.
- the danger map creation unit 32 creates an overall danger map near the intersection 103. Thereby, it is possible to know a dangerous area (that is, an area where the vehicles 20 may collide) in the vicinity of the intersection 103.
- the danger map preparation part 32 demonstrated the example which produces a danger map by displaying a dangerous area on map information above, it is not limited to this.
- the danger map creation unit 32 may display the danger area on an image captured by the sensor 31a of the roadside device 30.
- the created danger map may be a two-dimensional display or a three-dimensional display.
- FIG. 8A is a diagram illustrating an example of the danger map M2 that the roadside machine 30 according to the present embodiment transmits to the first vehicle (the vehicle 20a illustrated in FIG. 1).
- FIG. 8B is a diagram illustrating an example of a danger map M3 transmitted from the roadside device 30 according to the present embodiment to the second and third vehicles (the vehicles 20b and 20c illustrated in FIG. 1).
- the danger maps M2 and M3 shown in FIGS. 8A and 8B are diagrams illustrating an example of the individual danger map. 8B illustrates an example in which the same danger map is transmitted to the vehicles 20b and 20c, but different danger maps may be transmitted.
- FIG. 8A is a danger map M2 obtained by cutting out a portion corresponding to the vehicle 20a from the danger map M1 shown in FIG.
- the portion corresponding to the vehicle 20a includes the vehicle 20a and information related to the traveling of the vehicle 20a (for example, a vehicle and a dangerous area that may collide with the vehicle 20a).
- the vehicle 20a has no dangerous area on the predicted route shown in FIG. Therefore, as shown in FIG. 8A, for example, only the vehicle 20a that is the host vehicle is displayed in the danger map M2 corresponding to the vehicle 20a. Note that the vehicle 20a may not be displayed in the danger map M2.
- FIG. 8B is a danger map M3 obtained by cutting out parts corresponding to the vehicles 20b and 20c from the danger map M1 shown in FIG.
- the portion corresponding to the vehicles 20b and 20c includes information related to the traveling of the vehicles 20b and 20c (for example, a vehicle that may collide with the vehicle 20b or 20c and a dangerous area).
- the vehicles 20b and 20c may collide with each other on the predicted route shown in FIG. 7, and there is a dangerous region R1. Therefore, as shown in FIG. 8B, the portions corresponding to the vehicle 20b are the vehicle 20b, the vehicle 20c, and the danger region R1. The parts corresponding to the vehicle 20c are the vehicle 20c, the vehicle 20b, and the danger area R1. Therefore, a danger map M3 common to the vehicles 20b and 20c is created as a danger map corresponding to the vehicles 20b and 20c.
- the danger maps M2 and M3 do not have to include information about the vehicle.
- the danger map M3 transmitted to the vehicle 20b may not include the host vehicle (vehicle 20b).
- the own vehicle (vehicle 20c) may not be included in the danger map M3 transmitted to the vehicle 20c. That is, the danger maps transmitted to the vehicles 20b and 20c may be different danger maps.
- the danger map M3 may include information on the vehicle 20 that is related to the driving route of the vehicle 20 corresponding to the danger map M3.
- the danger map M3 transmitted to the vehicle 20c may include a vehicle 20b that has a risk of colliding with the vehicle 20c, that is, is related to the driving route of the vehicle 20c.
- the operation route is an example of a moving route of the moving body.
- the danger map creation unit 32 outputs the created danger map (in the above example, the danger maps M1 to M3) to the control unit 33.
- the roadside device 30 transmits a danger map for each vehicle 20 via the communication unit 34 (S25).
- the control unit 33 transmits the individual danger maps (danger maps M2 and M3) among the danger maps M1 to M3 acquired from the danger map creation unit 32 to the vehicle 20 corresponding to the individual danger map.
- the control unit 33 transmits the danger map M2 to the vehicle 20a, and transmits the danger map M3 to the vehicles 20b and 20c.
- the roadside machine 30 can transmit the optimum danger map for the vehicle 20 for each vehicle 20.
- Step S25 is an example of a transmission step.
- control part 33 may determine the order of the vehicle 20 which transmits a danger map. For example, the control unit 33 may transmit the danger map to the vehicle 20 corresponding to the danger map in descending order of the area of the danger area (for example, the danger area R1) included in the danger map. In this Embodiment, the control part 33 may transmit a danger map previously to the vehicles 20b and 20c among the vehicles 20a and the vehicles 20b and 20c. As a result, a vehicle that may collide can change driving behavior and the like early, so that it is possible to drive more safely. Moreover, the control part 33 does not need to transmit a danger map to the said vehicle, when a danger area does not exist in the danger map corresponding to the vehicle 20. FIG.
- the control unit 33 may not transmit the danger map M2 to the vehicle 20a. For example, the control unit 33 may stop transmission of the danger map M2 corresponding to the vehicle 20a. Thereby, since the processing amount in the roadside machine 30 can be reduced, reduction of the power consumption in the roadside machine 30 is realizable.
- the control unit 33 may store the danger maps M1 to M3 acquired from the danger map creation unit 32 in the storage unit 35.
- the control unit 33 may store only the danger map M1 (that is, the entire danger map) in the storage unit 35.
- FIG. 9 is a flowchart showing an operation of displaying a danger map in the vehicle 20 according to the present embodiment.
- each of the plurality of vehicles 20 receives a danger map corresponding to the vehicle 20 via the communication unit 24 (S31).
- the vehicle 20a receives the danger map M2 via the communication unit 24 of the vehicle 20a.
- the vehicle 20b receives the danger map M3 via the communication unit 24 of the vehicle 20b.
- the vehicle 20c receives the danger map M3 via the communication unit 24 of the vehicle 20c.
- the own vehicle route is a predicted route of the own vehicle included in the prediction result predicted in step S12 of FIG. 4 (for example, FIGS. 5A to 5C).
- FIG. 10A is a diagram illustrating an example of the danger map M4 displayed by the second vehicle (vehicle 20b) according to the present embodiment.
- FIG. 10B is a diagram showing an example of the danger map M5 displayed by the third vehicle (vehicle 20c) according to the present embodiment.
- the control unit 23 of the vehicle 20b creates a danger map M4 in which the predicted route of the host vehicle is superimposed on the received danger map M3.
- the predicted route is indicated by a dashed arrow.
- the danger map M4 it can be seen that the predicted route of the host vehicle passes through the danger area R1. Further, since the vehicle 20c is displayed on the danger map M4, it is possible to notify the driver that there is a possibility of collision with the vehicle 20c.
- the control unit 23 of the vehicle 20c creates a danger map M5 in which the predicted route of the host vehicle is superimposed on the received danger map M3.
- the predicted route is indicated by a dashed arrow.
- the danger map M5 it can be seen that the predicted route of the host vehicle passes through the danger area R1.
- the vehicle 20b is displayed on the danger map M5, it is possible to notify the driver that there is a possibility of collision with the vehicle 20b.
- each of the plurality of vehicles 20 displays a danger map on the display unit 25 provided in the vehicle 20 (S33).
- the control unit 23 displays a danger map in which the host vehicle route is superimposed on the danger map received from the roadside device 30 on the display unit 25.
- the driver can know which vehicle is likely to collide with which position by checking the danger map displayed on the display unit 25.
- the control unit 23 displays information indicating that the dangerous driving is performed (for example, “sleeping” or the like, also described as dangerous information). You may superimpose on a map and display on the display part 25. FIG. This further allows the driver to recognize the danger.
- the control unit 23 may receive an individual danger map including danger information from the roadside device 30 via the communication unit 24.
- the control unit 23 may not display the danger map (for example, the danger maps M4 and M5) on the display unit 25.
- the vehicle control part (not shown) which controls driving
- the vehicle control unit makes the speed when passing through the dangerous area indicated in the danger map slower than the speed when passing through the area other than the dangerous area or the speed (predicted speed) indicated in the prediction result. You may perform control and you may perform control which avoids a dangerous area.
- the roadside device 30 has been described with respect to an example in which the prediction result of the driving route is acquired from each of the plurality of vehicles 20, but the present invention is not limited to this.
- the roadside machine 30 may acquire vehicle information and driver information of the vehicle 20 from each of the plurality of vehicles 20 via the communication unit 34.
- the roadside machine 30 has the determination part (not shown) which estimates the driving action of the said vehicle 20 based on the vehicle information and driver information which were acquired from each of the some vehicle 20, By the said determination part
- the prediction result of the driving route of the plurality of vehicles 20 may be calculated.
- the determination unit outputs the prediction result to the control unit 33.
- the control unit 33 outputs the acquired prediction result to the danger map creation unit 32.
- control unit 33 is an example of an acquisition unit that acquires a prediction result. Calculation of the prediction result by the determination unit included in the roadside device 30 itself and acquiring the prediction result are included in acquiring the prediction result via the roadside device 30. In addition, when the roadside machine 30 has said determination part, intersection information may be acquired from the image which the sensor 31a which the roadside machine 30 has captured.
- the roadside machine 30 demonstrated the example which acquires a prediction result etc. from each of the some vehicle 20 which exists in the intersection 103, and transmits a danger map for each of the some vehicle 20 in the above
- a prediction result or the like may be acquired from all of the plurality of vehicles 20, and the danger map may not be transmitted to all of the plurality of vehicles 20.
- the roadside machine 30 acquires a prediction result from two or more vehicles 20 among the plurality of vehicles 20 existing in the intersection 103, and can determine whether or not two or more vehicles 20 collide using the acquired prediction result.
- the danger map may be transmitted for each of the two or more vehicles 20 based on the determination result of determining the sex.
- the traffic information processing system 10 is a traffic information processing system that uses a roadside unit 30 that communicates with a plurality of vehicles 20, and each of two or more vehicles 20 out of a plurality of vehicles 20 existing within a predetermined range. Communication that acquires a prediction result of driving behavior of the vehicle 20 based on the vehicle information related to the traveling state of the vehicle 20 and the driver information related to the state of the driver of the vehicle 20 from the vehicle 20 via the roadside device 30.
- a danger map creating unit 32 that creates a danger map indicating a dangerous area in traveling of the vehicle 20 within a predetermined range, and each of the two or more vehicles 20 includes the vehicle 20 Risk map corresponding may be configured to include a control unit 33 which performs control to transmit the.
- the traffic information processing system 10 (an example of an information processing system) according to the present embodiment has a plurality of vehicles 20 (an example of a moving body) that exist within a predetermined range (for example, near the intersection 103).
- a communication unit 34 acquisition) that obtains a prediction result of driving behavior (an example of movement) of the vehicle 20 based on vehicle information (an example of movement information) regarding the traveling state of the vehicle 20 in each of the two or more vehicles 20
- the intersection 103 for each of the two or more vehicles 20 based on the first determination result that determines the possibility of a collision (an example of contact) of the two or more vehicles 20 using the prediction result.
- a danger map creating unit 32 that creates a danger map indicating a dangerous area in the traveling (an example of movement) of the vehicle 20 in the vicinity, and each of the two or more vehicles 20 corresponds to the vehicle 20
- a control unit 33 which performs control to transmit the insurance map.
- each of the two or more vehicles 20 can acquire the danger map containing the prediction result of the driving action (an example of movement) of the other vehicle which cannot be known in the own vehicle. . That is, it is possible to acquire more information on other vehicles than in the case of acquiring an image captured by a roadside device as in the conventional example.
- the driver can take measures such as changing the driving behavior of the host vehicle based on the driving behavior of the other vehicle. Therefore, according to the traffic information processing system 10 according to the present embodiment, it is possible to improve safety in traveling (an example of movement) of the vehicle 20 (an example of a moving body).
- the danger map created for each of the two or more vehicles 20 includes information on the vehicle 20 that is related to the driving route (an example of a movement route) of the vehicle 20 corresponding to the danger map.
- the driver of the vehicle 20 that has received the danger map can recognize which vehicle 20 the vehicle 20 is in danger of colliding with by viewing the danger map. It is possible to further reduce the collision of the host vehicle by driving while paying attention to the vehicle 20 where the driver may collide. Therefore, the safety of the vehicle 20 is further improved.
- control unit 33 stops transmission of the danger map corresponding to the vehicle 20 for the vehicle 20 determined not to collide in the first determination result.
- the amount of information of the danger map transmitted from the roadside device 30 to the two or more vehicles 20 can be reduced. Even when there are many, communication between the two or more vehicles 20 and the roadside unit 30 can be performed stably. It should be noted that the same effect can be obtained when a danger map is transmitted from a server or the like to two or more vehicles 20.
- the communication unit 34 may acquire the predicted result of the driving route of the vehicle 20 from each of the two or more vehicles 20.
- the traffic information processing system 10 further includes a roadside device 30 that communicates with a plurality of vehicles 20.
- the roadside machine 30 determines that the driving behavior of the vehicle 20 is predicted based on movement information acquired from the control unit 33 (an example of an acquisition unit), the danger map creation unit 32, and each of the two or more vehicles 20. Part.
- the control unit 33 may acquire a driving action prediction result from the determination unit.
- the roadside machine 30 can perform the prediction of the driving action and the determination of the possibility of the collision in a lump.
- the plurality of moving bodies include a plurality of vehicles 20, and the movement information includes vehicle information related to a traveling state of the vehicles 20 in each of two or more vehicles 20 among the plurality of vehicles 20, and And driver information related to the driver's condition.
- each of the two or more vehicles 20 can acquire a danger map including a prediction result of driving behavior (an example of movement) of another vehicle that cannot be known by the own vehicle. Further, since the movement information includes the vehicle information and the driver information, the predicted result to be predicted becomes more accurate. By using the received danger map, the driver can take measures such as changing the driving behavior of the host vehicle based on the driving behavior of the other vehicle. Therefore, according to the traffic information processing system 10 according to the present embodiment, the safety in traveling of the vehicle 20 can be further improved.
- the vehicle information includes the type of the vehicle 20.
- the danger map creation unit 32 can create a more appropriate danger map by determining the danger area according to the size of the vehicle 20.
- the vehicle information includes at least one of speed information of the vehicle 20 and steering angle information of the vehicle 20 in each of the two or more vehicles 20.
- the information as described above may include various information in the traveling of the vehicle 20. It is possible to predict a travel route that precisely corresponds to the current travel information of the vehicle 20.
- the driver information includes at least one of the degree of concentration of the driver who drives the vehicle 20 and the degree of dozing in each of the two or more vehicles.
- the information as described above may include various information on the driver who drives the vehicle 20. It is possible to predict a travel route that closely corresponds to information on the current driver of the vehicle 20.
- the prediction result acquired by the communication unit 34 is a result predicted from the vehicle information and driver information of the vehicle 20 using machine learning in each of the two or more vehicles 20.
- the driving behavior (behavior) predicted using machine learning is a driving behavior based on the driver's experience and can be a driving behavior close to the driving behavior predicted by the driver. That is, the driving behavior predicted using machine learning can be a driving behavior close to the driver's sense.
- the machine learning may be a neural network.
- the traffic information processing method (an example of the information processing method) according to the present embodiment is a plurality of vehicles 20 (an example of a moving body) existing within a predetermined range (for example, near the intersection 103).
- the program according to the present embodiment may
- the above method may be realized by a circuit such as an MPU (Micro Processing Unit), a CPU, a processor, an LSI, an IC card, a single module, or the like.
- MPU Micro Processing Unit
- CPU Central Processing Unit
- processor a processor
- LSI Integrated Circuit Card
- IC card a single module, or the like.
- the program and the digital signal composed of the program are recorded on a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray (registered). (Trademark) Disc), recorded in a semiconductor memory or the like.
- a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray (registered). (Trademark) Disc), recorded in a semiconductor memory or the like.
- the program and the digital signal composed of the program may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like. Further, the program and the digital signal composed of the program may be implemented by another independent computer system by being recorded on a recording medium and transferred, or transferred via a network or the like. .
- Embodiment 2 the traffic information processing system 100 according to the present embodiment will be described with reference to FIGS. 11 to 14B. Note that this embodiment will mainly describe differences from Embodiment 1.
- the present embodiment is characterized in that the danger map creation unit 32 creates a danger map that identifies and displays the danger level of the danger area.
- FIG. 11 is a diagram showing a schematic configuration including the traffic information processing system 100 according to the present embodiment.
- the functional configurations of the vehicles 20 and the roadside machine 30 are the same as those in the first embodiment, and a description thereof will be omitted.
- the traffic information processing system 100 is an example of an information processing system.
- the vehicles 20a to 20e are the same as the vehicles 20a to 20c of the first embodiment.
- the vehicle 20d (an example of a fourth vehicle) is a vehicle that travels in front of the vehicle 20a on the road 102 from the x-axis plus side to the x-axis minus side.
- the determination unit 22 of the vehicle 20d indicates that a route prediction for traveling on the road 102 from the x-axis plus side to the x-axis minus side is performed.
- the vehicle 20e (an example of a fifth vehicle) is a vehicle that travels in the lane after the vehicle 20b makes a right turn from the x-axis minus side to the x-axis plus side.
- the determination unit 22 of the vehicle 20e indicates that a route prediction for traveling on the road 102 from the x-axis minus side to the x-axis plus side is performed.
- each of the plurality of vehicles 20 transmits information indicating the degree of danger of the traveling state of the host vehicle to the roadside device 30 in addition to the prediction result shown in the first embodiment.
- the prediction result is information including the future travel route of the host vehicle
- the information indicating the degree of danger is information indicating the current travel state of the host vehicle.
- the information indicating the degree of danger is, for example, information indicating whether or not the traveling state of the host vehicle is safe.
- the traveling state is an example of the moving state of the moving body.
- the determination unit 22 determines whether the traveling state of the host vehicle belongs to a safety range, a caution range, or a danger range in addition to the operation of step S12 shown in FIG.
- the determination unit 22 uses a traveling state radar chart stored in the storage unit 26 for this determination.
- the same traveling state radar chart is used for all traveling states of the plurality of vehicles 20, but the present invention is not limited to this. First, a traveling state radar chart will be described with reference to FIG. 12A.
- FIG. 12A is a diagram showing an example of a traveling state radar chart Aa according to the present embodiment in the fourth vehicle (vehicle 20d).
- the traveling state radar chart Aa has a plurality of item axes extending radially from the center C.
- the value of each item is the minimum value at the center C, and increases in the radial direction along the item axis.
- the plurality of items include items related to the vehicle 20d and items related to the vehicle around the vehicle 20d.
- the item related to the vehicle 20d is also an item related to the feature amount, and the item related to the vehicle around the vehicle 20d is also related to the environmental parameter.
- the plurality of items include the own vehicle acceleration, the own vehicle speed, the own vehicle steering angle change amount and the brake timing related to the vehicle 20d, the forward vehicle relative speed, the front vehicle-to-vehicle distance, It is composed of the distance between the side vehicles and the distance between the rear vehicles.
- the number of items is not limited to 8, and may be 7 or less, or 9 or more.
- the own vehicle acceleration indicates the acceleration acting on the vehicle 20d.
- the own vehicle speed indicates the traveling speed of the vehicle 20d.
- the own vehicle steering angle change amount indicates an angle change amount with respect to a straight traveling state of the steering wheel of the vehicle 20d.
- the brake timing indicates the strength (degree) of the brake of the vehicle 20d.
- the forward vehicle relative speed indicates a relative speed of a vehicle ahead of the vehicle 20d with respect to the vehicle 20d, and may indicate an absolute value of the relative speed.
- the front vehicle-to-vehicle distance indicates a spatial distance between the vehicle 20d and the vehicle ahead of the vehicle 20d.
- the distance between the side vehicles indicates a spatial distance between the vehicle 20d and a vehicle on the side of the vehicle 20d.
- the rear vehicle-to-vehicle distance indicates a spatial distance between the vehicle 20d and a vehicle behind the vehicle 20d.
- the value of each item related to the vehicle 20d increases as the distance from the center C increases, and the safety thereof decreases. For this reason, as the value increases, the front vehicle-to-vehicle distance, the side vehicle-to-vehicle distance, and the rear vehicle-to-vehicle distance, which increase the safety, are displayed as reciprocals in the traveling state radar chart Aa.
- a safe area A1, a caution area A2, and a dangerous area A3 are set in the traveling state radar chart Aa.
- the safety zone A1 includes the center C and is set around the center C.
- the attention area A2 is set around the safety area A1, and is adjacent to the safety area A1 on the outer side in the radial direction.
- the danger area A3 is an area outside the caution area A2 in the radial direction. It is possible to determine the traveling state of the vehicle 20d by plotting the values of the respective items related to the vehicle 20d on the traveling state radar chart. For example, when all the plotted points are located within the safety zone A1, the traveling state of the vehicle 20d can be regarded as a safe state.
- the traveling state of the vehicle 20d can be regarded as a state requiring attention.
- the traveling state of the vehicle 20d can be regarded as a state including a danger.
- the area to which the point closest to the danger area A3 belongs can indicate the traveling state of the vehicle 20d.
- the position of the boundary between the safety area A1, the caution area A2, and the danger area A3 in the traveling state radar chart Aa may be set based on the driving history and the traveling history of a specific driver of the vehicle 20d, and a plurality of drivers May be set based on the driving history and traveling history.
- driving histories and traveling histories of a plurality of drivers are used.
- the boundary positions based on the driving histories and traveling histories of a plurality of drivers may be determined by machine learning or may be determined by a statistical method.
- the value of each item at the boundary A12 between the safety area A1 and the caution area A2 is a statistical value such as an average value, a median value, or a mode value of the values of each item in the driving history and driving history of a plurality of drivers. It may be a value near the center.
- the boundary A12 is included in the safety area A1 in the present embodiment, but may be included in the caution area A2.
- the value of each item at the boundary A23 between the caution area A2 and the danger area A3 may be a value such as “average value + dispersion value ⁇ 2” of the values of each item in the driving history and traveling history of a plurality of drivers. Good.
- the average value may be a value near the center of statistics such as a median value or a mode value.
- the boundary A23 is included in the caution area A2 in the present embodiment, but may be included in the danger area A3.
- the attention area A2 determined by the boundary A23 includes a part of the values of the driving history and driving history items of a plurality of drivers, and is relatively unconventional that is not acceptable to half of the plurality of drivers. It is an area that can include an alert that is.
- the danger area A3 is an area that includes the upper part of the values of the driving history and traveling history items of a plurality of drivers and may include a risk that is unusual for many of the plurality of drivers.
- the travel state radar chart Aa is not limited to the safety area A1, the caution area A2, and the danger area A3 being set.
- the determination unit 22 of the vehicle 20d acquires information such as the detection result of the detection unit 21, and calculates values corresponding to the items of the traveling state radar chart Aa based on the acquired information.
- the value corresponding to each item of the traveling state radar chart Aa may not be an actual measurement value, but may be a converted value so that the numerical values of the items can be easily compared.
- the value corresponding to each item of the traveling state radar chart Aa indicates the current state of the vehicle 20d.
- the determination unit 22 plots the calculated value of each item on the traveling state radar chart Aa. When the plotted points are connected by line segments, a travel state line B indicating the travel state of the vehicle 20d is formed.
- the determination unit 22 plots values corresponding to the respective items on the traveling state radar chart Aa in real time while the vehicle 20d is traveling, and forms a traveling state radar chart Aa including the traveling state of the vehicle 20d.
- Each of the plurality of vehicles 20 determines the traveling state of the own vehicle using the traveling state radar chart as described above. In the following, the traveling state of the vehicles 20d and 20e shown in FIG. 11 will be described.
- the determination unit 22 determines that the traveling state of the host vehicle (the vehicle 20d) is a dangerous state. To do. In other words, the determination unit 22 classifies the parameter values indicating the traveling state of the host vehicle into a plurality of areas A1, A2, and A3 based on traveling safety, and at least one parameter value is included in the dangerous area A3. In this case, it is determined that the traveling state of the host vehicle (vehicle 20d) is a dangerous state. For example, the determination unit 22 outputs the determination result of the traveling state based on the traveling state radar chart Aa to the control unit 23 in addition to the prediction result. And the control part 23 transmits a determination result to the roadside machine 30 in addition to a prediction result via the communication part 24 in step S13 shown in FIG.
- the traveling safety is an example of the traveling safety of the moving body.
- FIG. 12B is a diagram showing an example of a traveling state radar chart Ab according to the present embodiment in the fifth vehicle (vehicle 20e).
- the determination unit 22 determines that the traveling state of the host vehicle (the vehicle 20e) is the attention state. To do.
- the determination unit 22 outputs, for example, the determination result of the traveling state based on the traveling state radar chart Ab to the control unit 23 in addition to the prediction result.
- the control part 23 transmits a determination result to the roadside machine 30 in addition to a prediction result via the communication part 24 in step S13 shown in FIG. Since the vehicle 20 transmits only the determination result to the roadside device 30, it is possible to transmit the traveling state information while suppressing an increase in the amount of data transmitted from the vehicle 20 to the roadside device 30.
- prediction result and the determination result may be calculated in separate flows and transmitted to the roadside device 30 at different timings.
- the roadside machine 30 receives the prediction result and the determination result from each of the plurality of vehicles 20 via the communication unit 34 (corresponding to step S23 shown in FIG. 6), and creates a danger map for each of the plurality of vehicles 20 (FIG. Equivalent to step S24 shown in FIG. Specifically, the danger map creation unit 32 creates a danger map for each vehicle 20 using the detection results detected by the sensor 31a and the prediction results and determination results obtained from each of the plurality of vehicles 20.
- the danger map created by the danger map creation unit 32 will be described with reference to FIGS. 13 to 14B.
- FIG. 13 is a diagram illustrating an example of the danger map M11 at the intersection 103 created by the roadside device 30 according to the present embodiment.
- FIG. 13 is a diagram illustrating an example of the entire danger map. Note that the prediction results received from each of the vehicles 20a to 20c are the same as those in the first embodiment, and the determination result received from each of the vehicles 20a to 20c is the safety range A1.
- the danger map creation unit 32 first creates an overall danger map near the intersection 103.
- the danger map creation unit 32 uses the prediction result for map information indicating the situation around the roadside device 30 acquired by the map information acquisition unit 31c (that is, map information indicating the situation near the intersection 103), and The current vehicle positions 20a to 20e and the predicted route are superimposed and displayed.
- the predicted route is indicated by a dashed arrow. Since the predicted routes of the vehicle 20b and the vehicle 20c intersect each other, the danger region R1 is displayed as in the first embodiment.
- FIG. 13 further shows a dangerous area R2 and a caution area R3.
- the dangerous area R2 is displayed because the traveling state of the vehicle 20d is a dangerous area.
- the attention area R3 is displayed because the traveling state of the vehicle 20e is the attention area.
- the traveling state of the vehicle 20d is a danger zone A3. That is, the vehicle 20d is more likely to cause an accident than when the traveling state is a warning range. Even if the predicted route of the vehicle 20d does not intersect the predicted route of the other vehicle 20, the danger map creation unit 32 displays, for example, a region before and after the traveling direction of the vehicle 20d as the dangerous region R2.
- the dangerous area R2 is an area that may collide with the vehicle 20d.
- FIG. 13 shows that the higher the dot hatch density in the region, the higher the danger level.
- the danger area R2 indicates that the danger level is similar to that of the danger area R1. Note that the fact that the traveling state of the vehicle 20d is in a dangerous area is information that vehicles other than the vehicle 20d cannot know. Further, the determination of whether the area is the danger area A3 or the attention area A2 is an example of a third determination result.
- the traveling state of the vehicle 20e is a warning area.
- the vehicle 20e is more likely to cause an accident than when the traveling state is in the safe range.
- the danger map creating unit 32 displays, for example, a region before and after the traveling direction of the vehicle 20e as the attention region R3.
- the attention area R3 is an area that may collide with the vehicle 20e, but is not as dangerous as the danger area R2.
- the attention area R3 is displayed so that the danger level looks lower than the danger areas R1 and R2.
- the dangerous areas R1 and R2 may be displayed in red, and the caution area R3 may be displayed in yellow.
- the density of dot hatches in the attention area R3 is displayed smaller than the danger areas R1 and R2.
- the danger map creation unit 32 determines that the traveling state of the vehicles 20b and 20c is the safe range when the traveling state of at least one of the vehicles 20b and 20c is the dangerous region A3 and the predicted routes of the vehicles 20b and 20c intersect.
- the danger region R1 may be displayed so that the degree of danger looks higher than that when the predicted route of the vehicles 20b and 20c intersects with A1.
- the danger map preparation part 32 may display the area
- the danger map creation unit 32 creates an overall danger map in which the danger level can be recognized from the predicted route and the degree of danger for each of the plurality of vehicles 20.
- the traveling state radar chart Aa may have a plurality of regions. In the traveling state radar chart, only Aa, for example, the safety area A1 and the danger area A3 may be set.
- the determination unit 22 determines whether or not the parameter value indicating the traveling state of the host vehicle is within the safety region A1 where the traveling safety is high among the plurality of regions A1 and A3.
- the result of the determination performed by the determination unit 22 is an example of a second determination result.
- the danger map creation unit 32 may indicate the driving route of the vehicle 20 on the danger map as a dangerous area when the second determination result is not within the safe area A1.
- FIG. 14A is a diagram illustrating an example of the danger map M12 that the roadside machine 30 according to the present embodiment transmits to the first vehicle (the vehicle 20a illustrated in FIG. 11).
- FIG. 14A is a danger map obtained by cutting out a portion corresponding to the vehicle 20a from the overall danger map shown in FIG.
- FIG. 14B is a diagram illustrating an example of the danger map M13 transmitted from the roadside device 30 according to the present embodiment to the second vehicle (the vehicle 20b illustrated in FIG. 11).
- FIG. 14B is a danger map in which a portion corresponding to the vehicle 20b is cut out from the overall danger map shown in FIG.
- the danger maps M12 and M13 illustrated in FIGS. 14A and 14B are diagrams illustrating examples of individual danger maps.
- the dangerous area R2 is displayed on the danger map M12. Therefore, as shown in FIG. 14A, the portions corresponding to the vehicle 20a are the vehicle 20a, the vehicle 20d, and the danger region R2. Note that the vehicle 20a may not be displayed on the danger map M12.
- the danger map M12 is transmitted to the vehicle 20a (corresponding to S25 shown in FIG. 6) and the driver of the vehicle 20a confirms the danger map M12, it can be seen that the danger area R2 exists in front of the host vehicle.
- the driver of the vehicle 20a can suppress collision with the vehicle 20d by performing a driving operation such as paying more attention to the driving behavior of the vehicle 20d and increasing the inter-vehicle distance from the vehicle 20d.
- the portions corresponding to the vehicle 20b are the vehicle 20b, the vehicle 20c, the danger region R1, the vehicle 20e, and the caution region R3.
- the danger map M13 transmitted to the vehicle 20b may not include the host vehicle (vehicle 20b).
- the danger map M13 is transmitted to the vehicle 20b (corresponding to S25 shown in FIG. 6), and the driver of the vehicle 20b confirms the danger map M13, so that the danger area R1 and the caution area R3 exist on the predicted route of the host vehicle.
- the driver of the vehicle 20b can suppress the collision with the vehicles 20c and 20e by performing a driving operation such as not forcibly turning the intersection 103 to the right and suppressing the increase in speed after the intersection 103 is turned to the right. it can.
- the driver of the vehicle 20b may change the travel route of the vehicle 20b.
- the driver of the vehicle 20b may change the course to a straight line that is a safe travel route that does not collide with other vehicles, for example.
- the roadside machine 30 has been described with respect to an example in which the determination result of the traveling state is acquired from each of the plurality of vehicles 20, but the present invention is not limited thereto.
- the roadside machine 30 may acquire the parameter values of the items shown in the traveling state radar chart corresponding to the vehicle 20 from each of the plurality of vehicles 20 via the communication unit 34.
- the roadside machine 30 has a determination part (not shown) which determines the running state of the said vehicle 20 based on the parameter value acquired from each of the several vehicle 20, and the several vehicle 20 by the said determination part.
- the determination result of the running state may be calculated.
- the determination unit outputs a determination result to the control unit 33.
- the control unit 33 outputs the acquired determination result to the danger map creation unit 32.
- the control unit 33 is an example of an acquisition unit that acquires a determination result. Calculation of the determination result by the determination unit included in the roadside machine 30 itself and acquiring the determination result are included in acquiring the determination result via the roadside machine 30.
- the roadside machine 30 demonstrated the example which acquires a prediction result, a 2nd determination result, a 3rd determination result, etc. from each of the some vehicle 20 which exists in the intersection 103 by the above, a some vehicle What is necessary is just to acquire a prediction result, a determination result, etc. from two or more vehicles 20 among 20. That is, the roadside machine 30 does not have to acquire the prediction result, the second determination result, and the third determination result from all of the plurality of vehicles 20. Moreover, the roadside machine 30 transmits a danger map to each of the two or more vehicles 20 which acquired the prediction result and the determination result, for example.
- the communication unit 34 (an example of an acquisition unit) is connected to each of two or more vehicles 20 (an example of a moving body). 2, the second determination result for determining whether or not the value of the parameter indicating the traveling state (an example of the moving state) of the vehicle 20 is within a safe range where the traveling safety (an example of the traveling safety) is high. Get more.
- the danger map preparation part 32 produces the danger map which shows the driving
- the danger map creation unit 32 can display a dangerous area on the danger map that cannot be determined only by the possibility of a collision (an example of contact). Therefore, the traffic information processing system 100 according to the present embodiment can further improve safety in traveling of the vehicle 20.
- the communication unit 34 determines whether or not the value of the parameter indicating the traveling state of the vehicle 20 has reached the danger area A3 where the traveling safety is lower than the safety area A1 in each of the two or more vehicles 20.
- a third determination result is further acquired. Then, when the third determination result is a determination that the danger determination area A3 has been reached, the danger map creation unit 32 does not reach the danger detection area A3, and the second determination result is Compared with the case where the determination is not within the safety range A1, the danger level of the dangerous area of the driving route of the vehicle 20 is displayed higher.
- the danger map creation unit 32 can effectively display the degree of danger to the user by, for example, displaying the area corresponding to the danger area A3 in red and the area corresponding to the caution area A2 in yellow. Therefore, the traffic information processing system 100 according to the present embodiment can further improve safety in traveling of the vehicle 20.
- the traffic information processing system 200 according to the present embodiment uses a preset traveling state radar chart as it is.
- the traffic information processing system 200 according to the present embodiment corresponds to the external environment of the vehicle 20.
- a running state radar chart with changes in each area is used.
- the roadside machine 30 uses a traveling state radar chart in which each region is changed from each of the plurality of vehicles 20 according to the external environment of the vehicle 20.
- the determination result in which the traveling state of the vehicle 20 is determined is acquired.
- differences from the second embodiment will be mainly described.
- FIG. 15 is a block diagram showing functional configurations of the traffic information processing system 200 and the vehicle 120 according to the present embodiment.
- the traffic information processing system 200 is an example of an information processing system.
- the traffic information processing system 200 includes a roadside device 30 that communicates with a plurality of vehicles 120.
- the difference from the traffic information processing system 10 shown in FIG. 1 is that the vehicle 120 further includes an external environment information acquisition unit 27.
- the external environment information acquisition unit 27 acquires external environment information that is information related to the surrounding environment of the vehicle 20.
- the external environment information includes at least one of traffic jam information, weather information, time information, accident history information, road surface conditions, road width information, and the like on the road on which the vehicle 20 is traveling.
- the traffic jam information includes the number of vehicles traveling near the intersection 103.
- the weather information includes cloudy, rainy, snowy, and the like.
- the time information includes evening and nighttime.
- the road surface condition includes wet, freezing and the like.
- the external environment information acquisition unit 27 acquires traffic jam information by, for example, VICS (registered trademark) (Vehicle Information and Communication System), and acquires weather information and accident history information by communication via a communication network such as the Internet, for example. Further, the external environment information acquisition unit 27 acquires the road surface state of the traveling road based on the output of the strain sensor installed in the vehicle or the analysis result of the image data captured by the sensor 21a. In addition, the external environment information acquisition unit 27 acquires the road width of the traveling road based on the map information acquired by the map information acquisition unit 21e or the analysis result of the image data captured by the sensor 21a. The external environment information acquisition unit 27 outputs the acquired external environment information to the control unit 23. The control unit 23 stores the acquired external environment information in the storage unit 26.
- VICS registered trademark
- weather information and accident history information by communication via a communication network such as the Internet, for example. Further, the external environment information acquisition unit 27 acquires the road surface state of the traveling road based on the output of the strain sensor installed in the vehicle or
- the control unit 23 changes the safety area A1, the caution area A2, and the danger area A3, which are clustered areas of the traveling state radar chart, according to various information such as external environment information.
- the storage unit 26 stores a preset traveling state radar chart. In this traveling state radar chart, a safety area A1, a caution area A2, and a danger area A3 are set in advance. That is, the traveling state radar chart includes a safety area A1, a warning area A2, and a danger area A3 set as defaults. Hereinafter, this traveling state radar chart is referred to as a reference traveling state radar chart.
- the control unit 23 acquires the reference traveling state radar chart from the storage unit 26, changes each region of the reference traveling state radar chart as necessary, and outputs the changed region to the determination unit 22.
- the determination unit 22 determines the traveling state of the vehicle 20 based on the changed traveling state radar chart.
- control unit 23 changes each region of the reference traveling state radar chart according to road information on which the vehicle 20 travels and traveling environment information of the vehicle 20.
- the road information and the travel environment information are included in the external environment of the vehicle 20.
- the external environment only needs to include at least one of road information and travel environment information.
- the travel environment information is an example of the travel environment information of the mobile body.
- the road information on which the vehicle 20 travels includes road width, road lane number, road type, road speed limit, road accident history, and the like.
- the control unit 23 acquires the number of road lanes, the road type, and the road speed limit using the position information acquired by the position information acquisition unit 21c of the detection unit 21 and the map information acquired by the map information acquisition unit 21e. May be.
- the types of roads may include types related to road structures such as general roads, automobile-only roads, and highways, and may include types related to road environments such as living roads, urban roads, suburban roads, and mountain roads.
- the control unit 23 acquires the road accident history via the external environment information acquisition unit 27, but the road accident history may be included in the map information of the map information acquisition unit 21e.
- the external environment information acquisition unit 27 may acquire the road accident history using the position information acquired by the position information acquisition unit 21c and the map information acquired by the map information acquisition unit 21e.
- the traveling environment information of the vehicle 20 includes traffic jam information, weather information, date and time information, and road surface conditions on the road on which the vehicle 20 travels.
- the control unit 23 acquires traffic jam information, weather information, date / time and time zone information, and road surface conditions via the external environment information acquisition unit 27.
- FIG. 16 is a diagram showing an example of a reference running state radar chart.
- FIG. 17 is a diagram illustrating an example of a traveling state radar chart in a case where the road surface of the traveling road of the vehicle 20 is frozen.
- FIG. 18 is a diagram illustrating an example of a traveling state radar chart in a case where the amount of traffic on the traveling road of the vehicle 20 is small.
- the control unit 23 When the traveling road of the vehicle 20 is frozen, the control unit 23 reduces the safety area A1 and the attention area A2 of the reference traveling state radar chart of FIG. 16 as a whole, and creates the traveling state radar chart of FIG. . Specifically, the control unit 23 moves the boundary A12 of the safety zone A1 toward the center C as a whole, and moves the boundary A23 of the caution zone A2 toward the center C as a whole.
- the determination unit 22 can determine the traveling state of the vehicle 20 from a safer viewpoint by using the traveling state radar chart of FIG.
- the control unit 23 expands the safety area A1 of the reference traveling state radar chart of FIG. 16 as a whole, and the traveling state radar chart of FIG. Create Specifically, the control unit 23 moves along the boundary A12 of the safety zone A1 in a direction away from the center C as a whole.
- the traveling state radar chart of FIG. 18 is based on the idea that when the number of vehicles 20 is small, the number of objects to collide decreases (that is, the possibility of collision decreases), so that the vehicle can travel safely.
- the determination unit 22 can suppress excessive determination that the traveling state of the vehicle 20 is in the attention range by using the traveling state radar chart of FIG.
- the control unit 23 determines that the road on which the vehicle 20 travels is bad (rain etc.), the time zone is slow (night etc.), and the road surface condition is bad (eg freezing etc.). At least one of the areas A2 may be moved in a direction approaching the center C. In addition, the control unit 23 focuses on at least one of the safety area A1 and the caution area A2 as the road width is narrow, the road lane number is large, the road speed limit is low, and the road accident history is large. You may move to the direction approaching from C.
- a danger map in the case of considering the external environment as described above will be described with reference to FIGS. 19 and 20.
- a traveling state radar chart of the vehicle 20e and a danger map of the vehicle 20b will be described.
- the road near the intersection 103 is frozen and the time zone is night.
- FIG. 19 is a diagram showing an example of a traveling state radar chart according to the present embodiment in consideration of the external environment in the fifth vehicle (vehicle 20e).
- the control unit 23 changes each region of the traveling state radar chart (reference traveling state radar chart) of the vehicle 20 e by considering the external environment, and outputs the changed region to the determination unit 22. Specifically, the control unit 23 moves the boundary A12 of the safety zone A1 toward the center C as a whole, and moves the boundary A23 of the caution zone A2 toward the center C as a whole.
- the traveling state line B is the same as that shown in FIG. 12B.
- the determination unit 22 can determine the traveling state of the vehicle 20e in consideration of the external environment by using the traveling state radar chart of FIG. In the example of FIG. 19, since the own vehicle acceleration and the like are located in the danger zone A3, the determination unit 22 determines that the traveling state of the own vehicle (the vehicle 20e) is a dangerous state. For example, the determination unit 22 outputs the prediction result and the determination result to the control unit 23. And the control part 23 transmits a prediction result and a determination result to the roadside machine 30 via the communication part 24.
- the determination unit 22 has determined that the traveling state of the host vehicle is a warning area.
- the determination unit 22 can determine that the traveling state of the host vehicle is a dangerous area by using the traveling state radar chart in consideration of the external environment. Since the determination unit 22 can determine the traveling state in consideration of the current external environment, the accuracy of determination of the traveling state by the determination unit 22 is improved.
- FIG. 20 is a diagram illustrating an example of the danger map M14 that the roadside device 30 according to the present embodiment transmits to the second vehicle (vehicle 20b).
- the area that was the attention area R3 in FIG. 14B is displayed as the dangerous area R4.
- the driver of the vehicle 20b finds that there is a vehicle 20e whose traveling state is a dangerous state after turning right at the intersection 103.
- the second determination result and the third determination result acquired by the communication unit 34 (an example of the acquisition unit) included in the traffic information processing system 200 (an example of the information processing system) according to the present embodiment are as follows. According to the external environment of each of the two or more vehicles 20 (an example of a moving body), at least one of the position of the boundary whether or not the safety area A1 and the position of the boundary whether or not the danger area A3 It is the result determined by changing.
- the communication part 34 can acquire the driving
- the external environment includes at least one of road information on which two or more vehicles 20 travel (an example of movement) and traveling environment information (an example of movement environment information) of each of the two or more vehicles 20.
- the information as described above may include various information on the environment around the vehicle 20. It is possible to change the plurality of areas A1 to A3 that correspond more closely to the environment around the vehicle 20.
- the traffic information processing system 300 according to the present embodiment will be described with reference to FIGS.
- the traffic information processing system 10 according to the first embodiment suppresses the collision between the vehicles 20, the traffic information processing system 300 according to the present embodiment further includes a collision (contact of the pedestrian) between the vehicle 20 and the pedestrian. (Example) is also suppressed.
- differences from the first embodiment will be mainly described.
- FIG. 21 is a diagram showing a schematic configuration including the traffic information processing system 300 according to the present embodiment.
- the traffic information processing system 300 is an example of an information processing system.
- the traffic information processing system 300 includes a plurality of vehicles 20a to 20c and a roadside device 30 that communicates with one or more portable terminals 50.
- the number of the vehicles 20 and the portable terminals 50 that communicate with the roadside device 30 is not particularly limited.
- FIG. 21 shows the situation of the roads 101 and 102 near the intersection 103 at a certain moment, vehicles 20a to 20c traveling near the intersection 103, and pedestrians 40a and 40b near the intersection 103.
- the predicted routes of the vehicles 20a to 20c are the same as in the first embodiment, and a description thereof is omitted.
- the pedestrian 40a is a person who has a portable terminal 50 that can communicate with the roadside device 30 (for example, wireless communication).
- the pedestrian 40b is a person who does not have the portable terminal 50.
- the portable terminal 50 that can communicate with the roadside device 30 is an example of a mobile object.
- the pedestrian 40b who does not have the portable terminal 50 is included in an external environment.
- the control unit 33 sets the safety region A1 and the caution region A2 of the reference traveling state radar chart.
- a traveling state radar chart reduced as a whole may be created.
- the pedestrians 40a and 40b may be driving a bicycle.
- the mobile terminal 50 may be able to communicate with an information center or a server.
- the communication unit installed in an information center or the like is an example of an acquisition unit that acquires a prediction result or the like.
- having the portable terminal 50 includes wearing the portable terminal 50 by the pedestrian 40a.
- the fact that the pedestrian 40a is moving with the pet or the robot and the pet or the robot has the portable terminal 50 (for example, is attached) means that the pedestrian 40a has the portable terminal 50. Included in that.
- FIG. 22 is a block diagram showing functional configurations of the traffic information processing system 200, the vehicle 20, and the portable terminal 50 according to the present embodiment.
- the roadside device 30 included in the traffic information processing system 300 further communicates with the mobile terminal 50 in addition to the roadside device 30 included in the traffic information processing system 10 of the first embodiment.
- the portable terminal 50 is a terminal device that can be carried by a pedestrian, and may be, for example, a smartphone, a tablet, or a portable game machine.
- the mobile terminal 50 may be another terminal device that can communicate with the roadside device 30.
- the portable terminal 50 includes a detection unit 51, a control unit 52, a display unit 53, a communication unit 54, and a storage unit 55.
- Components such as the detection unit 51 and the control unit 52 may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component.
- Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
- a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
- the detection unit 51 detects the walking state of the pedestrian 40a. Then, the detection unit 51 outputs the detected walking state to the control unit 52.
- the detection unit 51 includes, for example, a sensor 51a, a position information acquisition unit 51b, and a map information acquisition unit 51c.
- Sensor 51a detects the walking state of the pedestrian. Specifically, the sensor 51a detects whether or not the pedestrian 40a has neglected attention to the surroundings. That is, the sensor 51a detects whether or not it is walking safely. The sensor 51a detects whether or not the pedestrian 40a is walking safely by determining whether or not the pedestrian 40a is operating the mobile terminal 50, for example. Even if the sensor 51a performs the above determination by performing image analysis (for example, specifying the direction of the line of sight of the pedestrian 40a), for example, by performing image analysis of an image captured by an imaging unit (not shown) included in the mobile terminal 50 Good. The sensor 51a may make the above determination based on whether or not a user interface such as a touch panel included in the mobile terminal 50 is operated.
- image analysis for example, specifying the direction of the line of sight of the pedestrian 40a
- the position information acquisition unit 51b acquires the position information of the mobile terminal 50 (that is, the pedestrian 40a) based on the GPS positioning result of the GPS sensor.
- the map information acquisition unit 51c acquires map information indicating the situation around the pedestrian 40a.
- the map information acquisition unit 51c acquires, as the map information, map information including, for example, a sidewalk on which a pedestrian walks, the width of the sidewalk, a road, the position of an intersection on the road, and the like.
- the control unit 52 is a control device that controls various components of the mobile terminal 50.
- the control unit 52 transmits the information acquired from the detection unit 51 to the roadside device 30 via the communication unit 54.
- the control unit 52 may further store information acquired from the detection unit 51 in the storage unit 55. Further, the control unit 52 displays information (for example, a danger map) received from the roadside device 30 on the display screen of the display unit 53.
- the display unit 53 is a display device that displays information received from the roadside device 30.
- the display unit 53 may be a UI (User Interface) display, for example, a head-up display (Head Up Display: HUD), an LCD (Liquid Crystal Display), an organic or inorganic EL (Electro Luminescence) display.
- UI User Interface
- HUD head-up display
- LCD Liquid Crystal Display
- organic or inorganic EL Electro Luminescence
- the communication unit 54 is a communication interface that communicates with the communication unit 34 of the roadside device 30. Communication between the communication unit 54 and the communication unit 34 is performed wirelessly.
- the storage unit 55 may be a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk device, an SSD (Solid State Drive).
- the storage unit 55 stores various information such as the detection result of the detection unit 51 and information received from the roadside device 30.
- the operation of the traffic information processing system 300 according to the present embodiment will be described with reference to FIG. Specifically, the danger map created by the roadside machine 30 will be described.
- Information indicating that the pedestrian 40a is operating the portable terminal 50 that is, information indicating that the pedestrian 40a has neglected attention to the surroundings is transmitted from the portable terminal 50 to the roadside device 30.
- the information indicating that the pedestrian 40a has neglected attention to the surroundings is included in the pedestrian information transmitted from the portable terminal 50 to the roadside device 30.
- the pedestrian information may include the pedestrian travel direction and speed.
- the control unit 52 may predict the traveling direction of the pedestrian from the position of the pedestrian 40a in the map information and the direction in which the pedestrian 40a is facing.
- the control unit 52 may further transmit a prediction result of the walking route (an example of a moving route) of the pedestrian 40a to the roadside device 30.
- FIG. 23 is a danger map M15 transmitted from the danger map creating unit 32 of the roadside machine 30 to the vehicle 20c.
- the danger map M15 is an individual danger map.
- the danger map creating unit 32 When the danger map creating unit 32 receives information indicating that the pedestrian 40a is operating the portable terminal 50 from the portable terminal 50, the danger map creating unit 32 displays the surroundings of the pedestrian 40a as a dangerous area. As shown in FIG. 23, the area of the road 101 around the pedestrian 40a is displayed as a dangerous area R5. For example, when the pedestrian 40a is in front of a pedestrian crossing, the area of the pedestrian crossing may be displayed as a dangerous area.
- the pedestrian crossing is an example of the walking route of the pedestrian 40a.
- the walking route is included in the pedestrian information transmitted from the portable terminal 50 to the roadside device 30.
- the pedestrian 40a and the dangerous area R5 are displayed on the dangerous map M15 transmitted to the vehicle 20c.
- the pedestrian 40b may or may not be displayed on the danger map.
- the danger map creation unit 32 may specify the position of the pedestrian 40b from the captured image of the sensor 31a of the roadside machine 30, and display the pedestrian 40b at a position corresponding to the specified position on the danger map. .
- the danger map creation unit 32 may create an individual danger map (not shown) corresponding to the pedestrian 40a.
- the individual danger map corresponding to the pedestrian 40a displays the vehicle 20c, the predicted route of the vehicle 20c, and the danger area R5.
- the control unit 33 transmits the individual danger map to the portable terminal 50 via the communication unit 34.
- the danger map creation unit 32 can create the danger map M15 including the pedestrian 40a, the danger map M15 that can be driven more safely can be created. That is, the danger map creation unit 32 can create a danger map M15 that can further suppress the collision of the vehicle 20.
- the roadside machine 30 demonstrated the example which acquires a prediction result etc. from each of the some vehicle 20 which exists in the intersection 103 above, the prediction result from two or more vehicles 20 among the some vehicles 20 is demonstrated. Get it. That is, the roadside machine 30 does not have to acquire a prediction result from all of the plurality of vehicles 20. Moreover, the roadside machine 30 should just acquire information from one or more pedestrians of the plurality of pedestrians when there are a plurality of pedestrians having the portable terminal 50 in the intersection 103.
- the traffic information processing system 300 may be an information processing system that improves safety in walking (an example of movement) of a plurality of pedestrians (for example, the pedestrians 40a and 40b and an example of a moving body).
- the information processing system includes a plurality of portable terminals 50 capable of wireless communication.
- the portable terminal 50 is a walking path (an example of a movement path
- FIG. Predict.
- the mobile terminal 50 predicts the walking route of the pedestrian based on the pedestrian information.
- the mobile terminal 50 includes a determination unit (not shown) having a learning unit that constructs machine learning data for walking prediction corresponding to a pedestrian, and includes the walking behavior prediction NN constructed by the learning unit. By inputting pedestrian information or the like as test data, the walking behavior corresponding to the input information is output as a prediction result (predicted walking behavior).
- the prediction result of walking behavior includes, for example, pedestrian information related to the pedestrian's traveling direction and speed, and state information related to the pedestrian's state (eg, pedestrians pay attention to the surroundings). Information indicating that the user has neglected.
- the determination unit of the portable terminal 50 outputs, for example, a prediction result of walking behavior after a predetermined time has elapsed to the control unit 52. After a predetermined time has elapsed, for example, after a few seconds.
- the determination part should just output a prediction result based on pedestrian information at least.
- the movement information only needs to include at least pedestrian information, but it is preferable that the movement information includes both pedestrian information and state information from the viewpoint of outputting a prediction result with higher accuracy.
- each of the some portable terminal 50 transmits the prediction result of the said portable terminal 50 to the roadside machine 30, for example.
- the danger map creation unit 32 uses the prediction result to determine the possibility of contact between two or more portable terminals 50 (for example, the possibility of contact of a pedestrian carrying the portable terminal 50) as the first determination result. Based on each of the two or more pedestrians, a danger map indicating a dangerous area in the walking (an example of movement) of the pedestrian within a predetermined range may be created.
- pedestrian contact includes, for example, contact between pedestrians and contact between pedestrians and fixed obstacles such as utility poles or walls.
- the determination unit of the mobile terminal 50 may further determine whether the walking state of the pedestrian belongs to a safe area, a caution area, or a dangerous area.
- the determination unit uses a walking state radar chart stored in the storage unit 55 for this determination.
- the walking state radar chart is a radar chart in which the item axis of the traveling state radar chart Aa shown in FIG. 12A is changed to the item axis corresponding to the walking state.
- the own vehicle speed is described as an example, the own vehicle speed is changed to the walking speed of the pedestrian in the walking state radar chart.
- the walking state is an example of a moving state.
- the determination unit of the mobile terminal 50 determines that the walking state of the pedestrian is in a dangerous state when the value of at least one item is included in the dangerous area in the walking state radar chart. In other words, the determination unit classifies the parameter value indicating the walking state of the pedestrian into a plurality of areas A1, A2, and A3 based on walking safety, and at least one parameter value is included in the danger area A3. The walking state of the pedestrian is determined to be a dangerous state.
- the determination unit outputs, for example, the determination result of the walking state based on the walking state radar chart to the control unit 52 in addition to the prediction result. And the control part 52 transmits a determination result to the roadside machine 30 in addition to a prediction result via the communication part 54.
- FIG. Walking safety is an example of mobility.
- the determination of the walking state may be performed using a walking state radar chart in which each region is changed according to the external environment of the pedestrian.
- the mobile terminal 50 acquires external environment information that is information related to the surrounding environment of the mobile terminal 50.
- the external environment information includes at least one of sidewalk congestion information, weather information, time information, accident history information, road surface conditions, road width information, and the like on which pedestrians walk.
- the congestion information includes the number of pedestrians walking near the intersection 103.
- the weather information includes cloudy, rainy, snowy, and the like.
- the time information includes evening and nighttime.
- the road surface condition includes wet, freezing and the like.
- the external environment information here is an example of the mobile environment information of the mobile object.
- the control unit 52 changes the safety area A1, the attention area A2, and the danger area A3, which are clustered areas of the walking state radar chart, according to various information such as external environment information.
- the storage unit 55 stores a walking state radar chart set in advance.
- a safety area A1, a caution area A2, and a danger area A3 are set in advance. That is, the walking state radar chart includes a safety area A1, a caution area A2, and a danger area A3 set as defaults.
- this walking state radar chart is referred to as a reference walking state radar chart.
- the control unit 52 acquires the reference walking state radar chart from the storage unit 55, changes each region of the reference walking state radar chart according to the case, and outputs the changed region to the determination unit.
- the determination unit determines the walking state of the pedestrian based on the changed walking state radar chart.
- the plurality of mobile objects included in the traffic information processing system 300 may include a plurality of portable terminals 50 capable of wireless communication.
- the movement information may include pedestrian information regarding the state of the pedestrian carrying the mobile terminal 50 in each of two or more mobile terminals 50 among the plurality of mobile terminals 50.
- each of the 2 or more portable terminals 50 shows the prediction result of the walking action (an example of movement) of the pedestrian who has the other portable terminal which cannot be known with the said portable terminal 50.
- Including danger maps can be obtained.
- the mobile terminal 50 can acquire more information on other mobile terminals than when acquiring an image captured by a roadside device.
- the pedestrian can take measures such as changing his / her walking behavior based on the walking behavior of other pedestrians. Therefore, according to the traffic information processing system 300 (an example of the information processing system) according to the present embodiment, the safety in walking (an example of movement) of a pedestrian carrying the mobile terminal 50 (an example of a moving body) is improved. can do.
- the plurality of mobile bodies included in the traffic information processing system 300 further includes a plurality of portable terminals 50 capable of wireless communication.
- the movement information further includes pedestrian information regarding the state of the pedestrian carrying the mobile terminal 50 in each of two or more mobile terminals 50 among the plurality of mobile terminals 50, and the first determination result is This includes determining whether or not there is a collision (an example of contact) between two or more vehicles 20 and each of the plurality of mobile terminals 50.
- the danger map creating unit 32 creates a danger map in consideration of the possibility. Therefore, according to the traffic information processing system 300 according to the present embodiment, in addition to the collision between the vehicle 20 and the vehicle 20, the collision between the vehicle 20 and the pedestrian 40a can be suppressed. Safety is further improved.
- the danger map creating unit 32 is a walking route (an example of a movement route) of the pedestrian 40a. ) To create a hazard map.
- the server device may perform the construction and learning of the driving behavior prediction NN performed by the learning unit.
- the server device may adjust weighting between nodes in the driving behavior prediction NN using data stored in the server device.
- the learning unit or the driving behavior prediction unit may download the weighting data adjusted by the server device from the server device.
- the learning unit has described the example of constructing the driver's neural network from the driving history of the driver of the vehicle, the present invention is not limited to this.
- the learning unit may construct a neural network of the driver from the travel history of the driver of the vehicle.
- the roadside machine does not need to create a danger map when the number of moving objects existing near the intersection is 1 or less from the image captured by the sensor of the roadside machine.
- each processing unit included in the traffic information processing system and the like according to the above embodiment is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Further, the circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
- FPGA Field Programmable Gate Array
- each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
- Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
- the technology of the present disclosure may be the above program or a non-transitory computer-readable recording medium on which the above program is recorded.
- the program can be distributed via a transmission medium such as the Internet.
- the numbers such as the ordinal numbers and the quantities used in the above are examples for specifically explaining the technology of the present disclosure, and the present disclosure is not limited to the illustrated numbers.
- the connection relationship between the constituent elements is exemplified for specifically explaining the technology of the present disclosure, and the connection relationship for realizing the functions of the present disclosure is not limited thereto.
- division of functional blocks in the block diagram is an example, and a plurality of functional blocks are realized as one functional block, one functional block is divided into a plurality of parts, or some functions are transferred to other functional blocks. May be.
- functions of a plurality of functional blocks having similar functions may be processed in parallel or time-division by a single hardware or software.
- the traffic information processing system and the like of the present disclosure can be applied to an apparatus or system that processes information related to driving of a vehicle or the like.
- Traffic information processing system information processing system
- 20a to 20e 120 Vehicle (moving body) 21, 31, 51 detection unit 21a, 21b, 31a, 51a sensor 21c, 31b, 51b position information acquisition unit 21d vehicle information acquisition unit 21e, 31c, 51c map information acquisition unit 22 determination unit 22a learning unit 22b driving behavior prediction unit 23 , 33, 52 Control unit 24, 54 Communication unit 25, 53 Display unit 26, 35, 55 Storage unit 27 External environment information acquisition unit 30 Roadside machine 32 Danger map creation unit 34 Communication unit (acquisition unit) 40a, 40b Pedestrian 50 Mobile terminal (mobile body) 101, 102 Road 103 Intersection A1 Safety area A2 Caution area A3 Danger area M1 to M5, M11 to M15 Danger map R1, R2, R4, R5 Danger area R3 Caution area
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
情報処理システム(10)は、所定範囲内に存在する複数の移動体のうちの2以上の移動体のそれぞれにおける、当該移動体の移動に関する移動情報に基づく当該移動体の移動の予測結果を取得する取得部(34)と、予測結果を用いて2以上の移動体の接触の可能性を判定した判定結果に基づいて、2以上の移動体のそれぞれごとに、所定範囲内における当該移動体の移動における危険領域を示す危険マップを作成する危険マップ作成部(32)と、2以上の移動体のそれぞれに、当該移動体に応じた危険マップを送信する制御を行う制御部(33)とを備える。
Description
本開示は、道路を走行する車両の交通情報を処理する情報処理システム、情報処理方法及びプログラムに関する。
近年、道路を走行する自動車等の車両が安全に走行するための運転支援を行う技術の開発が進んでいる。例えば、特許文献1には、交差点で右折を行う場合に、対向右折車両によって死角となる車両の動向を、当該交差点に設置されている路側機から受信した情報に基づいて右折車両の運転者に対して可視化して提示するシステムが開示されている。
特許文献1に記載のシステムでは、車両の運転を行う上で正確な判断を行えない場合がある。つまり、車両(移動体の一例)の走行(移動の一例)における安全性が確保できない場合がある。また、携帯端末(移動体の一例)等を所持する人(例えば、歩行者)においても、歩行(移動の一例)等における安全性が確保できることが望まれる。
そこで、本開示は、移動体の移動における安全性が向上された情報処理システム、情報処理方法及びプログラムを提供する。
本開示の一態様に係る情報処理システムは、所定範囲内に存在する複数の移動体のうちの2以上の移動体のそれぞれにおける、当該移動体に関する移動情報に基づく当該移動体の移動の予測結果を取得する取得部と、前記予測結果を用いて前記2以上の移動体の接触の可能性を判定した第一の判定結果に基づいて、前記2以上の移動体のそれぞれごとに、前記所定範囲内における当該移動体の移動における危険領域を示す危険マップを作成する危険マップ作成部と、前記2以上の移動体のそれぞれに、当該移動体に応じた危険マップを送信する制御を行う制御部とを備える。
本開示の一態様に係る情報処理方法は、所定範囲内に存在する前記複数の移動体のうちの2以上の移動体のそれぞれにおける、当該移動体の移動に関する情報に基づく当該移動体の移動の予測結果を取得する取得ステップと、前記2以上の移動体のそれぞれから取得した前記予測結果を用いて前記2以上の移動体の接触の可能性を判定した判定結果に基づいて、前記2以上の移動体のそれぞれごとに、前記所定範囲内における当該移動体の走行における危険領域を示す危険マップを作成する危険マップ作成ステップと、前記2以上の移動体のそれぞれに、当該移動体に応じた危険マップを送信する送信ステップとを含む。
本開示の一態様に係るプログラムは、上記の交通情報処理方法をコンピュータに実行させるためのプログラムである。
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示の交通情報処理システム等によれば、移動体の移動における安全性を向上することができる。
(本開示に至った経緯)
「背景技術」で挙げた特許文献1に記載される運転支援画像表示システムは、路側機が撮像した画像をベースに運転支援を行う。路側機は、交差点上に存在する車両を撮像するカメラを有し、当該カメラで撮像された画像から車両の大きさ、数を含む路上情報を作成し、車両に送信する。車両は、受信した路上情報から、対向車両の右ウィンカがオンになっているか否かを判定し、オンになっている場合に、当該対向車両によって死角となっている車両(以降において、暗対向車両とも記載する)の画像を表示部に表示させる。これにより、死角となる領域を走行している暗対向車両を表示部に表示することができるので、当該暗対向車両との衝突を抑制することができる。
「背景技術」で挙げた特許文献1に記載される運転支援画像表示システムは、路側機が撮像した画像をベースに運転支援を行う。路側機は、交差点上に存在する車両を撮像するカメラを有し、当該カメラで撮像された画像から車両の大きさ、数を含む路上情報を作成し、車両に送信する。車両は、受信した路上情報から、対向車両の右ウィンカがオンになっているか否かを判定し、オンになっている場合に、当該対向車両によって死角となっている車両(以降において、暗対向車両とも記載する)の画像を表示部に表示させる。これにより、死角となる領域を走行している暗対向車両を表示部に表示することができるので、当該暗対向車両との衝突を抑制することができる。
しかしながら、特許文献1に記載の運転支援画像表示システムでは、例えば、対向車両が右ウィンカをオンにすることを忘れているなどの場合に、車両は路上情報から当該対向車両が右折すると判定できないことがある。この場合、暗対向車両が表示部に表示されないので、車両が暗対向車両と衝突する危険がある。つまり、車両の安全性が確保できない場合がある。
そこで、本発明者らは、車両が衝突する危険を低減すること、言い換えると道路上における死角領域を低減することを鋭意検討し、対向車両の走行の判断を路側機が撮像した画像を用いて行うのではなく、車両自体が有する当該車両の走行に関する情報である車両情報を活用することを見出した。本発明者らは、車両情報を活用することを検討し、請求の範囲及び以下の説明に記載するような技術を見出した。
以下、実施の形態に係る交通情報処理システム等を、図面を参照しつつ説明する。なお、以下で説明される実施の形態は、包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ(工程)、並びにステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
以下、本実施の形態に係る交通情報処理システムについて、図1~図10Bを参照しながら説明する。
以下、本実施の形態に係る交通情報処理システムについて、図1~図10Bを参照しながら説明する。
[1-1.交通情報処理システムの構成]
まず、本実施の形態に係る交通情報処理システム10の構成を、図1~図3を参照しながら説明する。
まず、本実施の形態に係る交通情報処理システム10の構成を、図1~図3を参照しながら説明する。
図1は、本実施の形態に係る交通情報処理システム10を含む概略構成を示す図である。
図1に示すように、本実施の形態に係る交通情報処理システム10は、例えば、交差点103付近などの車両が複雑に行き交う場所に適用される。交通情報処理システム10は、複数の車両(例えば、図1に示す車両20a~20c)と通信する路側機30とを備える。言い換えると、交通情報処理システム10は、複数の車両と通信する路側機30を用いるシステムである。なお、交通情報処理システム10が備える路側機の数は特に限定されない。また、路側機30は、交差点103付近に設置されることに限定されない。また、交差点103付近は、所定範囲の一例である。また、交通情報処理システム10は、情報処理システムの一例である。
図1には、ある瞬間の交差点103付近の道路101及び102の状況として、交差点103付近を走行中の車両20a~20cが示されている。車両20a(第一の車両の一例)は、道路102をx軸プラス側からx軸マイナス側に向かって走行している車両である。車両20b(第二の車両の一例)は、道路101をy軸マイナス側からy軸プラス側に向かって走行している車両である。車両20c(第三の車両の一例)は、道路101をy軸プラス側からy軸マイナス側に向かって走行する車両である。
図2は、本実施の形態に係る交通情報処理システム10及び車両20の機能構成を示すブロック図である。なお、図1に示す車両20a~20cのそれぞれは、図2に示す車両20と同様の構成を有する。
車両20は、道路、駐車場、空港、港湾、店舗の中、倉庫の中、工場の中などを走行可能な自動車、トラック、バス、AVG(Automated Guided Vehicle)等である。車両20は、運転者が運転する手動運転車である例について説明するが、運転者の操作を必要とせずに、車両の運転の全て又は一部を制御する自動運転車であってもよい。また、車両は、移動体の一例である。
車両20は、検出部21と、判定部22と、制御部23と、通信部24と、表示部25と、記憶部26とを備える。検出部21、判定部22、制御部23等の構成要素は、専用のハードウェアで構成されてもよく、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。なお、移動体は、車両20の内部に存在し、上記各構成要素を備える装置として実現されてもよい。移動体は、例えば、車両20に着脱自在に取り付けられる装置であってもよい。
検出部21は、車両20の走行状態、車両20の周囲の状況、及び、ドライバ状態を検出する。そして、検出部21は、検出した走行状態、周囲の状況の情報、及び、ドライバ状態を制御部23へ出力する。検出部21は、例えば、センサ21aと、センサ21bと、位置情報取得部21cと、車両情報取得部21dと、地図情報取得部21eとを有する。
センサ21aは、車両20の周囲の状況を検出する。センサ21aは、例えば、車両20の周囲に存在する他車両の位置及び車線位置情報等を検出する。センサ21aは、車両20の周囲に存在する障害物の位置も検出する。このようなセンサ21aは、ミリ波レーダ、レーザレーダ、カメラ、又は、これらの組合せ等で実現される。カメラは、例えば、ドライブレコーダ等のカメラであってもよい。
また、センサ21aは、自車両から交差点103までの距離、信号機の位置、自車両から信号機までの距離、信号機の灯火色、既定の死角などの情報を含む交差点情報を検出してもよい。
センサ21bは、車両20の車内の状況を検出する。センサ21bは、例えば、運転者(運転手)がよそ見をしているか否か、及び、居眠りをしているか否かなどのドライバ状態を検出する。運転者の運転への集中度合い、及び、居眠り度合いは、ドライバ状態に含まれる。センサ21bは、例えば、運転者の視線の方向、及び、頭の動きなどからドライバ状態を検出してもよい。このようなセンサ21bは、カメラ等で実現される。
センサ21bは、運転者のアルコールの依存及びそのレベルを検出する酒気検知器を含んでいてもよい。運転者の酒気の有無及びそのレベルは、ドライバ状態に含まれる。また、センサ21bは、発汗状態や血圧などを計測するセンサであってもよい。発汗状態や血圧などにより、例えば、運転のゆとり度合いなどを知ることができる。運転のゆとり度合いは、ドライバ状態に含まれる。ドライバ状態は、自車両以外の車両20及び路側機30では、知り得ない情報である。なお、ドライバ状態は、現時点におけるドライバの状態を示す。また、センサ21bは、車両20のシートに配置された荷重センサを含んでおり、車両20に搭乗している同乗者数を検出してもよい。
位置情報取得部21cは、車両20が搭載するカーナビゲーション装置によるGPS測位結果等により、当該車両20(自車両)の位置情報を取得する。
車両情報取得部21dは、CAN(Control Area Network)等の車載ネットワークを介して、車両20に搭載される各種センサから当該車両20の走行に関する情報を取得する。各種センサは、車両20の操舵角を検出する操舵角センサ、車両20の速度を検出する速度センサなどを含む。車両情報取得部21dは、例えば、操舵角センサから車両20の操舵角を取得し、速度センサから車両20の速度を取得する。
また、各種センサは、車両20のウィンカの指示方向を検出するウィンカセンサ、ブレーキの度合い(以降では、強さとも記載する)を検出するブレーキセンサ、アクセルの度合い(以降では、開度とも記載する)を検出するアクセルセンサを含んでもよい。また、各種センサは、それ以外に車両20に搭載されているセンサであってもよい。車両情報取得部21d、例えば、ウィンカセンサから車両20の走行方向を取得し、ブレーキセンサから車両20のブレーキの強さを取得し、アクセルセンサから車両20のアクセル開度を取得してもよい。また、車両情報取得部21dは、時系列で取得した速度から自車両の加速度を算出してもよいし、アクセル開度から自車両の加速度を算出してもよい。
地図情報取得部21eは、車両20の周囲の状況を示す地図情報を取得する。地図情報取得部21eは、上記地図情報として、例えば、車両20が走行する道路、道路における他車両との合流ポイント、道路における現在走行中の車線、道路における交差点の位置等を含む地図情報を取得する。
判定部22は、制御部23を介して検出部21からの情報を取得し、取得した情報に基づいて、自車両の運転行動を判定する。運転行動とは、例えば、車線変更、車線維持、右左折、制動、加速などの自車両の行動であり、移動体の移動の一例である。具体的には、判定部22は、検出部21が検出した情報に基づいて、自車両の走行経路を予測する経路予測エンジンである。判定部22は、学習部22aと運転行動予測部22bとを有する。
学習部22aは、車両20の運転者に対応した走行予測のための機械学習データを構築する。本実施の形態では、学習部22aは、機械学習にニューラルネットワーク(以下、NNとも記載する)を用いるが、他の機械学習方法を用いてもよい。ここで、ニューラルネットワークは、脳神経系をモデルにした情報処理モデルである。ニューラルネットワークは、入力層及び出力層を含む複数のノード層で構成されている。ノード層には、1つ以上のノードが含まれる。ニューラルネットワークのモデル情報は、ニューラルネットワークを構成するノード層の数と、各ノード層に含まれるノード数と、ニューラルネットワークの全体又は各ノード層の種別とを示す。ニューラルネットワークが、例えば、入力層、中間層及び出力層の3つのノード層で構成される場合、入力層のノード数は、例えば100であり、中間層のノード数は、例えば100であり、出力層のノード数は、例えば5であるとすることができる。ニューラルネットワークは、入力層のノードに入力された情報について、入力層から中間層への出力処理、中間層での処理、中間層から出力層への出力処理、出力層での処理を順次行い、入力情報に適合する出力結果を出力する。なお、1つの層の各ノードは、次の層の各ノードと接続されており、ノード間の接続には、重み付けがされている。1つの層のノードの情報は、ノード間の接続の重み付けが付与されて、次の層のノードに出力される。
学習部22aは、車両20の特定の運転者Xの運転履歴から運転者Xのニューラルネットワークを構築する。又は、学習部22aは、車両20の運転者Xの運転履歴と、運転者X以外の複数の運転者の汎用的な運転履歴とから運転者Xのニューラルネットワークを構築してもよい。また、学習部22aは、上記の運転履歴と、車両20の運転者Xの走行履歴とから運転者Xのニューラルネットワークを構築してもよい。又は、学習部22aは、上記の運転履歴と、車両20の運転者Xの走行履歴と、運転者X以外の複数の運転者の汎用的な走行履歴とから運転者Xのニューラルネットワークを構築してもよい。学習部22aは、運転者Xの運転履歴を用いるケース、運転者Xの運転履歴及び汎用的な運転履歴を用いるケース、運転者Xの運転履歴及び走行履歴を用いるケース、並びに、運転者Xの運転履歴、走行履歴及び汎用的な走行履歴を用いるケースのうち、少なくとも1つを用いてニューラルネットワークを構築してよい。なお、複数の運転者は、不特定多数の運転者であってよく、車両20と関連していなくてもよい。そして、学習部22aは、構築したニューラルネットワークを運転行動予測NNとして運転行動予測部22bに出力する。
運転履歴は、過去に車両20によって行われた運転行動(挙動)それぞれが、複数の特徴量(以下、特徴量セットとも記載する)、及び、ドライバ情報と対応付けられて構成されている。挙動に対応する特徴量はそれぞれ、例えば、車両20によってその挙動が開始された時点から所定時間経過前の時点までの車両20の走行状態を示す量である。上記所定時間は、予め設定された時間であってよく、例えば、次の運転行動が開始されるまでの時間等であってもよい。汎用的な運転履歴の場合、不特定多数の車両20の運転履歴である。
図3は、図2の学習部22a及び運転行動予測部22bによる運転行動予測のための機能構成の一例を示す図である。
図3に示すように、例えば、運転行動とこれに対応する特徴量セット及びドライバ状態とが組み合わされて、記憶部26に記憶される。なお、特徴量は、車両の運転行動(挙動)に関連するパラメータであり、例えば、車両の同乗者数、車両の速さ、ハンドル(ステアリングとも記載する)の動き、ブレーキの強さ、アクセルの開度等を示す。特徴量は、例えば、検出部21によって検出されるような車両の走行状態である。
走行履歴は、過去に車両によって行われた運転行動それぞれが、複数の環境パラメータ(以下、環境パラメータセットとも記載する)、及び、ドライバ状態と対応付けられて構成されている。運転行動に対応する環境パラメータはそれぞれ、例えば、車両20によってその運転行動が行われた時点から所定時間経過前の時点における車両20の周囲状況、つまり環境を示す量である。汎用的な走行履歴の場合、不特定多数の車両の走行履歴である。例えば、挙動とこれに対応する環境パラメータセットとが組み合わされて、記憶部26に記憶される。環境パラメータは、車両20の環境に関連するパラメータであり、例えば、速度などの自車両の情報、相対速度及び車間距離などの自車両に対する前方車両の情報、相対速度及び車頭間距離などの自車両に対する側方車両の情報、自車両の位置情報等を示す。走行履歴は、環境パラメータセット及びドライバ状態に加え、交差点情報が含まれていてもよい。つまり、ニューラルネットワークの構築に交差点情報が用いられてもよい。環境パラメータは、例えば、検出部21によって検出される車両20の周囲状況である。
運転行動予測部22bは、学習部22aによって構築された運転行動予測NNに、現時点において得られた特徴量セット及び環境パラメータセットの少なくとも一方、及び、ドライバ情報をテストデータとして入力することによって、入力した情報に対応する運転行動を予測運転行動として出力する。本実施の形態では、運転行動予測部22bは、車両情報とドライバ情報とをテストデータとして入力することによって、入力した情報に対応する運転行動を予測結果(予測運転行動)として出力する。運転行動の予測結果は、車両20の走行状態に関する車両情報と、当該車両20の運転者の状態に関するドライバ情報とに基づく情報である。運転行動予測部22bは、例えば、所定時間経過後の運転行動の予測結果を制御部23に出力する。所定時間経過後とは、例えば、数秒後である。なお、運転行動予測部22bは、少なくとも車両情報に基づいて予測結果を出力すればよい。移動情報は、少なくとも車両情報を含んでいればよいが、より精度よく予測結果を出力する観点から、車両情報及びドライバ情報の両方を含んでいるとよい。
制御部23は、車両20の各種構成要素を制御する制御装置である。制御部23は、検出部21から取得した情報を判定部22に出力する。制御部23は、さらに検出部21から取得した情報を記憶部26に格納してもよい。また、制御部23は、判定部22の予測結果を通信部24を介して路側機30に送信する。なお、制御部23は、予測結果と合わせて、自車両の識別情報(車両ID)を送信する。制御部23は、さらに判定部22の予測結果を記憶部26に格納してもよい。また、制御部23は、車両20の表示部25の表示画面に、路側機30から受信した情報(例えば、後述する危険マップ)を表示する。
通信部24は、路側機30の通信部34と通信する通信インターフェースである。通信部24と通信部34との通信は、無線により行われる。通信部24と通信部34との通信、つまり車両20と路側機30との通信は、例えば、VI(Vehicle to Infrastructure)通信及びVP通信(Vehicle to Pedestrian)を含むV2X(Vehicle to X)通信により行われる。なお、通信部24は、第二の送信部の一例である。
表示部25は、路側機30から受信した情報を表示する表示装置である。表示部25は、UI(User Interface)ディスプレイ等であってよく、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、有機若しくは無機EL(Electro Luminescence)ディスプレイ、HMD(Head-Mounted Display又はHelmet-Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、その他の専用のディスプレイであってもよい。HUDは、例えば、車両20のウインドシールドを利用する構成を有してもよく、ウインドシールドと別に設けられるガラス面、プラスチック面(例えば、コンバイナ)等を利用する構成であってもよい。また、ウインドシールドは、車両20のフロントガラスであってもよく、車両20のサイドガラス又はリアガラスであってもよい。
記憶部26は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置、SSD(Solid State Drive)等の記憶装置である。記憶部26は、検出部21の検出結果、判定部22での運転行動の予測のための知識(機械学習データとも呼ばれる)、機械学習に用いるニューラルネットワーク、路側機30から受信する情報等の種々の情報を記憶する。
次に、路側機30の構成について説明する。路側機30は、車両20の車外にあるインフラ設備であり、道路脇などに設置される通信機能を備える装置である。路側機30は、専用のインフラ設備であってもよいし、以下に記載する機能構成の全部又は少なくとも一部が信号機又はカーブミラーなどの他のインフラ設備に設置されていてもよい。図1に示すように、路側機30は、例えば、道路101と道路102とが交差している交差点103付近に設置される。
路側機30は、検出部31と、危険マップ作成部32と、制御部33と、通信部34と、記憶部35とを備える。検出部31、危険マップ作成部32、制御部33等の構成要素は、専用のハードウェアで構成されてもよく、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
検出部31は、交差点103付近の状況を検出する。そして、検出部31は、検出した交差点103付近の状況を制御部33へ出力する。検出部31は、例えば、センサ31aと、位置情報取得部31bと、地図情報取得部31cとを有する。
センサ31aは、路側機30の周囲を観測するセンサである。センサ31aは、例えば、カメラ(画像センサ)である。センサ31aは、撮像部の一例である。
なお、センサ31aは、カメラであることに限定されず、周囲の車両20の位置などを取得できれば何でもよく、高周波数帯の電波を用いたミリ波センサでもよいし、レーザを用いたレーザレンジファインダでもよいし、超音波を用いた超音波センサでもよいし、それらを複数組み合わせたセンサでもよい。センサ31aは、さらに、交差点103付近を歩行する歩行者を検知してもよい。具体的には、センサ31aは、歩行者の位置などを検知してもよい。
また、センサ31aは、路側機30と別体に設けられてもよい。センサ31aは、例えば、信号機に取り付けられたカメラであってもよい。路側機30は、別体として設置されているセンサ31aから当該センサ31aが撮像した画像であって、交差点103付近を撮像した画像を取得してもよい。
位置情報取得部31bは、路側機30が搭載するGPSセンサよるGPS測位結果等により、当該路側機30の位置情報を取得する。なお、路側機30が設置されている情報は予め記憶部35に格納されており、位置情報取得部31bは、記憶部35から当該位置情報を取得してもよい。
地図情報取得部31cは、路側機30の周囲の状況を示す地図情報を取得する。地図情報取得部31cは、上記地図情報として、例えば、路側機30の周囲の道路、道路における交差点の位置等を含む地図情報を取得する。
危険マップ作成部32は、複数の車両20それぞれから取得した当該車両20の運転行動の予測結果から、交差点103付近における危険領域を示す危険マップを作成する。具体的には、危険マップ作成部32は、予測結果から、複数の車両20の衝突の可能性を判定し、衝突の可能性を判定した結果に基づいて危険マップを作成する。また、危険マップ作成部32は、さらに検出部31が検知した検知結果を用いて危険マップを作成してもよい。なお、衝突は、接触の一例である。
危険マップ作成部32は、複数の車両20のそれぞれごとに危険マップを作成する。つまり、危険マップ作成部32は、複数の車両20ごとに、当該車両20に対応した危険マップを作成する。危険領域とは、複数の車両20のいずれかの車両20同士が衝突する可能性がある領域を示す。言い換えると、危険マップは、複数の車両20のいずれかの車両20同士が衝突することを回避するために、作成されるマップである。危険マップ作成部32が作成する危険マップは、後述する。なお、衝突とは、車両と車両との衝突、及び、車両と歩行者などの人との衝突を含む。また、衝突の可能性とは、衝突する又は衝突するおそれがあることを含む。また、本実施の形態では、危険マップ作成部32は、複数の車両の衝突の有無を判定する例について説明する。
制御部33は、路側機30の各種構成要素を制御する制御装置である。制御部33は、検出部31から取得した情報を危険マップ作成部32に出力する。制御部33は、さらに検出部31から取得した情報を記憶部35に格納してもよい。また、制御部33は、危険マップ作成部32が作成した危険マップを、通信部34を介して車両20に送信する。具体的には、制御部33は、複数の車両20ごとに当該車両20に対応した危険マップを送信する制御を行う。制御部33は、例えば、複数の車両20の全てに、車両20に応じた危険マップを送信してもよい。制御部33は、さらに危険マップ作成部32が作成した危険マップを記憶部35に格納してもよい。
通信部34は、車両20の通信部24と通信する通信インターフェースである。本実施の形態では、通信部34は、複数の車両20それぞれから当該車両20の運転行動の予測結果を取得する。なお、通信部34は、運転行動の予測結果を取得する取得部の一例であり、かつ危険マップを複数の車両20のそれぞれに送信する第一の送信部の一例である。また、通信部34が予測結果を取得することは、交通情報処理システム10が路側機30を介して予測結果を取得することに含まれる。
記憶部35は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置、SSD(Solid State Drive)等の記憶装置であってよい。記憶部35は、検出部31の検出結果、危険マップ作成部32が作成した危険マップ等の種々の情報を記憶する。
なお、危険マップ作成部32は、路側機30が備えていなくてもよい。危険マップ作成部32は、例えば、交通情報を集約する情報センタ又はサーバなどに備えられていてもよい。この場合、路側機30は、危険マップ作成部32と複数の車両20との通信を中継してもよい。路側機30は、例えば、通信部34を介して、複数の車両20から取得した運行情報の予測結果を危険マップ作成部32に送信し、危険マップ作成部32が作成した危険マップを受信し、受信した危険マップを当該危険マップに対応する車両20に送信してもよい。危険マップ作成部32は、路側機30を介して予測結果を取得する。なお、情報センタなどに設置される通信部は、予測結果を取得する取得部の一例である。また、情報センタなどに設置される通信部は、路側機30を介さずに複数の車両20から予測結果を取得してもよい。
[1-2.交通情報処理システムの動作]
次に、交通情報処理システム10の動作について、図4~図10Bを参照しながら説明する。なお、図1に示す交差点103付近の状況である場合を例に説明する。
次に、交通情報処理システム10の動作について、図4~図10Bを参照しながら説明する。なお、図1に示す交差点103付近の状況である場合を例に説明する。
まずは、複数の車両20のそれぞれで作成される自車両の運転行動の予測結果を算出する動作について、図4~図5Cを参照しながら説明する。
図4は、本実施の形態に係る運転行動予測の動作を示すフローチャートである。本実施の形態では、図4に示す動作は、車両20において行われる。また、複数の車両20のそれぞれにおいて、図4に示す動作が行われる。
図4に示すように、制御部23は、判定部22にセンサ21aとセンサ21bとが検出した検出結果、及び、車両情報取得部21dが取得した自車両情報を入力する(S11)。つまり、制御部23は、検出部21から取得した検出結果及び自車両情報を、判定部22に出力する。
そして、判定部22は、取得した検出結果及び自車両情報を用いて、自車両の次に行動を予測する(S12)。具体的には、運転行動予測部22bは、学習部22aによって構築された運転行動予測NNに、検出結果及び自車両情報を入力することによって、入力した情報に対応する自車両の運転行動の予測結果を出力する。運転行動予測部22bは、例えば、予測結果として、時間ごとの自車両の位置情報を出力する。判定部22における運転行動の予測結果の一例について、図5A~図5Cを参照しながら説明する。
図5Aは、図1の第一の車両(車両20a)における、本実施の形態に係る運転行動予測の結果の一例を示す図である。図5Bは、図1の第二の車両(車両20b)における、本実施の形態に係る運転行動予測の結果の一例を示す図である。図5Cは、図1の第三の車両(車両20c)における、本実施の形態に係る運転行動予測の結果の一例を示す図である。
図5A~図5Cに示すように、運転行動の予測結果は、時刻(t)、x座標、y座標を含む。時刻0は、現在の時刻を意味する。また、時刻1、2、3、・・・は、時刻0を基準とした将来の時刻を意味する。時刻0におけるx座標及びy座標は、例えば、位置情報取得部21cが取得したGPS測位結果が用いられる。なお、時刻0におけるx座標及びy座標は、GPS測位結果(グローバル座標系)に限定されず、例えば、時刻0にx座標及びy座標を基準(ゼロ)として時刻1以降の位置を当該基準からの差異として算出してもよい。つまり、予測結果は、各車両20ごとに当該車両20のローカル座標系で算出されてもよい。
図5Aでは、車両20aが道路102をx軸プラス側からx軸マイナス側に向かって走行する予測結果が示されている。言い換えると、車両20aに搭載される判定部22は、自車両がy軸マイナス方向に向かって直進する予測をしている。なお、図5Aに示す予測結果は、自車両以外の車両(図1では、車両20b及び、20c)、及び、路側機30では、知り得ない情報である。
図5Bでは、車両20bが交差点103において右折する予測結果が示されている。言い換えると、車両20bに搭載される判定部22は、自車両が右折する予測をしている。なお、図5Bに示す予測結果は、自車両以外の車両(図1では、車両20a及び、20c)、及び、路側機30では、知り得ない情報である。
図5Cでは、車両20cが道路101をy軸プラス側からy軸マイナス側に向かって走行する予測結果が示されている。言い換えると、車両20cに搭載される判定部22は、自車両がx軸マイナス方向に向かって直進する予測をしている。なお、図5Cに示す予測結果は、自車両以外の車両(図1では、車両20a及び、20b)、及び、路側機30では、知り得ない情報である。
また、図5A~図5Cに示されるように、予測結果には、車両タイプが含まれていてもよい。車両のタイプとは、車両の大きさなどを把握することが可能な情報であり、例えば、普通車(四輪車)、三輪車、二輪車、トラック、バスなどである。図5A~図5Cでは、車両20aはトラックであり、車両20b及び20cは普通車である例を示している。トラックは普通車に比べ車重が重いので、制動距離が長くなる場合がある。危険マップ作成部32は、各車両20のタイプを考慮して危険マップを作成してもよい。自車両の車両タイプは、例えば、予め記憶部26に格納されていてもよい。なお、車両のタイプは、予測結果に含まれていなくてもよい。
図4を再び参照して、制御部23は、判定部22が予測した自車両の運転行動の予測結果を、通信部24を介して路側機30に送信する(S13)。複数の車両20のそれぞれは、所定時間間隔ごとにステップS11~S13の動作を繰り返し行う。
複数の車両20のそれぞれが上記の動作を行うことで、路側機30には各車両20ごとでしか知り得ない情報が集約される。言い換えると、路側機30において、各車両20でしか知り得ない情報が共有される。
次に、路側機30の動作について、図6~図8Bを参照しながら説明する。
図6は、本実施の形態に係る路側機30の動作を示すフローチャートである。
図6に示すように、路側機30は、交差点103付近に存在する複数の車両20を撮像し(S21)、撮像して得られた映像信号から交差点103内の全車両を特定する(S22)。具体的には、検出部31は、センサ31aが撮像した交差点103付近の映像信号から交差点103内に存在する車両20の数、及び、位置を特定し、制御部33に出力する。制御部33は、例えば、車両20の位置情報を危険マップ作成部32に出力する。なお、路側機30が交差点103内の全車両を特定する方法は、これに限定されない。例えば、路側機30は、交差点103内に位置しており、当該路側機30と通信可能な車両20から当該車両20の位置情報を取得することで、交差点103内の全車両を特定してもよい。
なお、交差点103内とは、道路101及び102が交差する領域、及び、その周辺領域を含む。交差点103内の全車両とは、交差点103付近に存在する全ての車両である。交差点103内の全車両は、例えば、交差点103付近を走行している車両、及び、交差点103付近に停車している車両を含む。ステップS21は、撮像ステップの一例である。
そして、路側機30は、交差点103内に存在する全車両20から予測結果を受信する(S23)。具体的には、制御部33は、通信部34を介して、複数の車両20(図1の例では、車両20a~20c)のそれぞれから予測結果を受信する。制御部33は、受信した予測結果を危険マップ作成部32に出力する。交差点103内の全車両から予測結果を受信すると、ステップS24に進む。例えば、路側機30が全車両20から予測結果を受信する前に危険マップを作成すると、本来であれば危険領域と判定される領域が安全領域と判定される可能性がある。そのため、より正確な危険マップを作成する観点から、全車両20から予測結果を受信した後、ステップS24に進むとよい。
交差点103内の全車両から予測結果を受信していない場合、ステップS23が継続して行われてもよい。例えば、ステップS22で取得した交差点103内の車両20の数と、ステップS23で受信した予測結果の数とが一致した場合に、ステップS24に進んでもよい。ステップS23は、取得ステップの一例である。なお、ステップS23の状態(受信状態)が所定期間経過すると、制御部33は、ステップS24に進んでもよい。これにより、危険マップが送信される時間間隔が、所定時間以上となることを抑制することができる。
路側機30は、複数の車両20ごとの危険マップを作成する(S24)。危険マップ作成部32は、複数の車両20のそれぞれから取得した予測結果を用いて、複数の車両20ごとの危険マップを作成する。危険マップ作成部32は、例えば、交差点103における危険マップを作成した後、当該危険マップから各車両20ごとに当該車両20に対応する部分を切り出した危険マップを作成する。なお、以降においては、交差点103における危険マップを全体危険マップとも記載し、各車両20ごとに当該車両20に対応する部分を全体危険マップから切り出した危険マップを個別危険マップとも記載する。ステップS24は、危険マップ作成ステップの一例である。
ここで、危険マップ作成部32が作成する危険マップについて、図7~図8Bを参照しながら説明する。
図7は、本実施の形態に係る路側機30が作成する危険マップM1の一例を示す図である。図7は、交差点103における全体危険マップの一例を示す図である。
図7に示すように、危険マップ作成部32は、まず交差点103付近における全体危険マップを作成する。危険マップ作成部32は、例えば、地図情報取得部31cが取得した路側機30の周囲の状況を示す地図情報(つまり、交差点103付近の状況を示す地図情報)に、予測結果を用いて、車両20a~20cの現在の車両の位置、及び、予測経路を重畳して表示する。図7では、予測経路を、破線の矢印で示している。
車両20bと車両20cとは、予測経路が交差している。具体的には、時刻t2において、交差している。これは、時刻t2において、車両20bと車両20cとが衝突する危険があることを示している。よって、危険マップ作成部32は、予測経路が交差する点を含む領域を危険領域R1として表示する。危険マップ作成部32は、例えば、危険領域R1を赤色などの危険を認識しやすい色で表示してもよい。また、車両20aは、他の車両と予測経路が交差しない。
各車両20の車両情報に基づく予測結果を用いて車両20の衝突の有無を判定することで、車両20bがウィンカを出し忘れていても衝突の可否を正確に判定することができる。
なお、危険マップ作成部32は、時刻t2において、車両20b及び20cが同じ座標に位置するため、予測経路の交点付近を危険領域R1としたが、予測経路が交差していても同じ座標に位置する時刻が所定時間以上異なっている場合は、危険領域としなくてもよい。例えば、車両20cが危険領域R1を通過してから所定時間経過後に、車両20bが危険領域R1を通過する場合である。
危険マップM1上に表示される危険領域R1の大きさは、特に限定されないが、車両20の大きさに基づいて決定されてもよい。危険マップ作成部32は、予測結果に含まれる車両のタイプから車両の大きさを特定してもよいし、路側機30のセンサ31aが撮像した画像から車両の大きさを特定してもよい。危険マップ作成部32は、車両20が大きいほど、危険領域R1を大きく表示してもよい。
危険マップ作成部32は、ステップS13で各車両20から、予測結果に加えドライバ状態を示すドライバ情報が送信されている場合、受信したドライバ情報から取得される運転者の危険運転に関する情報を危険マップに表示を行ってもよい。ここでの危険運転とは、運転者が正常に運転をできない状態で運転していることを示しており、例えば、居眠り、よそ見などをしながら運転していることを示す。危険マップ作成部32は、例えば、車両20cから受信したドライバ情報に運転者が居眠り中であることを示す情報が含まれていた場合、車両20cの運転者が居眠り中であることを示す表示を危険マップM1に重畳して表示してもよい。
危険マップ作成部32は、車両20a~20cの現在の車両の位置に加え、車両20a~20cの所定時間経過後の車両の位置を危険マップM1に表示してもよい。また、危険マップ作成部32は、現在の時刻における各車両20の位置に替えて、車両20a~20cの所定時間経過後の車両の位置を危険マップM1に表示してもよい。
なお、危険マップ作成部32は、交差点103内で停車している車両20が存在する場合、当該車両20の周囲を危険領域として表示してもよい。停車している車両20に人が乗り降りすることが想定されるので、当該人との衝突を抑制することができる。
上記のように、危険マップ作成部32は、交差点103付近における全体危険マップを作成する。これにより、交差点103付近における危険領域(つまり、車両20同士が衝突する可能性がある領域)を知ることができる。
なお、上記では、危険マップ作成部32は、地図情報に危険領域を表示することで危険マップを作成する例について説明したが、これに限定されない。危険マップ作成部32は、例えば、路側機30のセンサ31aが撮像した画像に危険領域を表示してもよい。作成される危険マップは、2次元表示であってもよいし、3次元表示であってもよい。
次に、路側機30が各車両20ごとに送信する個別危険マップについて、図8A及び図8Bを参照しながら説明する。
図8Aは、本実施の形態に係る路側機30が第一の車両(図1に示す車両20a)に送信する危険マップM2の一例を示す図である。図8Bは、本実施の形態に係る路側機30が第二及び第三の車両(図1に示す車両20b及び20c)に送信する危険マップM3の一例を示す図である。図8A及び図8Bに示す危険マップM2及びM3は、個別危険マップの一例を示す図である。なお、図8Bでは、車両20b及び20cに同一の危険マップが送信される例について説明するが、異なる危険マップが送信されてもよい。
図8Aは、図7に示す危険マップM1から車両20aに対応する部分を切り出した危険マップM2である。車両20aに対応する部分とは、車両20a及び車両20aの走行に関係のある情報(例えば、車両20aと衝突する可能性がある車両及び危険領域など)を含む。
車両20aは、図7に示す予測経路上において、危険領域が存在しない。そのため、図8Aに示すように、車両20aに対応する危険マップM2には、例えば、自車両である車両20aのみが表示される。なお、危険マップM2には、車両20aは表示されていなくてもよい。
図8Bは、図7に示す危険マップM1から車両20b及び20cに対応する部分を切り出した危険マップM3である。車両20b及び20cに対応する部分とは、車両20b及び20cの走行に関係のある情報(例えば、車両20b又は20cと衝突する可能性がある車両及び危険領域など)を含む。
車両20b及び20cは、図7に示す予測経路上において、互いに衝突する可能性があり、危険領域R1が存在する。そのため、図8Bに示すように、車両20bに対応する部分とは、車両20b、車両20c、及び、危険領域R1となる。また、車両20cに対応する部分とは、車両20c、車両20b、及び、危険領域R1となる。よって、車両20b及び20cに対応する危険マップとして、車両20b及び20cに共通の危険マップM3が作成される。
なお、危険マップM2及びM3には、車両に関する情報は含まれていなくてもよい。また、車両20bに送信される危険マップM3には、自車両(車両20b)が含まれていなくてもよい。また、車両20cに送信される危険マップM3には、自車両(車両20c)が含まれていなくてもよい。つまり、車両20b及び20cに送信される危険マップは、互いに異なる危険マップであってもよい。言い換えると、危険マップM3には、当該危険マップM3に対応する車両20の運転経路に関連性がある車両20の情報が含まれていてもよい。例えば、車両20cに送信される危険マップM3には、当該車両20cと衝突する危険がある、つまり当該車両20cの運転経路に関連性がある車両20bが含まれていてもよい。運行経路は、移動体の移動経路の一例である。
危険マップ作成部32は、作成した危険マップ(上の例では、危険マップM1~M3)を制御部33に出力する。
図6を再び参照して、路側機30は、通信部34を介して、車両20ごとの危険マップを送信する(S25)。具体的には、制御部33は、危険マップ作成部32から取得した危険マップM1~M3のうち、個別危険マップ(危険マップM2及びM3)を個別危険マップに対応する車両20に送信する。制御部33は、車両20aに危険マップM2を送信し、車両20b及び20cに危険マップM3を送信する。これにより、路側機30は、各車両20ごとに当該車両20に最適な危険マップを送信することができる。ステップS25は、送信ステップの一例である。
なお、制御部33は、危険マップを送信する車両20の順番を決定してもよい。制御部33は、例えば、危険マップに含まれる危険領域(例えば、危険領域R1)の面積が大きい順に、当該危険マップに対応する車両20に当該危険マップを送信してもよい。本実施の形態では、制御部33は、車両20aと、車両20b及び20cとのうち、車両20b及び20cに先に危険マップを送信してもよい。これにより、衝突する可能性がある車両は、早めに運転行動の変更などを行うことができるので、より安全に運転を行うことができる。また、制御部33は、車両20に対応する危険マップに危険領域が存在しない場合、当該車両に危険マップを送信することを行わなくてもよい。制御部33は、例えば、車両20aに対応する危険マップM2に危険領域が存在しないので、当該車両20aには危険マップM2を送信しなくてもよい。制御部33は、例えば、車両20aに対応する危険マップM2の送信を停止してもよい。これにより、路側機30における処理量を減らすことができるので、路側機30における消費電力の低減を実現することができる。
制御部33は、危険マップ作成部32から取得した危険マップM1~M3を記憶部35に格納してもよい。制御部33は、例えば、危険マップM1(つまり、全体危険マップ)のみを記憶部35に格納してもよい。
次に、個別危険マップを受信した車両20の動作について、図9~図10Bを参照しながら説明する。
図9は、本実施の形態に係る車両20における、危険マップを表示する動作を示すフローチャートである。
まず、複数の車両20のそれぞれは、通信部24を介して、当該車両20に対応した危険マップを受信する(S31)。図1の例では、車両20aは、当該車両20aの通信部24を介して、危険マップM2を受信する。車両20bは、当該車両20bの通信部24を介して、危険マップM3を受信する。車両20cは、当該車両20cの通信部24を介して、危険マップM3を受信する。
そして、各車両20のそれぞれは、自車両経路を危険マップに重畳する(S32)。自車両経路とは、図4のステップS12で予測した予測結果に含まれる自車両の予測経路である(例えば、図5A~図5C)。
ここで、自車両経路が重畳された危険マップについて、図10A及び図10Bを参照しながら説明する。
図10Aは、本実施の形態に係る第二の車両(車両20b)が表示する危険マップM4の一例を示す図である。図10Bは、本実施の形態に係る第三の車両(車両20c)が表示する危険マップM5の一例を示す図である。
図10Aに示すように、車両20bの制御部23は、受信した危険マップM3に自車両の予測経路を重畳した危険マップM4を作成する。予測経路は、破線の矢印で示す。危険マップM4によれば、自車両の予測経路が危険領域R1を通過することがわかる。また、危険マップM4に車両20cが表示されていることで、車両20cと衝突する可能性があることを運転者に知らせることができる。
図10Bに示すように、車両20cの制御部23は、受信した危険マップM3に自車両の予測経路を重畳した危険マップM5を作成する。予測経路は、破線の矢印で示す。危険マップM5によれば、自車両の予測経路が危険領域R1を通過することがわかる。また、危険マップM5に車両20bが表示されていることで、車両20bと衝突する可能性があることを運転者に知らせることができる。
図9を再び参照して、複数の車両20のそれぞれは、当該車両20が備える表示部25に危険マップを表示する(S33)。具体的には、制御部23は、路側機30から受信した危険マップに自車両経路を重畳した危険マップを表示部25に表示する。これにより、運転者は、表示部25に表示された危険マップを確認することで、どの車とどの位置で衝突する可能性があるかを知ることができる。
また、制御部23は、所定の車両20が危険運転を行っている場合、当該危険運転を行っていることを示す情報(例えば、「居眠り中」などであり、危険情報とも記載する)を危険マップに重畳して表示部25に表示してもよい。これにより、さらに、運転者に危険を認識させることができる。制御部23は、例えば、通信部24を介して、危険情報を含む個別危険マップを路側機30から受信してもよい。
なお、車両20が自動運転車である場合、制御部23は、危険マップ(例えば、危険マップM4及びM5)を表示部25に表示させなくてもよい。また、車両20が自動運転車である場合、当該車両20の走行を制御する車両制御部(図示しない)は、危険マップにもとに衝突を回避する運転行動を行ってもよい。車両制御部は、例えば、危険マップに示される危険領域を通過するときの速度を、危険領域以外の領域を通過するときの速度または、予測結果に示される速度(予測される速度)より遅くする制御を行ってもよいし、危険領域を回避する制御を行ってもよい。
上記では、路側機30は、運転経路の予測結果を複数の車両20のそれぞれから取得する例について説明したが、これに限定されない。路側機30は、複数の車両20のそれぞれから当該車両20の車両情報とドライバ情報とを通信部34を介して取得してもよい。そして、路側機30は、複数の車両20のそれぞれから取得した、車両情報とドライバ情報とに基づいて当該車両20の運転行動の予測を行う判定部(図示しない)を有し、当該判定部により複数の車両20の運転経路の予測結果が算出されてもよい。判定部は、例えば、制御部33に予測結果を出力する。制御部33は、取得した予測結果を危険マップ作成部32に出力する。この場合、制御部33は、予測結果を取得する取得部の一例である。路側機30自体が備える判定部により予測結果を算出し、予測結果を取得することは、予測結果を、路側機30を介して取得することに含まれる。なお、路側機30が上記の判定部を有する場合、交差点情報は、路側機30が有するセンサ31aが撮像した画像から取得されてもよい。
また、上記では、路側機30は、交差点103内に存在する複数の車両20のそれぞれから予測結果等を取得し、また複数の車両20のそれぞれごとに危険マップを送信する例について説明したが、複数の車両20の全てから予測結果等を取得し、また複数の車両20の全てに危険マップを送信しなくてもよい。路側機30は、例えば、交差点103内に存在する複数の車両20のうちの2以上の車両20から予測結果を取得し、取得した予測結果を用いて2以上の車両20の衝突の判定の可能性を判定した判定結果に基づいて、2以上の車両20のそれぞれごとに危険マップを送信してもよい。
また、交通情報処理システム10は、複数の車両20と通信する路側機30を用いる交通情報処理システムであって、所定範囲内に存在する複数の車両20のうちの2以上の車両20のそれぞれにおける、当該車両20の走行状態に関する車両情報と、当該車両20の運転者の状態に関するドライバ情報とに基づく当該車両20の運転行動の予測結果を、当該車両20から路側機30を介して取得する通信部34(取得部の一例)と、予測結果を用いて2以上の車両20の衝突(接触の一例)の可能性を判定した第一の判定結果に基づいて、2以上の車両20のそれぞれごとに、所定範囲内における当該車両20の走行における危険領域を示す危険マップを作成する危険マップ作成部32と、2以上の車両20のそれぞれに、当該車両20に応じた危険マップを送信する制御を行う制御部33とを備える構成であってもよい。
[1-3.効果など]
以上説明したように、本実施の形態に係る交通情報処理システム10(情報処理システムの一例)は、所定範囲内(例えば、交差点103付近)に存在する複数の車両20(移動体の一例)のうちの2以上の車両20のそれぞれにおける、当該車両20の走行状態に関する車両情報(移動情報の一例)に基づく当該車両20の運転行動(移動の一例)の予測結果を取得する通信部34(取得部の一例)と、予測結果を用いて2以上の車両20の衝突(接触の一例)の可能性を判定した第一の判定結果に基づいて、2以上の車両20のそれぞれごとに、交差点103付近における当該車両20の走行(移動の一例)における危険領域を示す危険マップを作成する危険マップ作成部32と、2以上の車両20のそれぞれに、当該車両20に応じた危険マップを送信する制御を行う制御部33とを備える。
以上説明したように、本実施の形態に係る交通情報処理システム10(情報処理システムの一例)は、所定範囲内(例えば、交差点103付近)に存在する複数の車両20(移動体の一例)のうちの2以上の車両20のそれぞれにおける、当該車両20の走行状態に関する車両情報(移動情報の一例)に基づく当該車両20の運転行動(移動の一例)の予測結果を取得する通信部34(取得部の一例)と、予測結果を用いて2以上の車両20の衝突(接触の一例)の可能性を判定した第一の判定結果に基づいて、2以上の車両20のそれぞれごとに、交差点103付近における当該車両20の走行(移動の一例)における危険領域を示す危険マップを作成する危険マップ作成部32と、2以上の車両20のそれぞれに、当該車両20に応じた危険マップを送信する制御を行う制御部33とを備える。
これにより、移動体が車両20である場合、2以上の車両20のそれぞれは、自車両では知り得ない他車両の運転行動(移動の一例)の予測結果を含む危険マップを取得することができる。つまり、従来例のように路側機で撮像された画像を取得する場合に比べ、他車両の情報をより多く取得することができる。運転者は、受信した危険マップを用いることで、他車両の運転行動をふまえ自車両の運転行動を変更するなどの対応を行うことができる。よって、本実施の形態に係る交通情報処理システム10によれば、車両20(移動体の一例)の走行(移動の一例)における安全性を向上することができる。
また、2以上の車両20のそれぞれごとに作成される危険マップは、当該危険マップに対応する車両20の運転経路(移動経路の一例)に関連性がある車両20の情報を含む。
これにより、危険マップを受信した車両20の運転者は、当該危険マップを見ることで、自車両がどの車両20と衝突する危険があるかを認識することができる。運転者が衝突する危険がある車両20を注視して運転することで、自車両が衝突することをより低減することができる。よって、車両20の安全性がさらに向上する。
また、制御部33は、第一の判定結果において衝突しないと判定された車両20には、当該車両20に対応する危険マップの送信を停止する。
これにより、路側機30から2以上の車両20へ危険マップを送信する場合、当該路側機30から2以上の車両20へ送信される危険マップの情報量を低減することができるので、車両20が多数存在する場合でも、2以上の車両20と路側機30との通信を安定して行うことができる。なお、サーバ等から2以上の車両20へ危険マップを送信する場合においても、同様の効果を奏する。
また、通信部34は、2以上の車両20のそれぞれから、当該車両20の運転経路の予測結果を取得してもよい。
これにより、路側機30に処理が集中する場合に比べ、危険マップの作成を効率的に行うことができる。
また、交通情報処理システム10は、さらに、複数の車両20と通信する路側機30を備える。当該路側機30は、制御部33(取得部の一例)、危険マップ作成部32、及び、2以上の車両20のそれぞれから取得した移動情報に基づいて当該車両20の運転行動の予測を行う判定部を有する。制御部33は、判定部から運転行動の予測結果を取得してもよい。
これにより、路側機30で、運転行動の予測と、衝突の可能性の判定とを一括して行うことができる。
また、複数の移動体は、複数の車両20を含み、移動情報は、複数の車両20のうちの2以上の車両20のそれぞれにおける、当該車両20の走行状態に関する車両情報と、当該車両20の運転者の状態に関するドライバ情報とを含む。
これにより、2以上の車両20のそれぞれは、自車両では知り得ない他車両の運転行動(移動の一例)の予測結果を含む危険マップを取得することができる。また、移動情報が車両情報とドライバ情報とを含むことにより、予測される予測結果は、より精度が高いものとなる。運転者は、受信した危険マップを用いることで、他車両の運転行動をふまえ自車両の運転行動を変更するなどの対応を行うことができる。よって、本実施の形態に係る交通情報処理システム10によれば、車両20の走行における安全性をより向上することができる。
また、車両情報は、車両20のタイプを含む。
これにより、車両20のタイプから当該車両20の大きさなどを把握することが可能となる。危険マップ作成部32は、車両20の大きさから、当該大きさに応じて危険領域を決定することで、より適切な危険マップを作成することができる。
また、車両情報は、2以上の車両20それぞれにおいて、当該車両20の速度情報、及び、車両20の操舵角情報の少なくとも一つを含む。
これにより、上述のような情報は、車両20の走行における種々の情報を含み得る。車両20の現在の走行の情報により緻密に対応した走行経路の予測が、可能になる。
また、ドライバ情報は、2以上の車両のそれぞれにおいて、当該車両20を運転する運転者の運転に対する集中度合い、及び、居眠り度合いの少なくとも一方を含む。
これにより、上述のような情報は、車両20を運転する運転者における種々の情報を含み得る。車両20の現在の運転者の情報により緻密に対応した走行経路の予測が、可能になる。
また、通信部34が取得する予測結果は、2以上の車両20のそれぞれにおいて、機械学習を用いて、当該車両20の車両情報及びドライバ情報から予測された結果である。
これにより、機械学習を用いて予測される運転行動(挙動)は、運転者の経験に基づいた運転行動であり、運転者に予測される運転行動に近い運転行動となり得る。つまり、機械学習を用いて予測される運転行動は、運転者の感覚に近い運転行動となり得る。例えば、機械学習は、ニューラルネットワークであってもよい。
また、以上説明したように、本実施の形態に係る交通情報処理方法(情報処理方法の一例)は、所定範囲内(例えば、交差点103付近)に存在する複数の車両20(移動体の一例)のうちの2以上の車両20のそれぞれにおける、当該車両20の走行状態に関する車両情報に基づく(移動情報に基づくことの一例)当該車両20の運転行動の予測結果を取得する取得ステップ(S23)と、2以上の車両20のそれぞれから取得した予測結果を用いて2以上の車両20の衝突(接触の一例)の可能性を判定した判定結果に基づいて、2以上の車両20のそれぞれごとに、交差点103付近における当該車両20の走行(移動の一例)における危険領域を示す危険マップを作成する危険マップ作成ステップ(S24)と、2以上の車両20のそれぞれに、当該車両20に応じた危険マップを送信する送信ステップ(S25)とを含む。また、以上説明したように、本実施の形態に係るプログラムは、上記の交通情報処理方法をコンピュータに実行させるためのプログラムとして実現されてもよい。
これにより、上記の交通情報処理システム10と同様の効果を奏する。
なお、上記方法は、MPU(Micro Processing Unit)、CPU、プロセッサ、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。
なお、上記プログラム及び上記プログラムからなるデジタル信号は、コンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリ等に記録したものであってもよい。
また、上記プログラム及び上記プログラムからなるデジタル信号は、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものであってもよい。また、上記プログラム及び上記プログラムからなるデジタル信号は、記録媒体に記録して移送されることにより、又はネットワーク等を経由して移送されることにより、独立した他のコンピュータシステムにより実施されてもよい。
(実施の形態2)
以下、本実施の形態に係る交通情報処理システム100について、図11~図14Bを参照しながら説明する。なお、本実施の形態では、主に実施の形態1と異なる点について説明する。本実施の形態では、危険マップ作成部32は、危険領域の危険度合いを識別して表示した危険マップを作成する点に特徴を有する。
以下、本実施の形態に係る交通情報処理システム100について、図11~図14Bを参照しながら説明する。なお、本実施の形態では、主に実施の形態1と異なる点について説明する。本実施の形態では、危険マップ作成部32は、危険領域の危険度合いを識別して表示した危険マップを作成する点に特徴を有する。
[2-1.交通情報処理システムの構成]
図11は、本実施の形態に係る交通情報処理システム100を含む概略構成を示す図である。なお、各車両20及び路側機30の機能構成は、実施の形態1と同様であり、説明を省略する。交通情報処理システム100は、情報処理システムの一例である。
図11は、本実施の形態に係る交通情報処理システム100を含む概略構成を示す図である。なお、各車両20及び路側機30の機能構成は、実施の形態1と同様であり、説明を省略する。交通情報処理システム100は、情報処理システムの一例である。
図11に示すように、交差点103付近には、車両20a~車両20eの5台の車両が存在する。車両20a~車両20cは、実施の形態1の車両20a~20cと同様である。車両20d(第四の車両の一例)は、車両20aの前方を、道路102をx軸プラス側からx軸マイナス側に向かって走行する車両である。言い換えると、車両20dの判定部22は、道路102をx軸プラス側からx軸マイナス側に向かって走行する経路予測を行ったことを示す。車両20e(第五の車両の一例)は、車両20bが右折した後の車線を、x軸マイナス側からx軸プラス側に向かって走行する車両である。言い換えると、車両20eの判定部22は、道路102をx軸マイナス側からx軸プラス側に向かって走行する経路予測を行ったことを示す。
本実施の形態では、複数の車両20のそれぞれは、実施の形態1で示した予測結果に加え、自車両の走行状態の危険度合いを示す情報を路側機30に送信する。予測結果は、自車両の未来の走行経路を含む情報であり、危険度合いを示す情報は、現時点における自車両の走行状態を示す情報である。危険度合いを示す情報とは、例えば、自車両の走行状態が安全であるか否かを示す情報である。また、走行状態は、移動体の移動状態の一例である。
[2-2.交通情報処理システムの動作]
次に、本実施の形態に係る交通情報処理システム100の動作について、説明する。なお、車両20及び路側機30の基本的な動作は実施の形態1の図4、図6及び図9と同様であり、図4、図6及び図9を適宜参照しながら説明する。また、実施の形態1と同様のステップについては、説明を省略する。
次に、本実施の形態に係る交通情報処理システム100の動作について、説明する。なお、車両20及び路側機30の基本的な動作は実施の形態1の図4、図6及び図9と同様であり、図4、図6及び図9を適宜参照しながら説明する。また、実施の形態1と同様のステップについては、説明を省略する。
判定部22は、図4に示すステップS12の動作に加え、さらに、自車両の走行状態が安全域、注意域及び危険域のいずれに属するかを判断する。判定部22は、この判断に、記憶部26に格納されている走行状態レーダチャートを用いる。本実施の形態では、複数の車両20の全ての走行状態に対して、同一の走行状態レーダチャートが使用されるが、これに限定されない。まず、図12Aを参照して、走行状態レーダチャートを説明する。
図12Aは、第四の車両(車両20d)における、本実施の形態に係る走行状態レーダチャートAaの一例を示す図である。走行状態レーダチャートAaは、中心Cから放射状に延びる複数の項目の軸を有している。走行状態レーダチャートAaでは、各項目の値は、中心Cで最小値であり、項目軸に沿って径方向外側に向かって、大きくなる。
複数の項目は、車両20dに関する項目と、車両20dの周囲の車両に関する項目とを含む。車両20dに関する項目は、特徴量に関する項目でもあり、車両20dの周囲の車両に関する項目は、環境パラメータに関する項目でもある。これらに限定するものではないが、複数の項目は、車両20dに関する自車加速度、自車速度、自車舵角変化量及びブレーキタイミングと、周囲の車両に関する前方車相対速度、前方車車間距離、側方車車間距離及び後方車車間距離とで構成されている。項目の数量は、8つに限定されず、7つ以下であってもよく、9つ以上であってもよい。
自車加速度は、車両20dに作用する加速度を示す。自車速度は、車両20dの走行速度を示す。自車舵角変化量は、車両20dの操舵輪の直進状態に対する角度変化量を示す。ブレーキタイミングは、車両20dのブレーキの強さ(度合い)を示す。前方車相対速度は、車両20dに対する車両20dの前方の車の相対速度を示し、当該相対速度の絶対値を示してもよい。前方車車間距離は、車両20dと車両20dの前方の車との間の空間距離を示す。側方車車間距離は、車両20dと車両20dの側方の車との間の空間距離を示す。後方車車間距離は、車両20dと車両20dの後方の車との間の空間距離を示す。走行状態レーダチャートAaでは、車両20dに関する各項目は、中心Cから離れるに従って、その値が大きくなり、その安全性を低下させる。このため、値が大きくなる程、安全性が増す前方車車間距離、側方車車間距離及び後方車車間距離に関しては、走行状態レーダチャートAaにおいて逆数で表示される。
さらに、走行状態レーダチャートAaには、安全域A1、注意域A2及び危険域A3が設定されている。安全域A1は、中心Cを含み、中心Cの周りに設定されている。注意域A2は、安全域A1の周りに設定され、安全域A1に径方向外側で隣接する。危険域A3は、注意域A2の径方向外側の領域である。車両20dに関する各項目の値を走行状態レーダチャートにプロットすることによって、車両20dの走行状態を判断することが可能である。例えば、プロットした全ての点が安全域A1内に位置する場合、車両20dの走行状態は安全な状態であるとみなされ得る。プロットした点の少なくとも1つが注意域A2内に位置する場合、車両20dの走行状態は注意が必要な状態であるとみなされ得る。プロットした点の少なくとも1つが危険域A3内に位置するとき、車両20dの走行状態は危険を含む状態であるとみなされ得る。プロットした複数の点が、2つ以上の領域にわたる場合、危険域A3に最も近い点が属する領域が、車両20dの走行状態を示し得る。
走行状態レーダチャートAaにおける安全域A1、注意域A2及び危険域A3間の境界の位置は、車両20dの特定の運転者の運転履歴及び走行履歴に基づいて設定されてもよく、複数の運転者の運転履歴及び走行履歴に基づき設定されてもよい。本実施の形態では、複数の運転者の運転履歴及び走行履歴が用いられる。これにより、境界の位置は、運転者個人に特有の特性が反映されず、一般化される。複数の運転者の運転履歴及び走行履歴に基づく境界位置は、機械学習により決定されてもよく、統計的な手法により決定されてもよい。
例えば、安全域A1と注意域A2との境界A12での各項目の値は、複数の運転者の運転履歴及び走行履歴における各項目の値の平均値、中央値又は最頻値等の統計の中心付近の値であってもよい。この境界A12は、本実施の形態では、安全域A1に含まれるが、注意域A2に含まれてもよい。
注意域A2と危険域A3の境界A23での各項目の値は、複数の運転者の運転履歴及び走行履歴における各項目の値の「平均値+分散値×2」等の値であってもよい。上記平均値は、中央値又は最頻値等の統計の中心付近の値であってもよい。この境界A23は、本実施の形態では、注意域A2に含まれるが、危険域A3に含まれてもよい。このような境界A23によって決定される注意域A2は、複数の運転者の運転履歴及び走行履歴の項目の値の一部を含み、複数の運転者の半数には受け入れられない比較的非日常的である注意喚起を含み得る領域である。また、危険域A3は、複数の運転者の運転履歴及び走行履歴の項目の値の上位一部を含み、複数の運転者の多くにとって非日常的である危険性を含み得る領域である。
なお、走行状態レーダチャートAaには、安全域A1、注意域A2及び危険域A3が設定されていることに限定されない。
車両20dの判定部22は、検出部21の検出結果等の情報を取得し、取得した情報に基づき、走行状態レーダチャートAaの各項目に対応する値を算出する。走行状態レーダチャートAaの各項目に対応する値は、実測値でなくてよく、各項目の数値を比較しやすいように、換算値であってもよい。走行状態レーダチャートAaの各項目に対応する値は、車両20dの現在の状態を示す。判定部22は、算出した各項目の値を、走行状態レーダチャートAa上にプロットする。プロットした点を線分で結ぶと、車両20dの走行状態を示す走行状態ラインBが形成される。
判定部22は、車両20dの走行中、リアルタイムに、走行状態レーダチャートAaに各項目に対応する値をプロットし、車両20dの走行状態を含む走行状態レーダチャートAaを形成する。
複数の車両20のそれぞれは、上記のような走行状態レーダチャートを用いて、自車両の走行状態を判断する。なお、以下においては、図11に示す車両20d及び20eの走行状態について説明する。
図12Aに示すように、走行状態レーダチャートAaにおいて、少なくとも1つの項目の値が危険域A3に含まれる場合、判定部22は、自車両(車両20d)の走行状態が危険状態であると判断する。言い換えると、判定部22は、自車両の走行状態を示すパラメータの値を走行安全性に基づく複数の領域A1、A2、及び、A3で分類し、少なくとも1つのパラメータ値が危険域A3に含まれる場合、自車両(車両20d)の走行状態が危険状態であると判断する。判定部22は、例えば、予測結果に加え、走行状態レーダチャートAaによる走行状態の判定結果を制御部23に出力する。そして、制御部23は、図4に示すステップS13において、通信部24を介して、予測結果に加え、判定結果を路側機30に送信する。なお、走行安全性は、移動体の移動安全性の一例である。
図12Bは、第五の車両(車両20e)における、本実施の形態に係る走行状態レーダチャートAbの一例を示す図である。
図12Bに示すように、走行状態レーダチャートAbにおいて、少なくとも1つの項目の値が注意域A2に含まれる場合、判定部22は、自車両(車両20e)の走行状態が注意状態であると判断する。判定部22は、例えば、予測結果に加え、走行状態レーダチャートAbによる走行状態の判定結果を制御部23に出力する。そして、制御部23は、図4に示すステップS13において、通信部24を介して、予測結果に加え、判定結果を路側機30に送信する。車両20は、判定結果のみを路側機30に送信するので、車両20から路側機30に送信されるデータ量の増加を抑制しつつ、走行状態の情報を送信することができる。
なお、予測結果と判定結果とはそれぞれ別々のフローで算出され、異なるタイミングで路側機30に送信されてもよい。
路側機30は、通信部34を介して複数の車両20のそれぞれから予測結果及び判定結果を受信し(図6に示すステップS23に相当)、複数の車両20ごとの危険マップを作成する(図6に示すステップS24に相当)。具体的には、危険マップ作成部32は、センサ31aが検知した検知結果と、複数の車両20のそれぞれから取得した予測結果及び判定結果とを用いて、車両20ごとの危険マップを作成する。
ここで、危険マップ作成部32が作成する危険マップについて、図13~図14Bを参照しながら説明する。
図13は、本実施の形態に係る路側機30が作成する交差点103における危険マップM11の一例を示す図である。図13は、全体危険マップの一例を示す図である。なお、車両20a~20cのそれぞれから受信した予測結果は、実施の形態1と同様とし、車両20a~20cのそれぞれから受信した判定結果は、安全域A1であるとする。
図13に示すように、危険マップ作成部32は、まず交差点103付近における全体危険マップを作成する。危険マップ作成部32は、例えば、地図情報取得部31cが取得した路側機30の周囲の状況を示す地図情報(つまり、交差点103付近の状況を示す地図情報)に、予測結果を用いて、車両20a~20eの現在の車両の位置、及び、予測経路を重畳して表示する。図13では、予測経路を、破線の矢印で示している。車両20bと車両20cの予測経路が交差しているので、実施の形態1と同様、危険領域R1が表示されている。
図13には、さらに、危険領域R2及び注意領域R3が図示されている。危険領域R2は、車両20dの走行状態が危険域であるために表示される。また、注意領域R3は、車両20eの走行状態が注意域であるために表示される。
図12Aに示すように、車両20dの走行状態は、危険域A3である。つまり、車両20dは、走行状態が注意域である場合に比べ、事故を起こしやすい状態にある。危険マップ作成部32は、車両20dの予測経路が他の車両20の予測経路と交差していない場合であっても、例えば、車両20dの進行方向の前後の領域を危険領域R2として表示する。危険領域R2は、車両20dと衝突する可能性がある領域である。図13では、領域内のドットハッチの密度が高いほど、危険レベルが高いことを示している。危険領域R2は、危険領域R1と同程度の危険レベルであることを示している。なお、車両20dの走行状態が危険域であることは、当該車両20d以外の車両は知り得ない情報である。また、危険域A3であるか、注意域A2であるかの判定は、第三の判定結果の一例である。
図12Bに示すように、車両20eの走行状態は、注意域である。つまり、車両20eは、走行状態が安全域である場合に比べ、事故を起こしやすい状態にある。危険マップ作成部32は、車両20eの予測経路が他の車両20の予測経路と交差していない場合であっても、例えば、車両20eの進行方向の前後の領域を注意領域R3として表示する。注意領域R3は、車両20eと衝突する可能性がある領域であるが、危険領域R2ほど危険なレベルではない領域である。注意領域R3は、危険領域R1及びR2に比べ、危険度が低く見えるように表示される。例えば、危険領域R1及びR2は、赤色で表示され、注意領域R3は、黄色で表示されてもよい。図13では、注意領域R3のドットハッチの密度を危険領域R1及びR2より小さく表示している。なお、車両20eの走行状態が注意域であることは、当該車両20e以外の車両は知り得ない情報である。
また、危険マップ作成部32は、車両20b及び20cの少なくとも一方の走行状態が危険域A3であり、かつ、車両20b及び20cの予測経路が交差する場合、車両20b及び20cの走行状態が安全域A1であり、かつ、車両20b及び20cの予測経路が交差する場合に比べ、危険度が高く見えるように危険領域R1を表示してもよい。また、危険マップ作成部32は、車両20b及び20cの両方の走行状態が注意域A2である場合、車両20b及び20cの注意領域が重なる領域は、危険領域として表示してもよい。
上記のように、本実施の形態に係る危険マップ作成部32は、複数の車両20ごとの予測経路と危険度合いとから、危険度のレベルが認識可能な全体危険マップを作成する。
なお、上記では、走行状態レーダチャートAaは、安全域A1、注意域A2、及び、危険域A3が設定されている例について説明したが、これに限定されない。走行状態レーダチャートAaは、複数の領域を有していればよい。走行状態レーダチャートはAa、例えば、安全域A1、及び、危険域A3のみが設定されていてもよい。この場合、判定部22は、自車両の走行状態を示すパラメータの値を複数の領域A1、及び、A3のうち走行安全性が高い安全域A1に収まっているか否かを判定する。判定部22が行う当該判定の結果は、第二の判定結果の一例である。危険マップ作成部32は、第二の判定結果が安全域A1に収まっていない場合に、当該車両20の運転経路を危険領域として危険マップ上に示してもよい。
次に、路側機30が複数の車両20ごとに送信する個別危険マップについて説明する。
図14Aは、本実施の形態に係る路側機30が第一の車両(図11に示す車両20a)に送信する危険マップM12の一例を示す図である。具体的には、図14Aは、図13に示す全体危険マップから車両20aに対応する部分を切り出した危険マップである。図14Bは、本実施の形態に係る路側機30が第二の車両(図11に示す車両20b)に送信する危険マップM13の一例を示す図である。具体的には、図14Bは、図13に示す全体危険マップから車両20bに対応する部分を切り出した危険マップである。図14A及び図14Bに示す危険マップM12及びM13は、個別危険マップの一例を示す図である。
車両20aは、図13に示す予測経路上において、走行状態が危険域である車両20dと道路102上で交わるので、危険マップM12には危険領域R2が表示される。そのため、図14Aに示すように、車両20aに対応する部分とは、車両20a、車両20d、及び、危険領域R2となる。なお、危険マップM12には、車両20aは表示されていなくてもよい。
危険マップM12が車両20aに送信され(図6に示すS25に相当)、当該危険マップM12を車両20aの運転者が確認することで、自車両の前方に危険領域R2が存在することがわかる。車両20aの運転者は、車両20dの運転行動をより注視する、及び、車両20dとの車間距離を広げるなどの運転操作を行うことで、車両20dと衝突することを抑制することができる。
車両20bは、図13に示す予測経路上において、走行状態が危険域である車両20dと道路102上で交わるので、危険マップM13には危険領域R1に加え注意領域R3が表示される。そのため、図14Bに示すように、車両20bに対応する部分とは、車両20b、車両20c、危険領域R1、車両20e、及び、注意領域R3となる。なお、車両20bに送信される危険マップM13には、自車両(車両20b)が含まれていなくてもよい。
危険マップM13が車両20bに送信され(図6に示すS25に相当)、当該危険マップM13を車両20bの運転者が確認することで、自車両の予測経路に危険領域R1及び注意領域R3が存在することがわかる。車両20bの運転者は、無理に交差点103を右折しない、及び、交差点103を右折した後にスピードの上昇を抑えるなどの運転操作を行うことで、車両20c及び20eと衝突することを抑制することができる。なお、車両20bの運転者は、当該車両20bの走行ルートを変更してもよい。車両20bの運転者は、例えば、他の車両と衝突しない安全な走行経路である直進に進路を変更してもよい。
上記では、路側機30は、走行状態の判定結果を複数の車両20のそれぞれから取得する例について説明したが、これに限定されない。路側機30は、複数の車両20のそれぞれから当該車両20に対応する走行状態レーダチャートに示される項目のパラメータの値を通信部34を介して取得してもよい。そして、路側機30は、複数の車両20のそれぞれから取得したパラメータ値に基づいて、当該車両20の走行状態の判定を行う判定部(図示しない)を有し、当該判定部により複数の車両20の走行状態の判定結果が算出されてもよい。判定部は、例えば、制御部33に判定結果を出力する。制御部33は、取得した判定結果を危険マップ作成部32に出力する。この場合、制御部33は、判定結果を取得する取得部の一例である。路側機30自体が備える判定部により判定結果を算出し、判定結果を取得することは、判定結果を、路側機30を介して取得することに含まれる。
また、上記では、路側機30は、交差点103内に存在する複数の車両20のそれぞれから予測結果、第二の判定結果、第三の判定結果等を取得する例について説明したが、複数の車両20のうち2以上の車両20から予測結果、及び、判定結果等を取得すればよい。つまり、路側機30は、複数の車両20の全てから、予測結果、第二の判定結果、及び、第三の判定結果を取得しなくてもよい。また、路側機30は、例えば、予測結果、及び、判定結果を取得した2以上の車両20のそれぞれに危険マップを送信する。
[2-3.効果など]
以上説明したように、本実施の形態に係る交通情報処理システム100(情報処理システムの一例)において、通信部34(取得部の一例)は、2以上の車両20(移動体の一例)のそれぞれにおいて、当該車両20の走行状態(移動状態の一例)を示すパラメータの値が、走行安全性(移動安全性の一例)が高い安全域に収まっているか否かを判定した第二の判定結果をさらに取得する。そして、危険マップ作成部32は、第二の判定結果が安全域A1に収まっていない場合に、当該車両20の運転経路(移動体の移動経路の一例)を危険領域として示す危険マップを作成する。
以上説明したように、本実施の形態に係る交通情報処理システム100(情報処理システムの一例)において、通信部34(取得部の一例)は、2以上の車両20(移動体の一例)のそれぞれにおいて、当該車両20の走行状態(移動状態の一例)を示すパラメータの値が、走行安全性(移動安全性の一例)が高い安全域に収まっているか否かを判定した第二の判定結果をさらに取得する。そして、危険マップ作成部32は、第二の判定結果が安全域A1に収まっていない場合に、当該車両20の運転経路(移動体の移動経路の一例)を危険領域として示す危険マップを作成する。
これにより、運転経路の予測結果に加え、車両20の走行状態を考慮して危険マップを作成することができる。危険マップ作成部32は、衝突(接触の一例)の可能性のみでは判定することができない危険領域を危険マップ上に表示することができる。よって、本実施の形態に係る交通情報処理システム100は、車両20の走行における安全性をより向上することができる。
また、通信部34は、2以上の車両20のそれぞれにおいて、当該車両20の走行状態を示すパラメータの値が、走行安全性が安全域A1より低い危険域A3に達しているか否かを判定した第三の判定結果をさらに取得する。そして、危険マップ作成部32は、第三の判定結果が危険域A3に達している判定であった場合、第三の判定結果が危険域A3に達しておらず、かつ第二の判定結果が安全域A1に収まっていない判定であった場合に比べ、当該車両20の運転経路の危険領域の危険度を高く表示する。
これにより、危険マップにおける危険領域を、危険度に応じて表示することができる。危険マップ作成部32は、例えば、危険域A3に対応する領域を赤表示、注意域A2に対応する領域を黄表示等とすることで、ユーザに効果的に危険度合いを表示することができる。よって、本実施の形態に係る交通情報処理システム100は、車両20の走行における安全性をさらに向上することができる。
(実施の形態3)
以下、本実施の形態に係る交通情報処理システム200について、図15~図20を参照しながら説明する。実施の形態2に係る交通情報処理システム100は、予め設定された走行状態レーダチャートをそのまま使用していたが、本実施の形態に係る交通情報処理システム200は、車両20の外部環境に応じて各領域に変更を加えた走行状態レーダチャートを使用する。言い換えると、本実施の形態に係る交通情報処理システム200において、路側機30は、複数の車両20のそれぞれから、当該車両20の外部環境に応じて各領域に変更を加えた走行状態レーダチャートを用いて当該車両20の走行状態が判定された判定結果を取得する。なお、以下の説明では、実施の形態2と異なる点を中心に説明する。
以下、本実施の形態に係る交通情報処理システム200について、図15~図20を参照しながら説明する。実施の形態2に係る交通情報処理システム100は、予め設定された走行状態レーダチャートをそのまま使用していたが、本実施の形態に係る交通情報処理システム200は、車両20の外部環境に応じて各領域に変更を加えた走行状態レーダチャートを使用する。言い換えると、本実施の形態に係る交通情報処理システム200において、路側機30は、複数の車両20のそれぞれから、当該車両20の外部環境に応じて各領域に変更を加えた走行状態レーダチャートを用いて当該車両20の走行状態が判定された判定結果を取得する。なお、以下の説明では、実施の形態2と異なる点を中心に説明する。
[3-1.交通情報処理システムの構成]
図15は、本実施の形態に係る交通情報処理システム200及び車両120の機能構成を示すブロック図である。交通情報処理システム200は、情報処理システムの一例である。
図15は、本実施の形態に係る交通情報処理システム200及び車両120の機能構成を示すブロック図である。交通情報処理システム200は、情報処理システムの一例である。
図15に示すように、交通情報処理システム200は、複数の車両120と通信する路側機30とを備える。図1に示す交通情報処理システム10と異なるのは、車両120が外部環境情報取得部27をさらに備える点である。
外部環境情報取得部27は、車両20の周囲環境に関する情報である外部環境情報を取得する。外部環境情報は、車両20が走行する道路の渋滞情報、天候情報、時刻情報、事故歴情報、路面状況、道幅情報等の少なくとも1つを含む。渋滞情報は、交差点103付近を走行する車両の数を含む。天候情報は、曇り、雨、雪などを含む。時刻情報は、夕刻、夜間などを含む。路面状態は、ウェット、凍結などを含む。
外部環境情報取得部27は、例えばVICS(登録商標)(Vehicle Information and Communication System)によって渋滞情報を取得し、例えばインターネット等の通信網を介した通信によって天候情報及び事故歴情報を取得する。また、外部環境情報取得部27は、車両に設置した歪みセンサの出力又はセンサ21aが撮像した画像データの解析結果に基づいて、走行路の路面状態を取得する。また、外部環境情報取得部27は、地図情報取得部21eが取得した地図情報、又は、センサ21aが撮像した画像データの解析結果に基づいて、走行路の道幅を取得する。外部環境情報取得部27は、取得した外部環境情報を制御部23に出力する。制御部23は、取得した外部環境情報を記憶部26に格納する。
制御部23は、外部環境情報等の種々の情報に応じて、走行状態レーダチャートのクラスタリングされた領域である安全域A1、注意域A2及び危険域A3を変更する。記憶部26には、予め設定された走行状態レーダチャートが格納されている。この走行状態レーダチャートでは、安全域A1、注意域A2及び危険域A3が予め設定されている。つまり、走行状態レーダチャートは、デフォルト設定された安全域A1、注意域A2及び危険域A3を含む。以下において、この走行状態レーダチャートを、基準走行状態レーダチャートと記載する。制御部23は、記憶部26から基準走行状態レーダチャートを取得し、場合に応じて、基準走行状態レーダチャートの各領域を変更し、判定部22に出力する。判定部22は、変更後の走行状態レーダチャートに基づき、車両20の走行状態を判定する。
本実施の形態では、制御部23は、車両20が走行する道路情報、車両20の走行環境情報に応じて、基準走行状態レーダチャートの各領域を変更する。そして、上記の道路情報、及び、走行環境情報は、車両20の外部環境に含まれる。なお、外部環境は、道路情報及び走行環境情報のうちの少なくとも一つを含んでいればよい。また、走行環境情報は、移動体の移動環境情報の一例である。
車両20が走行する道路情報は、道路の幅、道路の車線数、道路の種類、道路の制限速度、道路の事故歴等を含む。制御部23は、例えば、道路の車線数、道路の種類及び道路の制限速度を、検出部21の位置情報取得部21cによる位置情報、及び、地図情報取得部21eによる地図情報を用いて、取得してもよい。道路の種類は、一般道、自動車専用道路、高速道路等の道路構造に関する種類を含んでもよく、生活道路、市街地道路、郊外道路、山間道路等の道路環境に関する種類を含んでもよい。制御部23は、道路の事故歴を、外部環境情報取得部27を介して取得するが、道路の事故歴が、地図情報取得部21eの地図情報に含まれていてもよい。外部環境情報取得部27は、位置情報取得部21cによる位置情報、及び、地図情報取得部21eによる地図情報を用いて、道路の事故歴を取得してもよい。
車両20の走行環境情報は、車両20が走行する道路の渋滞情報、天候情報、日時及び時間帯情報、並びに、路面状態を含む。制御部23は、外部環境情報取得部27を介して、渋滞情報、天候情報、日時及び時間帯情報、並びに、路面状態を取得する。
[3-2.交通情報処理システムの動作]
次に、制御部23による走行状態レーダチャートの変更例を図16~図18を参照しながら説明する。
次に、制御部23による走行状態レーダチャートの変更例を図16~図18を参照しながら説明する。
図16は、基準走行状態レーダチャートの一例を示す図である。図17は、車両20の走行道路の路面が凍結しているケースにおける走行状態レーダチャートの一例を示す図である。図18は、車両20の走行道路の通行量が少ないケースにおける走行状態レーダチャートの一例を示す図である。
車両20の走行道路が凍結している場合、制御部23は、図16の基準走行状態レーダチャートの安全域A1及び注意域A2を全体的に縮小し、図17の走行状態レーダチャートを作成する。具体的には、制御部23は、安全域A1の境界A12を全体的に中心Cに向かって移動し、注意域A2の境界A23を全体的に中心Cに向かって移動する。判定部22は、図17の走行状態レーダチャートを用いることによって、車両20の走行状態をより安全側の観点で判断することができる。
車両20が走行する道路の通行量が少ない(渋滞情報の一例)場合、制御部23は、図16の基準走行状態レーダチャートの安全域A1を全体的に拡大し、図18の走行状態レーダチャートを作成する。具体的には、制御部23は、安全域A1の境界A12を全体的に中心Cから離れる方向に向かって移動する。図18の走行状態レーダチャートは、車両20が少ないと、衝突する対象が少なくなる(つまり、衝突する可能性が低くなる)ので、安全に走行することができるとの考えに基づく。判定部22は、図18の走行状態レーダチャートを用いることによって、車両20の走行状態を注意域であると過剰に判断することを抑制することができる。
なお、制御部23は、車両20が走行する道路の天候が悪い(雨など)、時間帯が遅い(夜など)、及び、路面状態が悪い(例えば、凍結など)と、安全域A1及び注意域A2の少なくとも一方を、中心Cから近づく方向に移動させてもよい。また、制御部23は、道路の幅が狭い、道路の車線数が多い、道路の制限速度が低い、及び、道路の事故歴が多いほど、安全域A1及び注意域A2の少なくとも一方を、中心Cから近づく方向に移動させてもよい。
ここで、上記のような外部環境を考慮した場合の危険マップについて、図19及び図20を参照しながら説明する。一例として、車両20eの走行状態レーダチャートと、車両20bの危険マップについて説明する。例えば、交差点103付近の道路が凍結しており、かつ時間帯が夜であったとする。
図19は、第五の車両(車両20e)において外部環境を考慮した、本実施の形態に係る走行状態レーダチャートの一例を示す図である。
図19に示すように、制御部23は、外部環境を考慮することで、車両20eの走行状態レーダチャート(基準走行状態レーダチャート)の各領域を変更し、判定部22に出力する。具体的には、制御部23は、安全域A1の境界A12を全体的に中心Cに向かって移動し、注意域A2の境界A23を全体的に中心Cに向かって移動する。なお、走行状態ラインBは、図12Bに示すものと同じである。
判定部22は、図19の走行状態レーダチャートを用いることによって、車両20eの走行状態を、外部環境を考慮した上で判断することができる。図19に例では、自車加速度などが危険域A3に位置しているので、判定部22は、自車両(車両20e)の走行状態が危険状態であると判断する。判定部22は、例えば、予測結果と判定結果とを制御部23に出力する。そして、制御部23は、通信部24を介して、予測結果及び判定結果を路側機30に送信する。
図12Bの例では、判定部22は、自車両の走行状態を注意域であると判断していた。一方、本実施の形態のように、外部環境を考慮した走行状態レーダチャートを用いることで、判定部22は、自車両の走行状態が危険域であると判断することができる。判定部22は、現在の外部環境を考慮して走行状態を判断することができるので、判定部22による走行状態の判断の精度が向上する。
図20は、本実施の形態に係る路側機30が第二の車両(車両20b)に送信する危険マップM14の一例を示す図である。
図20に示すように、図14Bでは注意領域R3であった領域は、危険領域R4として表示される。車両20bの運転者は、交差点103を右折した後に、走行状態が危険状態である車両20eが存在することがわかる。
[3-3.効果など]
以上説明したように、本実施の形態に係る交通情報処理システム200(情報処理システムの一例)が備える通信部34(取得部の一例)が取得する第二の判定結果及び第三の判定結果は、2以上の車両20(移動体の一例)それぞれの外部環境に応じて、安全域A1であるか否かの境界の位置、及び、危険域A3であるか否かの境界の位置の少なくとも一方を変更して判定された結果である。
以上説明したように、本実施の形態に係る交通情報処理システム200(情報処理システムの一例)が備える通信部34(取得部の一例)が取得する第二の判定結果及び第三の判定結果は、2以上の車両20(移動体の一例)それぞれの外部環境に応じて、安全域A1であるか否かの境界の位置、及び、危険域A3であるか否かの境界の位置の少なくとも一方を変更して判定された結果である。
これにより、通信部34が外部環境を考慮して判定された車両20の走行状態を取得することができるので、通信部34を有する装置(例えば、路側機30)は、車両20の走行状態をより正確に把握することができる。よって、本実施の形態に係る交通情報処理システム200によれば、外部環境が考慮された、より正確な危険マップを作成することができるので、車両20の走行における安全性が向上する。
また、外部環境は、2以上の車両20が走行(移動の一例)する道路情報、及び、2以上の車両20それぞれの走行環境情報(移動環境情報の一例)のうちの少なくとも一つを含む。
これにより、上記構成において、上述のような情報は、車両20の周囲の環境の種々の情報を含み得る。車両20の周囲の環境により緻密に対応した複数の領域A1~A3の変更が、可能になる。
(実施の形態4)
以下、本実施の形態に係る交通情報処理システム300について、図21~図23を参照しながら説明する。実施の形態1に係る交通情報処理システム10は、車両20同士の衝突を抑制していたが、本実施の形態に係る交通情報処理システム300は、さらに車両20と歩行者との衝突(接触の一例)も抑制する。なお、以下の説明では、実施の形態1と異なる点を中心に説明する。
以下、本実施の形態に係る交通情報処理システム300について、図21~図23を参照しながら説明する。実施の形態1に係る交通情報処理システム10は、車両20同士の衝突を抑制していたが、本実施の形態に係る交通情報処理システム300は、さらに車両20と歩行者との衝突(接触の一例)も抑制する。なお、以下の説明では、実施の形態1と異なる点を中心に説明する。
[4-1.交通情報処理システムの構成]
まず、本実施の形態に係る交通情報処理システム300の構成を、図21及び図22を参照しながら説明する。
まず、本実施の形態に係る交通情報処理システム300の構成を、図21及び図22を参照しながら説明する。
図21は、本実施の形態に係る交通情報処理システム300を含む概略構成を示す図である。交通情報処理システム300は、情報処理システムの一例である。
図21に示すように、交通情報処理システム300は、複数の車両20a~20c、及び、1以上の携帯端末50と通信する路側機30を備える。なお、路側機30と通信する車両20、及び、携帯端末50の数は特に限定されない。
図21は、ある瞬間の交差点103付近の道路101及び102の状況として、交差点103付近を走行中の車両20a~20cと、交差点103付近にいる歩行者40a及び40bが示される。車両20a~20cの予測経路などは、実施の形態1と同様であり、説明を省略する。
歩行者40aは、路側機30と通信(例えば、無線通信)可能な携帯端末50を所持する人である。歩行者40bは、携帯端末50を所持しない人である。本実施の形態では、路側機30と通信可能な携帯端末50は、移動体の一例である。また、携帯端末50を所持しない歩行者40bは、外部環境に含まれる。例えば、路側機30が複数の車両20それぞれの走行状態の判定を行う場合、交差点103付近に歩行者40bが存在すると、制御部33は、基準走行状態レーダチャートの安全域A1及び注意域A2を全体的に縮小した走行状態レーダチャートを作成してもよい。なお、歩行者40a及び40bは、自転車を運転していてもよい。なお、携帯端末50は、情報センタ又はサーバなどと通信可能であってもよい。この場合、情報センタなどに設置される通信部は、予測結果等を取得する取得部の一例である。
なお、携帯端末50を所持するとは、歩行者40aが携帯端末50を装着することを含む。また、歩行者40aがペット又はロボット等とともに移動しており、かつ、当該ペット又はロボット等が携帯端末50を有する(例えば、装着されている)ことは、歩行者40aが携帯端末50を所持することに含まれる。
図22は、本実施の形態に係る交通情報処理システム200、車両20及び携帯端末50の機能構成を示すブロック図である。
図22に示すように、交通情報処理システム300が備える路側機30は、実施の形態1の交通情報処理システム10が備える路側機30に加えて、さらに携帯端末50と通信する。携帯端末50は、歩行者が持ち運び可能な端末装置であり、例えば、スマートフォンであってもよいし、タブレットであってもよいし、携帯型のゲーム機であってもよい。また、携帯端末50は、路側機30と通信可能なその他の端末装置であってもよい。
携帯端末50は、検出部51、制御部52、表示部53、通信部54、及び、記憶部55を備える。検出部51、制御部52等の構成要素は、専用のハードウェアで構成されてもよく、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
検出部51は、歩行者40aの歩行状態を検出する。そして、検出部51は、検出した歩行状態を制御部52に出力する。検出部51は、例えば、センサ51aと、位置情報取得部51bと、地図情報取得部51cとを有する。
センサ51aは、歩行者の歩行状態を検出する。具体的には、センサ51aは、歩行者40aが周囲への注意を怠っているか否かを検出する。つまり、センサ51aは、安全に歩行しているか否かを検出する。センサ51aは、例えば、歩行者40aが携帯端末50を操作しているか否かを判定することで、歩行者40aが安全に歩行しているか否かを検出する。センサ51aは、例えば、携帯端末50が備える撮像部(図示しない)が撮像した画像の画像解析を行う(例えば、歩行者40aの視線の方向を特定する)ことで、上記の判定を行ってもよい。また、センサ51aは、携帯端末50が備えるタッチパネルなどのユーザインターフェースが操作されているか否かで、上記の判定を行ってもよい。
位置情報取得部51bは、GPSセンサのGPS測位結果等により、当該携帯端末50(つまり、歩行者40a)の位置情報を取得する。
地図情報取得部51cは、歩行者40aの周囲の状況を示す地図情報を取得する。地図情報取得部51cは、上記地図情報として、例えば、歩行者が歩行する歩道、歩道の幅、道路、道路における交差点の位置等を含む地図情報を取得する。
制御部52は、携帯端末50の各種構成要素を制御する制御装置である。制御部52は、検出部51から取得した情報を通信部54を介して路側機30に送信する。制御部52は、さらに検出部51から取得した情報を記憶部55に格納してもよい。また、制御部52は、表示部53の表示画面に、路側機30から受信した情報(例えば、危険マップ)を表示する。
表示部53は、路側機30から受信した情報を表示する表示装置である。表示部53は、UI(User Interface)ディスプレイ等であってよく、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、有機若しくは無機EL(Electro Luminescence)ディスプレイである。
通信部54は、路側機30の通信部34と通信する通信インターフェースである。通信部54と通信部34との通信は、無線により行われる。
記憶部55は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置、SSD(Solid State Drive)等の記憶装置であってよい。記憶部55は、検出部51の検出結果、路側機30から受信する情報等の種々の情報を記憶する。
[4-2.交通情報処理システムの動作]
本実施の形態に係る交通情報処理システム300の動作について、図23を参照しながら説明する。具体的には、路側機30で作成される危険マップについて説明する。なお、歩行者40aが携帯端末50を操作していることを示す情報、つまり歩行者40aが周囲への注意を怠っていることを示す情報が、携帯端末50から路側機30に送信されているとする。なお、歩行者40aが周囲への注意を怠っていることを示す情報は、携帯端末50から路側機30に送信される歩行者情報に含まれる。また、歩行者情報は、歩行者の進行方向及び速度を含んでいてもよい。制御部52は、例えば、地図情報における歩行者40aの位置と、歩行者40aが向いている方向とから、歩行者の進行方向を予測してもよい。制御部52は、例えば、さらに、歩行者40aの歩行経路(移動経路の一例)の予測結果を路側機30に送信してもよい。
本実施の形態に係る交通情報処理システム300の動作について、図23を参照しながら説明する。具体的には、路側機30で作成される危険マップについて説明する。なお、歩行者40aが携帯端末50を操作していることを示す情報、つまり歩行者40aが周囲への注意を怠っていることを示す情報が、携帯端末50から路側機30に送信されているとする。なお、歩行者40aが周囲への注意を怠っていることを示す情報は、携帯端末50から路側機30に送信される歩行者情報に含まれる。また、歩行者情報は、歩行者の進行方向及び速度を含んでいてもよい。制御部52は、例えば、地図情報における歩行者40aの位置と、歩行者40aが向いている方向とから、歩行者の進行方向を予測してもよい。制御部52は、例えば、さらに、歩行者40aの歩行経路(移動経路の一例)の予測結果を路側機30に送信してもよい。
図23は、路側機30の危険マップ作成部32が車両20cに送信する危険マップM15である。危険マップM15は、個別危険マップである。
危険マップ作成部32は、携帯端末50から歩行者40aが携帯端末50を操作していることを示す情報を受信した場合、当該歩行者40aの周囲を危険領域として表示する。図23に示すように、歩行者40aの周囲の道路101の領域を危険領域R5として表示している。また、例えば、歩行者40aが横断歩道の前にいる場合は、当該横断歩道の領域を危険領域として表示してもよい。なお、横断歩道は、歩行者40aの歩行経路の一例である。また、歩行経路は、携帯端末50から路側機30に送信される歩行者情報に含まれる。
車両20cの予測経路上に危険領域R5が存在するので、車両20cに送信される危険マップM15には、歩行者40a及び危険領域R5が表示される。
なお、歩行者40bは、危険マップ上に表示されてもよいし、表示されなくてもよい。危険マップ作成部32は、例えば、路側機30のセンサ31aの撮像画像から歩行者40bの位置を特定し、危険マップ上において当該特定した位置に対応する位置に歩行者40bを表示してもよい。
なお、危険マップ作成部32は、歩行者40aに対応する個別危険マップ(図示しない)を作成してもよい。歩行者40aに対応する個別危険マップには、車両20c、車両20cの予測経路、及び、危険領域R5が表示される。制御部33は、通信部34を介して当該個別危険マップを携帯端末50に送信する。
上記のように、危険マップ作成部32は、歩行者40aを含む危険マップM15を作成することができるので、より安全に運転することができる危険マップM15を作成することができる。つまり、危険マップ作成部32は、車両20が衝突することをより抑制することができる危険マップM15を作成することができる。
また、上記では、路側機30は、交差点103内に存在する複数の車両20のそれぞれから予測結果等を取得する例について説明したが、複数の車両20のうち2以上の車両20から予測結果を取得すればよい。つまり、路側機30は、複数の車両20の全てから、予測結果を取得しなくてもよい。また、路側機30は、交差点103内で携帯端末50を所持する歩行者が複数存在する場合、複数の歩行者のうちの1以上の歩行者から情報を取得すればよい。
なお、上記では、交通情報処理システム300は、車両20と歩行者40aとの衝突における危険マップを作成する例について説明したが、これに限定されない。交通情報処理システム300は、複数の歩行者(例えば、歩行者40a及び40bであり、移動体の一例)の歩行(移動の一例)における安全性を向上させる情報処理システムであってもよい。
当該情報処理システムは、無線通信可能な複数の携帯端末50を含む。そして、携帯端末50は、複数の携帯端末50のうちの2以上の携帯端末50のそれぞれにおける、当該携帯端末50を所持する歩行者(例えば、歩行者40a)の歩行経路(移動経路の一例)を予測する。携帯端末50は、例えば、歩行者情報に基づいて、当該歩行者の歩行経路を予測する。具体的には、携帯端末50は、歩行者に対応した歩行予測のための機械学習データを構築する学習部を有する判定部(図示しない)を備え、学習部によって構築された歩行行動予測NNに、歩行者情報等をテストデータとして入力することによって、入力した情報に対応する歩行行動を予測結果(予測歩行行動)として出力する。
歩行行動の予測結果(携帯端末50の移動における予測結果)は、例えば、歩行者の進行方向及び速度に関する歩行者情報と、当該歩行者の状態に関する状態情報(例えば、歩行者が周囲への注意を怠っていることを示す情報)とに基づく情報である。携帯端末50の判定部は、例えば、所定時間経過後の歩行行動の予測結果を制御部52に出力する。所定時間経過後とは、例えば、数秒後である。なお、判定部は、少なくとも歩行者情報に基づいて予測結果を出力すればよい。移動情報は、少なくとも歩行者情報を含んでいればよいが、より精度よく予測結果を出力する観点から、歩行者情報及び状態情報の両方を含んでいるとよい。
そして、複数の携帯端末50のそれぞれは、当該携帯端末50の予測結果を、例えば路側機30に送信する。危険マップ作成部32は、予測結果を用いて2以上の携帯端末50の接触の可能性(例えば、当該携帯端末50を所持する歩行者の接触の可能性)を判定した第一の判定結果に基づいて、2以上の歩行者のそれぞれごとに、所定範囲内における当該歩行者の歩行(移動の一例)における危険領域を示す危険マップを作成してもよい。なお、歩行者の接触とは、例えば、歩行者同士の接触、及び、歩行者と電柱又は壁などの固定された障害物との接触を含む。
携帯端末50の判定部は、さらに、歩行者の歩行状態が安全域、注意域及び危険域のいずれに属するかを判断してもよい。判定部は、この判断に、記憶部55に格納されている歩行状態レーダチャートを用いる。歩行状態レーダチャートは、図12Aに示す走行状態レーダチャートAaの項目軸が歩行状態に対応する項目軸に変更されたレーダチャートである。自車速度を例に説明すると、自車速度は、歩行状態レーダチャートにおいて歩行者の歩行速度に変更される。なお、歩行状態は、移動状態の一例である。
携帯端末50の判定部は、歩行状態レーダチャートにおいて、少なくとも1つの項目の値が危険域に含まれる場合、歩行者の歩行状態が危険状態であると判断する。言い換えると、判定部は、歩行者の歩行状態を示すパラメータの値を歩行安全性に基づく複数の領域A1、A2、及び、A3で分類し、少なくとも1つのパラメータ値が危険域A3に含まれる場合、歩行者の歩行状態が危険状態であると判断する。判定部は、例えば、予測結果に加え、歩行状態レーダチャートによる歩行状態の判定結果を制御部52に出力する。そして、制御部52は、通信部54を介して、予測結果に加え、判定結果を路側機30に送信する。歩行安全性は、移動安全性の一例である。
また、歩行者の外部環境に応じて各領域に変更を加えた歩行状態レーダチャートを用いて、上記の歩行状態の判断が実施されてもよい。携帯端末50は、携帯端末50の周囲環境に関する情報である外部環境情報を取得する。外部環境情報は、歩行者が歩行する歩道の混雑情報、天候情報、時刻情報、事故歴情報、路面状況、道幅情報等の少なくとも1つを含む。混雑情報は、交差点103付近を歩行する歩行者の人数を含む。天候情報は、曇り、雨、雪などを含む。時刻情報は、夕刻、夜間などを含む。路面状態は、ウェット、凍結などを含む。また、ここでの外部環境情報は、移動体の移動環境情報の一例である。
制御部52は、外部環境情報等の種々の情報に応じて、歩行状態レーダチャートのクラスタリングされた領域である安全域A1、注意域A2及び危険域A3を変更する。例えば、記憶部55には、予め設定された歩行状態レーダチャートが格納されている。この歩行状態レーダチャートでは、安全域A1、注意域A2及び危険域A3が予め設定されている。つまり、歩行状態レーダチャートは、デフォルト設定された安全域A1、注意域A2及び危険域A3を含む。以下において、この歩行状態レーダチャートを、基準歩行状態レーダチャートと記載する。制御部52は、記憶部55から基準歩行状態レーダチャートを取得し、場合に応じて、基準歩行状態レーダチャートの各領域を変更し、判定部に出力する。判定部は、変更後の歩行状態レーダチャートに基づき、歩行者の歩行状態を判定する。
[4-3.効果など]
以上説明したように、本実施の形態に係る交通情報処理システム300が備える複数の移動体は、無線通信可能な複数の携帯端末50を含んでもよい。そして、移動情報は、複数の携帯端末50のうちの2以上の携帯端末50のそれぞれにおける、当該携帯端末50を所持する歩行者の状態に関する歩行者情報を含んでもよい。
以上説明したように、本実施の形態に係る交通情報処理システム300が備える複数の移動体は、無線通信可能な複数の携帯端末50を含んでもよい。そして、移動情報は、複数の携帯端末50のうちの2以上の携帯端末50のそれぞれにおける、当該携帯端末50を所持する歩行者の状態に関する歩行者情報を含んでもよい。
これにより、移動体が車両20である場合、2以上の携帯端末50のそれぞれは、当該携帯端末50では知り得ない他携帯端末を所持する歩行者の歩行行動(移動の一例)の予測結果を含む危険マップを取得することができる。例えば、携帯端末50は、路側機で撮像された画像を取得する場合に比べ、他携帯端末の情報をより多く取得することができる。歩行者は、受信した危険マップを用いることで、他歩行者の歩行行動をふまえ自分の歩行行動を変更するなどの対応を行うことができる。よって、本実施の形態に係る交通情報処理システム300(情報処理システムの一例)によれば、携帯端末50(移動体の一例)を所持する歩行者の歩行(移動の一例)における安全性を向上することができる。
また、以上のように、本実施の形態に係る交通情報処理システム300が備える複数の移動体は、さらに、無線通信可能な複数の携帯端末50を含む。そして、移動情報は、さらに、複数の携帯端末50のうちの2以上の携帯端末50のそれぞれにおける、当該携帯端末50を所持する歩行者の状態に関する歩行者情報を含み、第一の判定結果は、2以上の車両20と複数の携帯端末50のそれぞれとの衝突(接触の一例)の有無の判定を含む。
これにより、2以上の車両20と歩行者40aとが衝突する可能性がある場合に、危険マップ作成部32において、当該可能性を考慮した危険マップが作成される。よって、本実施の形態に係る交通情報処理システム300によれば、車両20と車両20との衝突に加え、車両20と歩行者40aとの衝突も抑制することができるので、車両20の走行における安全性がさらに向上する。
また、危険マップ作成部32は、歩行者情報に当該歩行者40aが周囲への注意を怠っていることを示す情報が含まれている場合に、当該歩行者40aの歩行経路(移動経路の一例)を危険領域として危険マップを作成する。
これにより、歩行者40aが歩行において周囲への注意を怠っている場合に、車両20の運転者に歩行者40aが危険であることを知らせることができる。よって、交通情報処理システム300によれば、交差点103付近に存在する歩行者の周囲への注意度合いに応じた危険マップを作成することができる。
(その他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これらに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態の変形例又は他の実施の形態にも適用可能である。また、実施の形態で説明する各構成要素を組み合わせて、新たな実施の形態又は変形例とすることも可能である。
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これらに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態の変形例又は他の実施の形態にも適用可能である。また、実施の形態で説明する各構成要素を組み合わせて、新たな実施の形態又は変形例とすることも可能である。
例えば、上記実施の形態において、学習部が行っていた運転行動予測NNの構築及び学習は、サーバ装置が行ってもよい。例えば、サーバ装置は、サーバ装置に格納されたデータを使用して、運転行動予測NNにおけるノード間の重み付けの調整を行ってもよい。そして、学習部又は運転行動予測部は、サーバ装置が調整した重み付けのデータを、サーバ装置からダウンロードしてもよい。
また、上実施の形態に係る学習部は、車両の運転者の運転履歴から当該運転者のニューラルネットワークを構築する例について説明したが、これに限定されない。学習部は、車両の運転者の走行履歴から当該運転者のニューラルネットワークを構築してもよい。
また、上記実施の形態に係る路側機は、当該路側機のセンサが撮像した画像から交差点付近に存在する移動体が1以下であった場合、危険マップを作成しなくてもよい。
また、上記実施の形態では、左側通行を採用している国における車両に着目して説明したが、本開示は右側通行を採用している国における車両にも適用することができる。したがって、上記の説明における「右折」は、「左折」と読み替えることができる。
また、上記実施の形態に係る交通情報処理システム等に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
さらに、本開示の技術は上記プログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
また、上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。また、構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを1つの機能ブロックとして実現したり、1つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
本開示の交通情報処理システム等は、車両等の運転に関する情報を処理する装置又はシステムに適用することができる。
10、100、200、300 交通情報処理システム(情報処理システム)
20、20a~20e、120 車両(移動体)
21、31、51 検出部
21a、21b、31a、51a センサ
21c、31b、51b 位置情報取得部
21d 車両情報取得部
21e、31c、51c 地図情報取得部
22 判定部
22a 学習部
22b 運転行動予測部
23、33、52 制御部
24、54 通信部
25、53 表示部
26、35、55 記憶部
27 外部環境情報取得部
30 路側機
32 危険マップ作成部
34 通信部(取得部)
40a、40b 歩行者
50 携帯端末(移動体)
101、102 道路
103 交差点
A1 安全域
A2 注意域
A3 危険域
M1~M5、M11~M15 危険マップ
R1、R2、R4、R5 危険領域
R3 注意領域
20、20a~20e、120 車両(移動体)
21、31、51 検出部
21a、21b、31a、51a センサ
21c、31b、51b 位置情報取得部
21d 車両情報取得部
21e、31c、51c 地図情報取得部
22 判定部
22a 学習部
22b 運転行動予測部
23、33、52 制御部
24、54 通信部
25、53 表示部
26、35、55 記憶部
27 外部環境情報取得部
30 路側機
32 危険マップ作成部
34 通信部(取得部)
40a、40b 歩行者
50 携帯端末(移動体)
101、102 道路
103 交差点
A1 安全域
A2 注意域
A3 危険域
M1~M5、M11~M15 危険マップ
R1、R2、R4、R5 危険領域
R3 注意領域
Claims (19)
- 所定範囲内に存在する複数の移動体のうちの2以上の移動体のそれぞれにおける、当該移動体に関する移動情報に基づく当該移動体の移動の予測結果を取得する取得部と、
前記予測結果を用いて前記2以上の移動体の接触の可能性を判定した第一の判定結果に基づいて、前記2以上の移動体のそれぞれごとに、前記所定範囲内における当該移動体の移動における危険領域を示す危険マップを作成する危険マップ作成部と、
前記2以上の移動体のそれぞれに、当該移動体に応じた危険マップを送信する制御を行う制御部とを備える
情報処理システム。 - 前記2以上の移動体のそれぞれごとに作成される前記危険マップは、当該危険マップに対応する移動体の移動経路に関連性がある移動体の情報を含む
請求項1に記載の情報処理システム。 - 前記取得部は、前記2以上の移動体のそれぞれにおいて、当該移動体の移動状態を示すパラメータの値が、移動安全性が高い安全域に収まっているか否かを判定した第二の判定結果をさらに取得し、
前記危険マップ作成部は、前記第二の判定結果が前記安全域に収まっていない場合に、当該移動体の移動経路を危険領域として示す前記危険マップを作成する
請求項1又は2に記載の情報処理システム。 - 前記取得部は、前記2以上の移動体のそれぞれにおいて、当該移動体の移動状態を示すパラメータの値が、移動安全性が前記安全域より低い危険域に達しているか否かを判定した第三の判定結果をさらに取得し、
前記危険マップ作成部は、前記第三の判定結果が前記危険域に達している判定であった場合、前記第三の判定結果が前記危険域に達しておらず、かつ前記第二の判定結果が前記安全域に収まっていない判定であった場合に比べ、当該移動体の移動経路の危険度を高く表示する
請求項3に記載の情報処理システム。 - 前記取得部が取得する前記第二の判定結果及び前記第三の判定結果は、前記2以上の移動体それぞれの外部環境に応じて、前記安全域であるか否かの境界の位置、及び、前記危険域であるか否かの境界の位置の少なくとも一方を変更して判定された結果である
請求項4に記載の情報処理システム。 - 前記外部環境は、前記2以上の移動体が移動する道路情報、及び、前記2以上の移動体の移動環境情報のうちの少なくとも一つを含む
請求項5に記載の情報処理システム。 - 前記制御部は、前記第一の判定結果において接触しないと判定された移動体には、当該移動体に対応する危険マップの送信を停止する
請求項1~6のいずれか1項に記載の情報処理システム。 - 前記取得部は、前記2以上の移動体のそれぞれから前記予測結果を取得する
請求項1~7のいずれか1項に記載の情報処理システム。 - さらに、前記複数の移動体と通信する路側機を備え、
前記路側機は、前記取得部、前記危険マップ作成部、及び、前記2以上の移動体のそれぞれから取得した前記移動情報に基づいて当該移動体の移動の予測を行う判定部を有し、
前記取得部は、前記判定部から前記予測結果を取得する
請求項1~7のいずれか1項に記載の情報処理システム。 - 前記複数の移動体は、複数の車両を含み、
前記移動情報は、前記複数の車両のうちの2以上の車両のそれぞれにおける、当該車両の走行状態に関する車両情報と、当該車両の運転者の状態に関するドライバ情報とを含む
請求項1~9のいずれか1項に記載の情報処理システム。 - 前記車両情報は、車両のタイプを含む
請求項10に記載の情報処理システム。 - 前記車両情報は、前記2以上の車両のそれぞれにおいて、当該車両の速度情報、及び、当該車両の操舵角情報の少なくとも一つを含む
請求項10又は11に記載の情報処理システム。 - 前記ドライバ情報は、前記2以上の車両のそれぞれにおいて、当該車両を運転する運転者の運転に対する集中度合い、及び、居眠り度合いの少なくとも一方を含む
請求項10~12のいずれか1項に記載の情報処理システム。 - 前記複数の移動体は、無線通信可能な複数の携帯端末を含み、
前記移動情報は、前記複数の携帯端末のうちの2以上の携帯端末のそれぞれにおける、当該携帯端末を所持する人の状態に関する歩行者情報を含む
請求項1~9のいずれか1項に記載の情報処理システム。 - 前記複数の移動体は、さらに、無線通信可能な複数の携帯端末を含み、
前記移動情報は、さらに、前記複数の携帯端末のうちの2以上の携帯端末のそれぞれにおける、当該携帯端末を所持する人の状態に関する歩行者情報を含み、
前記第一の判定結果は、前記2以上の車両と前記複数の携帯端末のそれぞれとの接触の有無の判定を含む
請求項10~13のいずれか1項に記載の情報処理システム。 - 前記危険マップ作成部は、前記歩行者情報に当該歩行者が周囲への注意を怠っていることを示す情報が含まれている場合に、当該歩行者の歩行経路を危険領域として前記危険マップを作成する
請求項14又は15に記載の情報処理システム。 - 前記取得部が取得する前記予測結果は、前記2以上の移動体のそれぞれにおいて、機械学習を用いて、当該移動体に関する前記移動情報から予測された結果である
請求項1~16のいずれか1項に記載の情報処理システム。 - 所定範囲内に存在する複数の移動体のうちの2以上の移動体のそれぞれにおける、当該移動体の移動に関する情報に基づく当該移動体の移動の予測結果を取得する取得ステップと、
前記2以上の移動体のそれぞれから取得した前記予測結果を用いて前記2以上の移動体の接触の可能性を判定した判定結果に基づいて、前記2以上の移動体のそれぞれごとに、前記所定範囲内における当該移動体の移動における危険領域を示す危険マップを作成する危険マップ作成ステップと、
前記2以上の移動体のそれぞれに、当該移動体に応じた危険マップを送信する送信ステップとを含む
情報処理方法。 - 請求項18に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104080 | 2018-05-30 | ||
JP2018-104080 | 2018-05-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019230683A1 true WO2019230683A1 (ja) | 2019-12-05 |
Family
ID=68698168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/021002 WO2019230683A1 (ja) | 2018-05-30 | 2019-05-28 | 情報処理システム、情報処理方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2019230683A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113362646A (zh) * | 2020-03-05 | 2021-09-07 | 本田技研工业株式会社 | 信息处理装置、车辆、计算机可读存储介质以及信息处理方法 |
CN115497333A (zh) * | 2021-06-18 | 2022-12-20 | 本田技研工业株式会社 | 控制装置、移动体、控制方法和计算机可读存储介质 |
JP7484587B2 (ja) | 2020-08-31 | 2024-05-16 | 沖電気工業株式会社 | 交通監視装置、交通監視システム、交通監視方法、および交通監視プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008015966A1 (fr) * | 2006-08-04 | 2008-02-07 | Panasonic Corporation | Indicateur d'informations de collision et procédé associé |
JP2015225366A (ja) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | 事故防止システム、事故防止装置、事故防止方法 |
JP2016115143A (ja) * | 2014-12-15 | 2016-06-23 | 株式会社デンソー | 軌道判定方法、軌道設定装置、自動運転システム |
JP2018010661A (ja) * | 2013-03-25 | 2018-01-18 | エイディシーテクノロジー株式会社 | 車両 |
JP2018513504A (ja) * | 2015-02-10 | 2018-05-24 | ライダー システムズ エルエルシーRidar Systems Llc | 自動車に対する近接認識システム |
-
2019
- 2019-05-28 WO PCT/JP2019/021002 patent/WO2019230683A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008015966A1 (fr) * | 2006-08-04 | 2008-02-07 | Panasonic Corporation | Indicateur d'informations de collision et procédé associé |
JP2018010661A (ja) * | 2013-03-25 | 2018-01-18 | エイディシーテクノロジー株式会社 | 車両 |
JP2015225366A (ja) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | 事故防止システム、事故防止装置、事故防止方法 |
JP2016115143A (ja) * | 2014-12-15 | 2016-06-23 | 株式会社デンソー | 軌道判定方法、軌道設定装置、自動運転システム |
JP2018513504A (ja) * | 2015-02-10 | 2018-05-24 | ライダー システムズ エルエルシーRidar Systems Llc | 自動車に対する近接認識システム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113362646A (zh) * | 2020-03-05 | 2021-09-07 | 本田技研工业株式会社 | 信息处理装置、车辆、计算机可读存储介质以及信息处理方法 |
JP7484587B2 (ja) | 2020-08-31 | 2024-05-16 | 沖電気工業株式会社 | 交通監視装置、交通監視システム、交通監視方法、および交通監視プログラム |
CN115497333A (zh) * | 2021-06-18 | 2022-12-20 | 本田技研工业株式会社 | 控制装置、移动体、控制方法和计算机可读存储介质 |
CN115497333B (zh) * | 2021-06-18 | 2024-02-23 | 本田技研工业株式会社 | 控制装置、移动体、控制方法和计算机可读存储介质 |
US12106669B2 (en) | 2021-06-18 | 2024-10-01 | Honda Motor Co., Ltd. | Control apparatus, movable object, control method, and computer readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230319140A1 (en) | Smart car | |
US11126877B2 (en) | Predicting vehicle movements based on driver body language | |
US11958504B2 (en) | Method and apparatus for controlling a vehicle's driving operation using advance information | |
US11181929B2 (en) | System and method for shared autonomy through cooperative sensing | |
JP7517835B2 (ja) | 不明瞭な路上障害物の回避 | |
CN110036425B (zh) | 用于操纵车辆的方法和系统以及非暂时性计算机可读介质 | |
US11472291B2 (en) | Graphical user interface for display of autonomous vehicle behaviors | |
US20210108926A1 (en) | Smart vehicle | |
KR102402293B1 (ko) | 자율 주행 차량 거동을 디스플레이하기 위한 그래픽 사용자 인터페이스 | |
EP3516468B1 (en) | Automatic autonomous driving of a vehicle | |
US20200398743A1 (en) | Method and apparatus for learning how to notify pedestrians | |
US20170174261A1 (en) | Vehicle Turn Signal Detection | |
KR102511954B1 (ko) | 선형 시간 논리를 사용한 자율 주행 차량 동작 | |
JPWO2019035300A1 (ja) | 車両走行制御装置、および車両走行制御方法、並びにプログラム | |
JP2018135069A (ja) | 情報処理システム、情報処理方法及びプログラム | |
KR102555318B1 (ko) | 조건부 움직임 예측 | |
JP2018135068A (ja) | 情報処理システム、情報処理方法及びプログラム | |
WO2019230683A1 (ja) | 情報処理システム、情報処理方法、及び、プログラム | |
KR20240087776A (ko) | 차량 운전자에 관련 경고들을 제시 | |
Sharkawy et al. | Comprehensive evaluation of emerging technologies of advanced driver assistance systems: An overview | |
US11926259B1 (en) | Alert modality selection for alerting a driver | |
Manichandra et al. | Advanced Driver Assistance Systems | |
WO2023187718A1 (en) | Adaptive advanced driver-assistance system (adas) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19812096 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19812096 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |