[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2018070021A1 - 駐車支援方法及び駐車支援装置 - Google Patents

駐車支援方法及び駐車支援装置 Download PDF

Info

Publication number
WO2018070021A1
WO2018070021A1 PCT/JP2016/080386 JP2016080386W WO2018070021A1 WO 2018070021 A1 WO2018070021 A1 WO 2018070021A1 JP 2016080386 W JP2016080386 W JP 2016080386W WO 2018070021 A1 WO2018070021 A1 WO 2018070021A1
Authority
WO
WIPO (PCT)
Prior art keywords
parking
target position
surrounding situation
map
parking target
Prior art date
Application number
PCT/JP2016/080386
Other languages
English (en)
French (fr)
Inventor
山口 一郎
早川 泰久
沖 孝彦
Original Assignee
日産自動車株式会社
ルノー エス.ア.エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス.ア.エス. filed Critical 日産自動車株式会社
Priority to BR112019007398-1A priority Critical patent/BR112019007398B1/pt
Priority to PCT/JP2016/080386 priority patent/WO2018070021A1/ja
Priority to KR1020197013035A priority patent/KR102154510B1/ko
Priority to EP16918946.1A priority patent/EP3527448B1/en
Priority to MX2019004331A priority patent/MX2019004331A/es
Priority to RU2019113789A priority patent/RU2721437C1/ru
Priority to CA3041176A priority patent/CA3041176C/en
Priority to US16/341,282 priority patent/US11273821B2/en
Priority to MYPI2019002016A priority patent/MY183262A/en
Priority to JP2018544646A priority patent/JP7122968B2/ja
Priority to CN201680090073.1A priority patent/CN109843677B/zh
Publication of WO2018070021A1 publication Critical patent/WO2018070021A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/06Automatic manoeuvring for parking

Definitions

  • the present invention relates to a parking support method and a parking support device for executing automatic parking.
  • an object of the present invention is to provide a parking support method and a parking support apparatus that can store a surrounding situation of a parking target position suitable for reference during automatic parking.
  • the surrounding situation of the parking target position for reference when executing automatic parking is stored.
  • the surrounding situation of the parking target position is detected, and the detected surrounding situation is presented to the occupant.
  • a parking support method and a parking support device for storing the surrounding situation are provided when the suitability input by the occupant with respect to the presented surrounding situation is received and the suitability input that the occupant is suitable for is obtained.
  • the surrounding situation is stored when the suitability input that the occupant is suitable for is obtained, the surrounding situation of the parking target position suitable for referring to the automatic parking can be stored.
  • a support method and a parking support device can be provided.
  • FIG. 2A is a schematic view showing a state around a parking target position according to the first embodiment of the present invention
  • FIG. 2B is a schematic view showing a state of parking at the parking target position.
  • FIG. 4A is a schematic diagram illustrating a state around a parking target position according to a comparative example
  • FIG. 4B is a schematic diagram illustrating a state in which an environment map cannot be correctly generated.
  • first and second embodiments of the present invention will be described with reference to the drawings.
  • the same or similar parts are affixed with the same or similar reference numerals.
  • the drawings are schematic, and the relationship between the thickness and the planar dimensions, the ratio of the thickness, and the like are different from the actual ones.
  • portions having different dimensional relationships and ratios are included between the drawings.
  • the first and second embodiments shown below exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is a material of a component.
  • the shape, structure, arrangement, etc. are not specified as follows.
  • the technical idea of the present invention can be variously modified within the technical scope defined by the claims described in the claims.
  • the parking assistance apparatus according to the first embodiment of the present invention can be mounted on a vehicle (hereinafter, the vehicle equipped with the parking assistance apparatus according to the first embodiment of the present invention is referred to as “own vehicle”).
  • the parking assist apparatus according to the first embodiment of the present invention includes a control device (controller) 1, an ambient condition sensor 2, a vehicle condition sensor 3, an input device (interface) 4, a storage device 5, and A presentation device 6 is provided.
  • the ambient situation sensor 2 detects the ambient situation of the host vehicle including the front situation, the rear situation, and the side situation of the own vehicle.
  • the surroundings of the host vehicle that can be detected by the surroundings sensor 2 are features such as buildings, walls, pillars, signs, other vehicles, bicycles and other stationary solid objects (obstacles), white lines on the road, and parking frames ( Landmark).
  • the surrounding situation sensor 2 illustrates a case where the camera 2a and the laser radar 2b are provided, the type and number of the surrounding situation sensors 2 are not particularly limited.
  • the vehicle status sensor 3 includes a wheel speed sensor 3a and a yaw rate sensor 3b.
  • the wheel speed sensor 3a detects the wheel speed of the host vehicle, and outputs the detected wheel speed to the control device 1 as odometry information.
  • the yaw rate sensor 3b detects the change rate (yaw rate) of the yaw angle of the host vehicle, and outputs the detected yaw rate to the control device 1 as odometry information.
  • the input device 4 accepts various instruction information of the occupant.
  • the input device 4 may be a touch panel, a switch, or a button of the presentation device 6, or may be a switch or button installed on the center console or the like separately from the presentation device 6. Further, the input device 4 may be a voice input device.
  • the storage device 5 can be configured by a semiconductor storage device, a magnetic storage device, an optical storage device, or the like, and may include a register, a cache memory, or the like.
  • the storage device 5 may be built in the control device 1.
  • a navigation device provided with a display such as a liquid crystal display can be used.
  • the presentation device 6 is installed at a position where it can be easily seen by a passenger such as an instrument panel in the vehicle interior.
  • the control device 1 is a controller such as an electronic control unit (ECU), for example, and can be composed of a computer including a central processing unit (CPU) and a storage device, a processor equivalent to the computer, and the like.
  • the control device 1 may have a programmable logic device (PLD) such as a field programmable gate array (FPGA), a functional logic circuit set in a general-purpose semiconductor integrated circuit, etc. It doesn't matter.
  • PLD programmable logic device
  • FPGA field programmable gate array
  • the parking assist device detects the surrounding situation of the parking target position by the surrounding situation sensor 2 when parking once or a plurality of times, thereby surrounding the parking target position. Is stored in the storage device 5.
  • “one-time parking” includes, for example, an operation until the host vehicle reaches the parking target position. Further, in the “one-time parking”, even if the host vehicle does not reach the parking target position, if the surrounding situation of the parking target position can be detected by the surrounding situation sensor 2, the host vehicle will The operation
  • multiple parking means repeating one parking, but the timing of repeating is not particularly limited.
  • the second parking may be performed immediately after the first parking. You may park the second time the day after parking.
  • the multiple parkings may be the same parking operations or different parking operations.
  • the operation until the first parking of the two parkings reaches the parking target position, and the second parking may be an operation of traveling around the parking target position. In the first embodiment of the present invention, a case where one parking is executed will be described.
  • the surrounding situation of the parking target position stored in the storage device 5 as a learning result by the parking assist device according to the first embodiment of the present invention can be referred to in the next and subsequent parking.
  • the timing of “parking after the next time” is not particularly limited, and includes, for example, immediately after learning the surrounding situation of the parking target position or after the day after learning the surrounding situation of the parking target position.
  • the parking operation of “parking after the next time” includes the operation of the vehicle targeting the parking target position such as the operation of the host vehicle reaching the parking target position and the operation of traveling around the parking target position.
  • FIG. 2A and FIG. 2B an example of the learning method of the surrounding situation of a parking target position is demonstrated. It is assumed that the vehicle is parked at the parking target position P2 with the position P1 of the host vehicle 21 shown in FIG. 2A as the parking start position. In the vicinity of the parking target position P2, there are an obstacle 31 that is a building, obstacles 32 and 33 that are garage pillars, and another vehicle 22 that is parked in the garage. The occupant inputs information on the parking start position P ⁇ b> 1 via the input device 4. Thereafter, parking is started, and the vehicle is parked from the parking start position P1 to the parking target position P2, as indicated by the dashed arrow in FIG. 2B.
  • the surrounding state sensor 2 detects the surrounding state including obstacles 31, 32, and 33 around the parking target position P2.
  • the occupant inputs information on the parking target position P ⁇ b> 2 to the control device 1 via the input device 4.
  • an occupant may perform parking manually, or may control the own vehicle 21 with a parking assistance device and perform parking.
  • the map generation unit 11 generates an environment map (environment map data) including the surrounding situation of the parking target position based on the surrounding situation of the parking target position detected by the surrounding situation sensor 2, and stores the generated environment map in the storage device 5 is memorized.
  • the map generation unit 11 generates an environmental map based on the ambient situation detected by the ambient situation sensor 2 and odometry information such as wheel speed and yaw rate detected by the vehicle situation sensor 3.
  • FIG. 3 shows an example of the environmental map M11 generated by the map generation unit 11 for the peripheral area of the parking target position P2 shown in FIGS. 2A and 2B.
  • the environment map M11 includes obstacles 31a, 32a, and 33a that exist around the parking target position P2.
  • the obstacles 31a, 32a, 33a on the environment map M11 correspond to the obstacles 31, 32, 33 shown in FIGS. 2A and 2B.
  • a spatial map composed of a plurality of dots is illustrated as the environment map M11.
  • the present invention is not particularly limited to this, and is, for example, an ortho image subjected to ortho correction so as to connect overhead images. Also good.
  • the map generation unit 11 sets the parking start position P1 on the environmental map M11 based on the information of the parking start position P1 input via the input device 4, and stores the set parking start position P1 in the storage device. 5 is memorized. Further, the map generation unit 11 sets the parking target position P2 on the environmental map M11 based on the information of the parking target position P2 input via the input device 4, and stores the set parking target position P2 in the storage device. 5 is memorized.
  • FIG. 4A in a parking lot of a condominium or a commercial facility, parking frames 41 having the same interval and arrangement are arranged, and an environment map is generated when parking at the parking target position 41a.
  • the parking frames 41 have the same interval and arrangement, so even if the distance and arrangement between the parking frames 41 are stored, for example,
  • an environment map such as parking frames 42, 43, etc., deviating from the actual parking frame 41 may be generated due to a local solution.
  • deviated with respect to the actual parking target position 41a are set.
  • the same problem may occur when an occupant makes a mistake and parks in a parking frame different from the parking target position 41a shown in FIG. 4A.
  • the presentation control unit 12 illustrated in FIG. 1 causes the presentation device 6 to present the surrounding state of the parking target position detected by the surrounding state sensor 2, and the surrounding state of the parking target position detected by the surrounding state sensor 2.
  • the passenger is requested to input the suitability of
  • the presentation control unit 12 provides the presentation device 6 with the environment map M11 including the parking start position P1 and the parking target position P2 illustrated in FIG. 3 as an example of the surrounding situation of the parking target position detected by the surrounding situation sensor 2.
  • the passenger is requested to input the suitability of the environmental map M11 including the parking start position P1 and the parking target position P2.
  • the presentation control unit 12 causes the presentation device 6 to present the surrounding situation of the parking target position, and at the same time, input "appropriateness of the surrounding situation of the parking target position?" It may be possible to prompt the passenger to input suitability by presenting character information such as “” or voice information.
  • the input device 4 accepts an appropriateness input by the occupant for the surrounding situation of the presented parking target position when the surrounding situation of the parking target position is presented to the presentation device 6.
  • the occupant visually recognizes the environmental map M11 including the parking start position P1 and the parking target position P2 presented on the presentation device 6, and determines whether the environmental map M11 is appropriate (that is, the obstacles 31a, 32a, 33a, The presence / absence of the other vehicle 22a and the appropriateness of the position), the appropriateness of the parking start position P1, and the appropriateness of the parking target position P2 are determined.
  • the occupant inputs an appropriateness input indicating that it is inappropriate via the input device 4.
  • the occupant determines that all of the environmental map M11, the parking start position P1, and the parking target position P2 are appropriate, the occupant inputs an appropriateness input that is appropriate via the input device 4.
  • the determination unit 13 determines the suitability of the surrounding situation of the parking target position detected by the surrounding situation sensor 2 according to the suitability input of the occupant received by the input device 4. When the suitability input that the occupant finds appropriate is obtained, the determination unit 13 determines that the surrounding situation of the parking target position detected by the surrounding situation sensor 2 is appropriate for reference during automatic parking. It is adopted as data to be referred to during automatic parking and stored in the storage device 5. For example, the determination unit 13 may store the data of the surrounding situation of the parking target position detected by the surrounding situation sensor 2 in the storage device 5 as it is. Or the determination part 13 may memorize
  • the determination unit 13 is inappropriate for referring to the surrounding situation of the parking target position detected by the surrounding situation sensor 2 during automatic parking. It is determined that there is, and is not adopted as data to be referred to during automatic parking, and is not stored in the storage device 5. At this time, the determination unit 13 causes the presentation device 6 to present that it is necessary to re-learn the surrounding situation of the parking target position, edit the environmental map M11 including the parking start position P1 and the parking target position P2, and the like. Also good.
  • the parking support unit 14 reads the data of the surrounding situation of the parking target position stored in the storage device 5 when parking at the parking target position after the next time, and performs automatic parking using the surrounding situation data of the parking target position. Execute. For example, the parking support unit 14 estimates (initializes) the position of the host vehicle 21 on the environment map M11 in accordance with instruction information from the passenger via the input device 4. The parking assistance part 14 produces
  • step S11 the map generation unit 11 determines whether or not the parking start position has been reached based on instruction information from the passenger via the input device 4, and when it is determined that the parking start position has been reached.
  • the process proceeds to step S12.
  • the position information of the parking target position is registered in advance in a navigation device such as the presentation device 6 and the vehicle position information obtained from a GPS signal or the like is referred to. It may be determined whether or not the parking start position has been reached, and the determination result may be presented to the occupant. For example, it is determined that the parking start position has been reached when the distance is within a fixed distance with respect to the parking target position.
  • step S12 manual parking is started from the parking start position to the parking target position.
  • the surrounding situation sensor 2 detects the surrounding situation of the parking target position including obstacles and feature points that exist around the parking target position.
  • the vehicle status sensor 3 detects odometry information including wheel speed pulses and yaw rate.
  • step S13 the map generation unit 11 determines whether the parking target position has been reached and parking has been completed based on the occupant's shift lever operation, parking brake operation, or the like. When it is determined that parking is completed, the process proceeds to step S14.
  • step S ⁇ b> 14 the map generation unit 11 moves the position information of the obstacles and feature points in the surrounding situation detected by the surrounding situation sensor 2 based on the odometry information detected by the vehicle situation sensor 3, and then sets the parking target position.
  • An environmental map including targets around is generated and stored in the storage device 5.
  • the presentation control unit 12 causes the presentation device 6 to present the surrounding situation of the parking target position such as the environmental map generated by the map generation unit 11.
  • the input device 4 accepts an appropriateness input for the surrounding situation of the presented parking target position when the surrounding situation of the parking target position is presented to the presentation device 6. The occupant inputs the suitability input for the surrounding situation of the parking target position presented on the presentation device 6 via the input device 4.
  • step S ⁇ b> 15 the determination unit 13 determines whether the surrounding situation of the parking target position detected by the surrounding situation sensor 2 is appropriate as data to be referred to during automatic parking according to the passenger's suitability input received by the input device 4. Determine whether or not.
  • the determination unit 13 determines that the surrounding state of the parking target position detected by the surrounding state sensor 2 is appropriate for reference during automatic parking, and the step The process proceeds to S16.
  • step S ⁇ b> 16 the determination unit 13 adopts the surrounding situation of the parking target position as data (learning result) to be referred to during automatic parking and stores the data in the storage device 5.
  • step S15 when the suitability input indicating that the occupant is not suitable is obtained in step S15, the determination unit 13 is inappropriate for referring to the surrounding situation of the parking target position detected by the surrounding situation sensor 2 during automatic parking. And the process proceeds to step S17.
  • step S ⁇ b> 17 the determination unit 13 does not adopt the surrounding state of the parking target position as data (learning result) to be referred to when automatic parking, and does not store it in the storage device 5.
  • the parking support program according to the first embodiment of the present invention causes the computer constituting the control device 1 to execute the procedure of the parking support method shown in FIG.
  • the parking assistance program according to the embodiment of the present invention can be stored in, for example, the storage device 5.
  • the surrounding situation of the parking target position is stored, and when the automatic parking is executed using the stored surrounding situation, the surroundings of the parking target position detected by the surrounding situation sensor 2
  • the presentation device 6 presents an environmental map or the like that is the situation. And when the adequacy input which the passenger
  • the occupant when presenting the surrounding situation including the parking target position when the presentation device 6 presents the environmental map or the like that is the surrounding situation of the parking target position detected by the surrounding situation sensor 2, the occupant can When inputting the suitability of the situation, it is possible to easily understand the positional relationship between the parking target position and obstacles existing around the parking target position.
  • the presentation control unit 12 includes an environmental map generated by the map generation unit 11 as a surrounding situation of the parking target position detected by the surrounding situation sensor 2. The case where a parking target position candidate is presented at a position different from the parking target position in addition to the parking target position will be described.
  • the presentation control unit 12 presents the parking target position 51 a and the parking target position candidates 51 b and 51 c different from the parking target position 51 a in the environmental map including the parking frame 51.
  • the parking target position candidates 51b and 51c are positions where there is a possibility of a correct parking target position when the parking target position 51a is a position erroneously detected by the surrounding state sensor 2.
  • the parking target position 51a and the parking target position candidates 51b and 51c are presented in different colors so that they can be distinguished from each other.
  • the occupant inputs the suitability input of the environmental map including the parking frame 51 and the parking target position 51a via the input device 4 in consideration of the possibility that the parking target position candidates 51b and 51c are correct parking target positions.
  • the occupant by presenting the surrounding situation including the parking target position candidates 51b and 51c different from the parking target position 51a, the occupant can set the parking target position candidates 51b, Using 51c as reference information, the suitability of the parking target position 51a can be confirmed.
  • the presentation control unit 12 causes the presentation device 6 to present an environmental map that is a surrounding situation of the parking target position stored in the storage device 5 as illustrated in FIG.
  • the environmental map includes parking frames 61, 62, and 63, and a parking target position 62a is presented so as to partially overlap the parking frame 62.
  • the other vehicles 22 and 23 are parked in the parking frames 61 and 63. Of these, the other vehicle 23 protrudes from the parking frame 63 and is parked near the parking target position 62a. For this reason, it is in the situation where the own vehicle 21 is difficult to park at the parking target position 62a.
  • the presentation control unit 12 presents a parking alternative position 62b in which the host vehicle 21 is easily parked at a position that is free from obstacles and is shifted from the parking target position 62a.
  • the input device 4 inputs information for selecting the parking target position 62 a or the parking alternative position 62 b from the occupant via the input device 4.
  • the parking assistance part 14 outputs the control signal for parking in the parking target position 62a or the parking alternative position 62b selected by the passenger
  • parking alternative position 62b is shown in a different position near parking target position 62a, and it parks in either parking target position 62a or parking alternative position 62b. Request the occupant to choose whether to do this.
  • the parking target position 62a can be changed according to the parking environment. For example, when there is an obstacle such as a bicycle at the parking target position at home, the parking target position can be changed so as to avoid the obstacle, and automatic parking can be performed.
  • the configuration of the parking support apparatus according to the second embodiment of the present invention is the same as the configuration of the parking support apparatus according to the first embodiment of the present invention.
  • An ambient condition sensor 2 a vehicle condition sensor 3, an input device (interface) 4, a storage device 5, and a presentation device 6.
  • the surrounding situation sensor 2 detects the surrounding situation of the parking target position including obstacles and feature points existing around the parking target position every time parking is performed a plurality of times.
  • the vehicle state sensor 3 detects odometry information including wheel speed pulses, yaw rate and the like every time parking is performed a plurality of times.
  • the map generation unit 11 generates an environmental map based on the ambient situation detected by the ambient situation sensor 2 and the odometry information such as the wheel speed and the yaw rate detected by the vehicle situation sensor 3 every time parking is performed a plurality of times.
  • the generated environment map is stored in the storage device 5. Further, the map generation unit 11 sets the parking start position P1 on the environmental map M11 based on the information of the parking start position P1 input via the input device 4, and stores the set parking start position P1 in the storage device. 5 is memorized. Further, the map generation unit 11 sets the parking target position P2 on the environmental map M11 based on the information of the parking target position P2 input via the input device 4, and stores the set parking target position P2 in the storage device. 5 is memorized.
  • the map generation unit 11 generates data of an environmental map (hereinafter sometimes referred to as an “integrated map”) obtained by integrating a plurality of environmental maps generated for each parking of a plurality of times.
  • an integrated map obtained by integrating a plurality of environmental maps generated for each parking of a plurality of times.
  • a method for integrating a plurality of environment maps for example, a method using a least square method so as to minimize an error between corresponding feature points can be employed.
  • an ICP (Iterative Closest Point) algorithm can be employed when the ambient condition is given as point cloud information using a laser range finder (LRF) as the ambient condition sensor 2.
  • LRF laser range finder
  • the map generation unit 11 may generate an integrated map by collectively integrating a plurality of environmental maps obtained for each parking after a plurality of parkings are completed. For example, as shown in FIG. 8, the map generator 11 obtains the environmental map M11 obtained by the first parking after the third parking, the environmental map M12 obtained by the second parking, and the third parking.
  • the integrated environment map M13 may be integrated to generate an integrated map M21. 8 illustrates the case where the environment maps M11, M12, M13 and the integrated map M21 have the same configuration, the data of the environment maps M11, M12, M13 and the integrated map M21 may be different ( The same applies to FIGS. 9 and 10.
  • the map generation unit 11 may generate (update) an integrated map each time the vehicle is parked after the second parking. For example, as shown in FIG. 9, the map generation unit 11 integrates the environmental map M11 obtained by the first parking and the environmental map M12 obtained by the second parking after the second parking. The first integrated map M21 is generated. Then, after the third parking, the map generation unit 11 generates the second integrated map M22 by integrating the environmental map M13 obtained by the third parking and the first integrated map M21. Also good.
  • the map generation unit 11 may generate an integrated map by dividing a plurality of environmental maps into several groups and integrating the plurality of environmental maps for each group. For example, as shown in FIG. 10, the map generation unit 11 integrates the environmental map M11 obtained by the first parking and the environmental map M12 obtained by the second parking as a first group, 1 integrated map M21 is generated. On the other hand, the environment map M13 obtained by the third parking and the environment map M14 obtained by the fourth parking are integrated as a second group to generate a second integrated map M22. The map generation unit 11 further generates a third integrated map M23 by integrating the first integrated map M21 and the second integrated map M22.
  • FIG. 11 shows an example of the integrated map M21 generated by the map generation unit 11.
  • the integrated map M21 includes obstacles 31a, 32a, 33a around the parking target position P2. Furthermore, a parking start position P1 and a parking target position P2 are set on the integrated map M21. Note that the integrated map M21 illustrated in FIG. 11 illustrates the same case as the environmental map M11 illustrated in FIG. 3, but the integrated map M21 is more accurate by supplementing a plurality of learning results. It may be map data.
  • the presentation control unit 12 causes the presentation device 6 to present an integrated map including the parking start position and the parking target position stored in the storage device 5, and whether or not the integrated map including the parking start position and the parking target position is appropriate for the occupant. Require input. For example, the presentation control unit 12 causes the presentation device 6 to present the integrated map M21 including the parking start position P1 and the parking target position P2 illustrated in FIG. 11, and the integrated map M21 including the parking start position P1 and the parking target position P2. Require passengers to enter the suitability for
  • the presentation control unit 12 generates a unified map M21 by integrating a plurality of environmental maps M11, M12, and M13 after a plurality of parkings are completed.
  • the integrated map M21 is presented, and the suitability input by the passenger for the integrated map M21 is requested.
  • the first integrated map M21 and the second integrated map M22 are sequentially generated for each second and subsequent parking
  • the 2nd integrated map M22 may be shown and the suitability input by the passenger
  • only the second integrated map M22 that is finally generated may be presented without presenting the first integrated map M21, and the suitability input by the passenger for only the second integrated map M22 may be requested. .
  • a first integrated map M21 and a second integrated map M22 are generated for each group, and the first integrated map M21 and the second integrated map M22 are integrated to generate a third integrated map M21.
  • the integrated map M23 is generated, the first integrated map M21, the second integrated map M22, and the third integrated map M23 are sequentially presented, and the first integrated map M21, the second integrated map M22, and You may request
  • the first integrated map M21 and the second integrated map M22 are not presented, but only the finally generated third integrated map M23 is presented, and the propriety input by the occupant for only the third integrated map M23 is presented. May be requested.
  • the input device 4 accepts an appropriateness input by the occupant for the surrounding situation of the presented parking target position when the surrounding situation of the parking target position is presented to the presentation device 6. For example, when the integrated map M21 shown in FIG. 11 is presented to the presentation device 6, the occupant displays the presented integrated map M21 itself (that is, the obstacles 31a, 32a, 33a and other vehicles 22a in the integrated map M21). If it is determined that at least one of the parking start position P1 on the integrated map M21 and the parking target position P2 on the integrated map M21 is not appropriate, an appropriateness input indicating that it is inappropriate is input via the input device 4. To do.
  • the occupant determines that all of the presented integrated map M21 itself, the parking start position P1 on the integrated map M21, and the parking target position P2 on the integrated map M21 are appropriate, the occupant inputs an appropriate / appropriate input. Input via the device 4.
  • the determination unit 13 determines the suitability of the integrated map M21 according to the suitability input of the occupant received by the input device 4.
  • the determination unit 13 determines that the integrated map M21 is appropriate, adopts the integrated map M21 as map data to be referred to during automatic parking, and the storage device 5 Remember me.
  • the determination unit 13 determines that the integrated map M21 is inappropriate, and adopts the integrated map M21 as map data to be referred to during automatic parking. And not stored in the storage device 5.
  • the parking support unit 14 reads the data of the surrounding situation of the parking target position stored in the storage device 5 when parking at the parking target position after the next time, and performs automatic parking using the surrounding situation data of the parking target position. Execute.
  • the presentation control unit 12 may request the suitability input for the environmental map by causing the presentation device 6 to present the environmental map generated by the map generation unit 11 for every multiple parkings.
  • the input device 4 may accept the suitability input by the occupant for the environmental map when the environmental map is presented on the presentation device 6 for every multiple parkings.
  • the determination unit 13 may determine the suitability of the environmental map in accordance with the passenger's suitability input received by the input device 4 for every multiple parkings. That is, when the suitability input that is appropriate for the occupant is obtained, the determination unit 13 determines that the environment map is appropriate, and stores the environment map in the storage device 5. On the other hand, when a suitability input indicating that the passenger is not suitable is obtained, the determination unit 13 determines that the environment map is inappropriate and does not store the environment map in the storage device 5.
  • step S ⁇ b> 21 the map generation unit 11 determines whether or not the parking start position has been reached based on instruction information from the passenger via the input device 4, and when it is determined that the parking start position has been reached. Control goes to step S22.
  • step S22 manual parking is started from the parking start position to the parking target position.
  • the ambient condition sensor 2 detects obstacles and feature points around the parking target position.
  • the vehicle status sensor 3 detects odometry information including wheel speed pulses and yaw rate.
  • step S23 the map generation unit 11 determines whether or not the parking target position has been reached and parking is completed based on the occupant's shift lever operation, parking brake operation, or the like. When it is determined that parking is completed, the process proceeds to step S24.
  • the map generation unit 11 includes an environmental map (display image) including a parking start position and a parking target position based on the ambient situation detected by the ambient situation sensor 2 and the odometry information detected by the vehicle situation sensor 3. Is generated.
  • step S25 the map generation unit 11 determines whether or not the parking executed in steps S21 to S23 is the first parking for the same parking target position. If it is determined that the parking is the first time, there is only one environment map generated this time by the map generation unit 11, and the integrated map cannot be generated, so the processing is completed. On the other hand, if it is determined in step S25 that the parking is not the first time, the process proceeds to step S26.
  • step S26 the map generation unit 11 determines whether or not the detection (learning) of the surrounding situation of the parking target position is sufficient. For example, if the number of parkings (learning times) for the same parking target position is set as a threshold, it is determined that the surroundings are sufficiently detected when the number of parkings is 3 or more, and the surroundings are detected when the number of parking is less than 3 Is detected as insufficient. Alternatively, with the obstacle existence probability in the surrounding situation of the parking target position as a threshold, it is determined that the surrounding situation is sufficiently detected when the obstacle existence probability is equal to or greater than the threshold, and the obstacle existence probability is less than the threshold. In some cases, it may be determined that the detection of the surrounding situation is insufficient. Note that the step of determining whether or not the ambient condition is sufficiently detected in step S26 may be omitted, and the process may proceed to step S27.
  • step S ⁇ b> 27 the presentation control unit 12 presents an environmental map (display image) including the parking start position and the parking target position generated by the map generation unit 11 to the presentation device 6, and requests an appropriateness input from the passenger. .
  • the occupant visually recognizes the display image presented on the presentation device 6 and inputs suitability input for the display image via the input device 4.
  • an appropriateness input indicating that the display image is inappropriate is input via the input device 4. To do.
  • the occupant determines that the presence / absence or position of the obstacle in the display image, the parking start position, and the parking target position are correct, the occupant inputs an appropriateness input indicating that the display image is appropriate via the input device 4. To do.
  • step S28 the determination unit 13 determines the suitability of the integrated map generated by the map generation unit 11 in accordance with the suitability input for the display image by the occupant received by the input device 4.
  • the determination unit 13 determines that the environment map generated by the map generation unit 11 is appropriate, and proceeds to step S29.
  • the map generation unit 11 uses an least square method, an ICP algorithm, or the like, and integrates a plurality of environmental maps including the environmental map generated by the current parking generated by the map generation unit 11 ( Integrated map). For example, if the current parking is the third time, the environmental map obtained by the first parking stored in the storage device 5, the environmental map obtained by the second parking, and the current (third) parking An integrated map is generated by integrating the environmental map obtained in step 1 above. Alternatively, if the environmental map obtained by the first parking and the environmental map obtained by the second parking are integrated and stored in the storage device 5 as the first integrated map, the first integrated map The second integrated map is generated by integrating the environmental map obtained in this (third) parking. Then, the integrated map generated by the map generation unit 11 is adopted as map data to be referred to during automatic parking, and is stored in the storage device 5.
  • step S28 determines that the display image generated by the map generation unit 11 is inappropriate, and proceeds to step S30. To do. In step S ⁇ b> 30, the determination unit 13 does not employ the environment map generated by the map generation unit 11 and does not generate an integrated map that integrates the environment map.
  • the parking support program according to the second embodiment of the present invention causes the computer constituting the control device 1 to execute the procedure of the parking support method shown in FIG.
  • the parking assistance program according to the second embodiment of the present invention can be stored in the storage device 5, for example.
  • the presentation control unit 12 has described the case where the presentation map 6 presents the environment map (display image) generated by the map generation unit 11 to the presentation device 6 in step S27. It is not limited to.
  • the map generation unit 11 generates an integrated map (display image) obtained by integrating a plurality of environmental maps.
  • the presentation control unit 12 presents the integrated map (display image) to the presentation device 6. May be.
  • the determination unit 13 refers to the map for automatic parking.
  • the data is adopted and stored in the storage device 5.
  • step S28 determines that the integrated map is inappropriate and proceeds to step S30.
  • step S ⁇ b> 30 the determination unit 13 does not employ the integrated map as map data that is referred to during automatic parking, and does not store the integrated map in the storage device 5.
  • the surrounding situation of the parking target position is stored, and when the automatic parking is executed using the stored surrounding situation, the surroundings of the parking target position detected by the surrounding situation sensor 2
  • the presentation device 6 presents an environmental map or the like that is the situation. And when the adequacy input which the passenger
  • the surrounding situation of the parking target position is detected a plurality of times, and the surrounding situation of the detected parking target position is memorized a plurality of times around the parking target position.
  • a more accurate environmental map can be generated by integrating and complementing the situation.
  • the occupant can select appropriate data of the surrounding situation of the multiple parking target positions.
  • the surrounding situation of the parking target position by storing the surrounding situation of the parking target position every time parking is performed at the parking target position, the surrounding situation such as an environmental map suitable for referring to automatic parking each time parking is performed at the parking target position. You can choose.
  • the presentation device 6 presents an environmental map or the like that is the surrounding situation of the parking target position detected by the surrounding situation sensor 2, the surrounding situation including the parking target position is presented.
  • the occupant can easily understand the positional relationship between the parking target position and the obstacles or the like existing around the parking target position when inputting the suitability of the surrounding situation.
  • the surrounding situation for each parking at the parking target position is presented, and for each parking at the parking target position, the passenger's suitability input for the surrounding situation of the parking target position detected by the surrounding situation sensor 2 is received, Memorize the input ambient conditions.
  • the surrounding situation of the parking target position suitable for referring in the case of automatic parking can be selectively memorize
  • the presentation control unit 12 arranges or sequentially presents a plurality of environment maps obtained by multiple parkings on the presentation device 6, and selects an environment map (learning result) to be integrated among the plurality of environment maps to the occupant. To request.
  • the occupant visually recognizes the plurality of environment maps presented on the presentation device 6 and inputs instruction information for selecting an environment map (learning result) suitable for integration among the plurality of environment maps via the input device 4. .
  • the map generation unit 11 Based on the selection result of the environment map to be integrated by the occupant, extracts the environment map to be integrated among the plurality of environment maps stored in the storage device 5.
  • the map generation unit 11 generates an integrated map by integrating the extracted environmental maps.
  • an environment map (learning) that presents a plurality of environment maps obtained by repeating parking a plurality of times to the presentation device 6 and integrates among the plurality of environment maps. Requests the passenger to select (Result). This allows the occupant to select an environment map suitable for integration from among the environment maps at the time of each learning, and after selectively removing the inappropriate environment map, selectively integrate the environment map suitable for integration. can do.
  • the presentation device 6 is mainly a display
  • the presentation device 6 may be a device other than a display.
  • the presentation device 6 uses the ambient condition sensor 2 such as “the recognition rate of the surrounding situation of the parking target position is 80%” and “the parking target position is recognized ahead”. By outputting a sound explaining the surrounding situation of the detected parking target position, information on the surrounding situation of the parking target position detected by the surrounding situation sensor 2 can be presented to the occupant.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Navigation (AREA)

Abstract

自動駐車の際に参照するのに適した駐車目標位置の周囲状況を記憶することができる駐車支援方法を提供する。駐車目標位置への駐車に際し、駐車目標位置の周囲状況を記憶し、記憶された周囲状況を用いて自動駐車を実行する駐車支援方法において、周囲状況を検出するステップ(S12)と、検出した周囲状況を提示するステップ(S14)と、提示した周囲状況に対する乗員による適否入力を受付けるステップ(S14)と、乗員が適するとした適否入力が得られた場合に、周囲状況を記憶するステップ(S15,S16)とを含む。

Description

駐車支援方法及び駐車支援装置
 本発明は、自動駐車を実行する駐車支援方法及び駐車支援装置に関する。
 従来、レーザ距離センサを移動させながらレーザ距離センサの周囲の環境を複数回計測し、計測毎の値を合成して環境の地図を画像として生成する手法が知られている(特許文献1参照)。
特開2005-326944号公報
 しかしながら、駐車目標位置への駐車に際して、駐車目標位置の周囲状況を検出し、自動駐車の際に参照するための周囲状況を記憶する際に、特許文献1の技術を適用した場合、駐車環境によっては、参照するには適さない周囲状況が記憶されることがある。
 上記課題に鑑み、本発明は、自動駐車の際に参照するのに適した駐車目標位置の周囲状況を記憶することができる駐車支援方法及び駐車支援装置を提供することを目的とする。
 本発明の一態様によれば、駐車目標位置への駐車に際し、自動駐車を実行するときに参照するための駐車目標位置の周囲状況を記憶する。このとき、駐車目標位置の周囲状況を検出し、検出した周囲状況を乗員に提示する。そして、提示した周囲状況に対する乗員による適否入力を受付け、乗員が適するとした適否入力が得られた場合には、周囲状況を記憶する駐車支援方法及び駐車支援装置が提供される。
 本発明によれば、乗員が適するとした適否入力が得られた場合に周囲状況を記憶するため、自動駐車の際に参照するのに適した駐車目標位置の周囲状況を記憶することができる駐車支援方法及び駐車支援装置を提供することができる。
本発明の第1の実施形態に係る駐車支援装置の一例を示すブロック図である。 図2Aは、本発明の第1の実施形態に係る駐車目標位置の周辺の様子を示す概略図であり、図2Bは、駐車目標位置への駐車の様子を示す概略図である。 本発明の第1の実施形態に係る環境地図の一例を示す概略図である。 図4Aは、比較例に係る駐車目標位置の周辺の様子を示す概略図であり、図4Bは、環境地図を正しく生成できない様子を示す概略図である。 本発明の第1の実施形態に係る駐車支援方法の一例を説明するためのフローチャートである。 本発明の第1の実施形態の第1の変形例に係る環境地図の一例を示す概略図である。 本発明の第1の実施形態の第2の変形例に係る自動駐車時の提示例を示す概略図である。 本発明の第2の実施形態に係る統合地図の生成方法の一例を示す概略図である。 本発明の第2の実施形態に係る統合地図の生成方法の他の一例を示す概略図である。 本発明の第2の実施形態に係る統合地図の生成方法の更に他の一例を示す概略図である。 本発明の第2の実施形態に係る統合地図の一例を示す概略図である。 本発明の第2の実施形態に係る駐車支援方法の一例を説明するためのフローチャートである。
 以下において、図面を参照して、本発明の第1及び第2の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す第1及び第2の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
 (第1の実施形態)
 <駐車支援装置の構成>
 本発明の第1の実施形態に係る駐車支援装置は、車両に搭載可能である(以下、本発明の第1の実施形態に係る駐車支援装置を搭載した車両を「自車両」と称する)。本発明の第1の実施形態に係る駐車支援装置は、図1に示すように、制御装置(コントローラ)1、周囲状況センサ2、車両状況センサ3、入力装置(インターフェース)4、記憶装置5及び提示装置6を備える。
 周囲状況センサ2は、自車両の前方状況、後方状況、側方状況を含む自車両の周囲状況を検出する。周囲状況センサ2が検出可能な自車両の周囲状況は、建物、壁、柱、標識、他車両、自転車等の静止立体物(障害物)や、道路上の白線、駐車枠等の特徴点(ランドマーク)を含む。周囲状況センサ2は、カメラ2a及びレーザレーダ2bを備える場合を例示するが、周囲状況センサ2の種類や個数は特に限定されない。
 車両状況センサ3は、車輪速センサ3a及びヨーレートセンサ3bを備える。車輪速センサ3aは、自車両の車輪速を検出し、検出された車輪速をオドメトリ情報として制御装置1に出力する。ヨーレートセンサ3bは、自車両のヨー角の変化速度(ヨーレート)を検出し、検出されたヨーレートをオドメトリ情報として制御装置1に出力する。
 入力装置4は、乗員の各種の指示情報を受け付ける。入力装置4は、提示装置6のタッチパネルやスイッチ、ボタンであってもよく、提示装置6とは個別にセンターコンソール等に設置されたスイッチやボタンであってもよい。更に、入力装置4は音声入力装置であってもよい。
 記憶装置5は、半導体記憶装置、磁気記憶装置又は光学記憶装置等で構成でき、レジスタ、キャッシュメモリ等を含んだ構成でもよい。記憶装置5は、制御装置1に内蔵されていてもよい。
 提示装置6としては、例えば液晶ディスプレイ等のディスプレイを備えたナビゲーション装置が使用可能である。提示装置6は、車室内のインストルメントパネル等の乗員から視認しやすい位置に設置される。
 制御装置1は、例えば電子制御ユニット(ECU)等のコントローラであり、中央演算処理装置(CPU)及び記憶装置を含むコンピュータやコンピュータに等価なプロセッサ等で構成することができる。制御装置1は、フィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・ロジック・デバイス(PLD)等を有していてもよく、汎用の半導体集積回路中に設定される機能的な論理回路等でも構わない。
 本発明の第1の実施形態に係る駐車支援装置は、1回又は複数回の駐車をする際に、駐車目標位置の周囲状況を周囲状況センサ2により検出することにより、駐車目標位置の周囲状況を学習し、記憶装置5に記憶する。ここで、「1回の駐車」には、例えば、自車両が駐車目標位置に到達するまでの動作が含まれる。更に、「1回の駐車」には、自車両が駐車目標位置に到達しない場合であっても、周囲状況センサ2で駐車目標位置の周囲状況を検出可能であれば、自車両が駐車目標位置の周囲を走行する動作や、自車両が駐車目標位置の周囲で切り返すまでの動作が含まれる。
 また、「複数回の駐車」は、1回の駐車を繰り返すことを意味するが、繰り返すタイミングは特に限定されず、例えば1回目の駐車直後に2回目の駐車を行ってもよく、1回目の駐車の翌日に2回目の駐車を行ってもよい。また、複数回の駐車は、互いに同様の駐車動作であってもよく、互いに異なる駐車動作であってもよい。例えば、2回の駐車のうち1回目の駐車が駐車目標位置に到達するまでの動作であり、2回目の駐車が駐車目標位置の周囲を走行する動作であってもよい。本発明の第1の実施形態においては、1回の駐車を実行する場合を説明する。
 本発明の第1の実施形態に係る駐車支援装置による学習結果として記憶装置5に記憶された駐車目標位置の周囲状況は、次回以降の駐車の際に参照可能である。「次回以降の駐車」のタイミングは特に限定されず、例えば駐車目標位置の周囲状況を学習直後や、駐車目標位置の周囲状況を学習した日の翌日以降を含む。また、「次回以降の駐車」の駐車動作には、自車両が駐車目標位置に到達する動作、駐車目標位置の周囲を走行する動作等の駐車目標位置を目標としてした車両の動作が含まれる。
 ここで、図2A及び図2Bを参照して、駐車目標位置の周囲状況の学習方法の一例を説明する。図2Aに示す自車両21の位置P1を駐車開始位置として、駐車目標位置P2に駐車する場合を想定している。駐車目標位置P2の周辺には、建物である障害物31、ガレージの柱である障害物32,33、ガレージに駐車されている他車両22が存在する。乗員は入力装置4を介して駐車開始位置P1の情報を入力する。その後、駐車を開始して、図2Bに破線の矢印で示すように、駐車開始位置P1から駐車目標位置P2へ駐車する。この駐車の際に、周囲状況センサ2は、駐車目標位置P2の周辺の障害物31,32,33を含む周囲状況を検出する。駐車目標位置P2へ駐車が完了したときに、乗員は入力装置4を介して駐車目標位置P2の情報を制御装置1に入力する。なお、乗員が手動で駐車を行ってもよく、駐車支援装置により自車両21を制御して駐車を行ってもよい。
 図1に示した制御装置1は、地図生成部11、提示制御部12、判定部13及び駐車支援部14を機能的に備える。地図生成部11は、周囲状況センサ2により検出された駐車目標位置の周囲状況に基づいて、駐車目標位置の周囲状況を含む環境地図(環境地図データ)を生成し、生成した環境地図を記憶装置5に記憶させる。例えば、地図生成部11は、周囲状況センサ2により検出された周囲状況と、車両状況センサ3により検出された車輪速やヨーレート等のオドメトリ情報に基づいて環境地図を生成する。
 図3は、図2A及び図2Bに示した駐車目標位置P2の周辺領域に対して、地図生成部11により生成された環境地図M11の一例を示す。環境地図M11は、駐車目標位置P2の周囲に存在する障害物31a,32a,33aを含む。環境地図M11上の障害物31a,32a,33aは、図2A及び図2Bに示した障害物31,32,33に対応する。なお、図3では、環境地図M11として、複数のドットで構成された空間マップを例示するが、特にこれに限定されず、例えば俯瞰画像を繋ぎ合わせるようにオルソ補正を施したオルソ画像であってもよい。
 更に、地図生成部11は、入力装置4を介して入力された駐車開始位置P1の情報に基づいて、環境地図M11上に駐車開始位置P1を設定し、設定された駐車開始位置P1を記憶装置5に記憶させる。更に、地図生成部11は、入力装置4を介して入力された駐車目標位置P2の情報に基づいて、環境地図M11上に駐車目標位置P2を設定し、設定された駐車目標位置P2を記憶装置5に記憶させる。
 ここで、例えば図4Aに示すように、マンションや商業施設の駐車場において、同じ間隔及び配置の駐車枠41が並んでおり、駐車目標位置41aへの駐車の際に環境地図を生成する場合を想定する。この場合、特許文献1に記載の技術を用いて環境地図を生成しようとすると、駐車枠41が同じ間隔及び配置となっているため、駐車枠41間の距離や配置を記憶しても、例えば図4Bに示すように局所解に陥ってしまい、実際の駐車枠41に対してずれた駐車枠42,43等の環境地図が生成される場合がある。そして、実際の駐車目標位置41aに対してずれた駐車目標位置41b,41cが設定されるという問題がある。また、乗員が間違えて図4Aに示す駐車目標位置41aとは異なる駐車枠に駐車してしまった場合にも、同様の問題が発生する場合がある。
 そこで、図1に示した提示制御部12は、周囲状況センサ2により検出された駐車目標位置の周囲状況を提示装置6に提示させて、周囲状況センサ2により検出された駐車目標位置の周囲状況の適否入力を乗員に対して要求する。例えば、提示制御部12は、周囲状況センサ2により検出された駐車目標位置の周囲状況の一例として、図3に示した駐車開始位置P1及び駐車目標位置P2を含む環境地図M11を提示装置6に提示させて、駐車開始位置P1及び駐車目標位置P2を含む環境地図M11の適否入力を乗員に対して要求する。提示制御部12は更に、駐車目標位置の周囲状況を提示装置6に提示させる同時に、「駐車目標位置の周囲状況は正しいですか?」「駐車目標位置の周囲状況の適否入力をして下さい。」等の文字情報や音声情報を提示することにより、乗員に対して適否入力を促してもよい。
 入力装置4は、提示装置6に駐車目標位置の周囲状況が提示されている時に、提示された駐車目標位置の周囲状況に対する乗員による適否入力を受け付ける。乗員は、提示装置6に提示された駐車開始位置P1及び駐車目標位置P2を含む環境地図M11を視認して、環境地図M11の適否(即ち、環境地図M11中の障害物31a,32a,33a、他車両22aの有無や位置の適否)、駐車開始位置P1の適否、駐車目標位置P2の適否を判断する。そして、乗員は、環境地図M11、駐車開始位置P1及び駐車目標位置P2の少なくともいずれかが不適切と判断した場合には、不適切であるとした適否入力を入力装置4を介して入力する。一方、乗員は、環境地図M11、駐車開始位置P1及び駐車目標位置P2のいずれも適切と判断した場合には、適切であるとした適否入力を入力装置4を介して入力する。
 判定部13は、入力装置4が受け付けた乗員の適否入力に応じて、周囲状況センサ2により検出された駐車目標位置の周囲状況の適否を判定する。乗員が適するとした適否入力が得られた場合には、判定部13は、周囲状況センサ2により検出された駐車目標位置の周囲状況が自動駐車の際に参照するのに適切であると判定し、自動駐車の際に参照するデータとして採用して、記憶装置5に記憶する。例えば、判定部13は、周囲状況センサ2により検出された駐車目標位置の周囲状況のデータをそのまま記憶装置5に記憶に記憶してもよい。或いは、判定部13は、周囲状況センサ2により検出された駐車目標位置の周囲状況として、駐車開始位置P1及び駐車目標位置P2を含む環境地図M11を記憶装置5に記憶に記憶してもよい。
 一方、乗員が適さないとした適否入力が得られた場合には、判定部13は、周囲状況センサ2により検出された駐車目標位置の周囲状況が自動駐車の際に参照するのに不適切であると判定し、自動駐車の際に参照するデータとして採用せず、記憶装置5に記憶しない。この際、判定部13は、駐車目標位置の周囲状況の再度の学習や、駐車開始位置P1及び駐車目標位置P2を含む環境地図M11の編集等が必要であることを提示装置6に提示させてもよい。
 駐車支援部14は、次回以降の駐車目標位置への駐車に際して、記憶装置5に記憶された駐車目標位置の周囲状況のデータを読み出して、駐車目標位置の周囲状況のデータを用いて自動駐車を実行する。例えば、駐車支援部14は、乗員からの入力装置4を介した指示情報に応じて、環境地図M11上の自車両21の位置を推定(初期化)する。駐車支援部14は、推定された環境地図M11上の自車両21の位置から駐車目標位置P2に駐車するための目標経路を生成する。駐車支援部14は、生成した目標経路に沿って自動駐車を実行するための制御信号を、自車両21の各種アクチュエータに対して出力する。なお、駐車支援部14は、制御装置1とは個別に駐車支援装置として設けられていてもよい。
 <駐車支援方法>
 次に、図5のフローチャートを参照しながら、本発明の第1の実施形態に係る駐車支援方法の一例を説明する。
 ステップS11において、地図生成部11は、乗員からの入力装置4を介した指示情報に基づいて、駐車開始位置に到達したか否かを判定し、駐車開始位置に到達したと判定された場合にステップS12に移行する。なお、乗員が入力装置4を介して指定する代わりに、提示装置6等のナビゲーション装置に駐車目標位置の位置情報を予め登録しておき、GPS信号等から得られる自車位置情報を参照して、駐車開始位置に到達したか否かを判定し、判定結果を乗員に対して提示してもよい。例えば、駐車目標位置に対して直線距離で一定距離内に入った場合に、駐車開始位置に到達したと判定される。
 ステップS12において、駐車開始位置から駐車目標位置へ手動の駐車を開始する。なお、既存の俯瞰画像を用いた駐車支援装置を用いて駐車を制御してもよい。周囲状況センサ2が、駐車目標位置の周囲に存在する障害物及び特徴点を含む駐車目標位置の周囲状況を検出する。車両状況センサ3が、車輪速パルス及びヨーレート等を含むオドメトリ情報を検出する。
 ステップS13において、地図生成部11は、乗員のシフトレバー操作やパーキングブレーキ操作等に基づいて、駐車目標位置に到達し、駐車が完了したか否かを判定する。駐車が完了したと判定された場合、ステップS14に移行する。
 ステップS14において、地図生成部11は、車両状況センサ3により検出されたオドメトリ情報に基づいて、周囲状況センサ2により検出した周囲状況における障害物や特徴点の位置情報を移動させながら、駐車目標位置の周囲の物標を含む環境地図を生成し、記憶装置5に記憶させる。提示制御部12は、地図生成部11により生成された環境地図等の駐車目標位置の周囲状況を提示装置6に提示させる。入力装置4は、提示装置6に駐車目標位置の周囲状況が提示されている時に、提示された駐車目標位置の周囲状況に対する適否入力を受け付ける。乗員は、提示装置6に提示された駐車目標位置の周囲状況に対する適否入力を入力装置4を介して入力する。
 ステップS15において、判定部13は、入力装置4が受け付けた乗員の適否入力に応じて、周囲状況センサ2により検出した駐車目標位置の周囲状況が自動駐車の際に参照するデータとして適切であるか否かを判定する。乗員が適するとした適否入力が得られた場合、判定部13は、周囲状況センサ2により検出した駐車目標位置の周囲状況が自動駐車の際に参照するのに適切であると判定して、ステップS16に移行する。ステップS16において、判定部13は、駐車目標位置の周囲状況を自動駐車の際に参照するデータ(学習結果)として採用し、記憶装置5に記憶する。
 一方、ステップS15において、乗員が適しないとした適否入力が得られた場合、判定部13は、周囲状況センサ2により検出した駐車目標位置の周囲状況が自動駐車の際に参照するのに不適切であると判定して、ステップS17に移行する。ステップS17において、判定部13は、駐車目標位置の周囲状況を自動駐車の際に参照するデータ(学習結果)として採用せず、記憶装置5に記憶しない。
 本発明の第1の実施形態に係る駐車支援プログラムは、図5に示した駐車支援方法の手順を、制御装置1を構成するコンピュータに実行させる。本発明の実施の形態に係る駐車支援プログラムは、例えば記憶装置5に格納可能である。
 本発明の第1の実施形態によれば、駐車目標位置の周囲状況を記憶し、記憶された周囲状況を用いて自動駐車を実行する際に、周囲状況センサ2により検出した駐車目標位置の周囲状況である環境地図等を提示装置6により提示する。そして、提示された駐車目標位置の周囲状況に対して、乗員が適するとした適否入力が得られた場合に駐車目標位置の周囲状況を記憶する。このため、自動駐車の際に参照するのに適した駐車目標位置の周囲状況を記憶することができる。したがって、記憶された駐車目標位置の周囲状況を用いて自動駐車を精度良く実行することができる。
 更に、周囲状況センサ2により検出した駐車目標位置の周囲状況である環境地図等を提示装置6により提示するときに、駐車目標位置を含む周囲状況を提示することにより、乗員は、提示された周囲状況の適否入力を行う際に、駐車目標位置と、駐車目標位置の周囲に存在する障害物等との位置関係を容易に理解することができる。
 <本発明の第1の実施形態の第1の変形例>
 本発明の第1の実施形態の第1の変形例として、提示制御部12が、周囲状況センサ2により検出した駐車目標位置の周囲状況として、地図生成部11により生成された環境地図中に、駐車目標位置に加えて、駐車目標位置とは異なる位置に駐車目標位置候補を提示する場合を説明する。
 提示制御部12は、例えば図6に示すように駐車枠51を含む環境地図中に、駐車目標位置51aを提示するとともに、駐車目標位置51aとは異なる駐車目標位置候補51b,51cを提示する。駐車目標位置候補51b,51cは、駐車目標位置51aが周囲状況センサ2により誤検出された位置である場合に、正しい駐車目標位置の可能性がある位置である。駐車目標位置51aと、駐車目標位置候補51b,51cとは互いに区別できるように色彩等を異ならせて提示される。乗員は、駐車目標位置候補51b,51cが正しい駐車目標位置である可能性も考慮して、駐車枠51及び駐車目標位置51aを含む環境地図の適否入力を入力装置4を介して入力する。
 本発明の第1の実施形態の第1の変形例によれば、駐車目標位置51aとは異なる駐車目標位置候補51b,51cを含む周囲状況を提示することにより、乗員は駐車目標位置候補51b,51cを参考情報として用いて、駐車目標位置51aの適否を確認することができる。
 <本発明の第1の実施形態の第2の変形例>
 本発明の第1の実施形態の第2の変形例として、学習結果である記憶装置5に記憶された駐車目標位置の周囲状況を参照して自動駐車を実行する場合の変形例を説明する。自動駐車を開始するときに、提示制御部12は、図7に示すように、記憶装置5に記憶された駐車目標位置の周囲状況である環境地図を提示装置6に提示させる。環境地図は、駐車枠61,62,63を含み、駐車枠62と一部が重なるように駐車目標位置62aが提示されている。駐車枠61,63には他車両22,23が駐車しているが、このうちの他車両23が駐車枠63からはみ出して、駐車目標位置62a側に寄って駐車している。このため、自車両21が駐車目標位置62aに駐車し難い状況である。
 この場合、提示制御部12は、障害物が無いスペースであって、駐車目標位置62aからずらした位置に、自車両21が駐車し易い駐車代替位置62bを提示する。入力装置4は、乗員からの駐車目標位置62a又は駐車代替位置62bを選択する情報を入力装置4を介して入力する。駐車支援部14は、乗員により選択された駐車目標位置62a又は駐車代替位置62bに駐車するための制御信号を各種のアクチュエータに出力する。
 本発明の第1の実施形態の第2の変形例によれば、駐車目標位置62aの近傍の異なる位置に駐車代替位置62bを提示して、駐車目標位置62a又は駐車代替位置62bのいずれに駐車するかの選択を乗員に対して要求する。これにより、駐車環境に応じて駐車目標位置62aを変更することができる。例えば、自宅において駐車目標位置に自転車等の障害物がある場合に、障害物を避けるように駐車目標位置を変更して自動駐車を行うことが可能となる。
 (第2の実施形態)
 <駐車支援装置の構成>
 本発明の第2の実施形態では、駐車目標位置への駐車を複数回繰り返すことにより、駐車目標位置の周囲状況を複数回検出(学習)する場合を説明する。複数回の検出結果を統合することで、1回の駐車では検出できていない障害物や特徴点等を補完することができる。このため、駐車目標位置の周囲状況に基づいて生成する地図データ等の精度を高めることができる。
 本発明の第2の実施形態に係る駐車支援装置の構成は、本発明の第1の実施形態に係る駐車支援装置の構成と同様であり、図1に示すように、制御装置(コントローラ)1、周囲状況センサ2、車両状況センサ3、入力装置(インターフェース)4、記憶装置5及び提示装置6を備える。
 周囲状況センサ2が、複数回の駐車の都度、駐車目標位置の周囲に存在する障害物及び特徴点を含む駐車目標位置の周囲状況を検出する。車両状況センサ3は、複数回の駐車の都度、車輪速パルス及びヨーレート等を含むオドメトリ情報を検出する。
 地図生成部11は、複数回の駐車の都度、周囲状況センサ2により検出された周囲状況と、車両状況センサ3により検出された車輪速やヨーレート等のオドメトリ情報に基づいて環境地図を生成し、生成された環境地図を記憶装置5に記憶させる。更に、地図生成部11は、入力装置4を介して入力された駐車開始位置P1の情報に基づいて、環境地図M11上に駐車開始位置P1を設定し、設定された駐車開始位置P1を記憶装置5に記憶させる。更に、地図生成部11は、入力装置4を介して入力された駐車目標位置P2の情報に基づいて、環境地図M11上に駐車目標位置P2を設定し、設定された駐車目標位置P2を記憶装置5に記憶させる。
 地図生成部11は、複数回の駐車毎に生成された複数の環境地図を統合した環境地図(以下、「統合地図」と呼ぶことがある。)のデータを生成する。複数の環境地図の統合方法としては、例えば、対応する特徴点同士の誤差を最小化するように最小二乗法を用いる方法が採用可能である。或いは、周囲状況センサ2としてレーザレンジファインダ(LRF)を用いて周囲状況が点群情報で与えられる場合にはICP(Iterative Closest Point)アルゴリズムを採用可能である。
 地図生成部11は、複数回の駐車が完了した後に、駐車毎に得られた複数の環境地図を一括して統合することにより統合地図を生成してもよい。例えば図8に示すように、地図生成部11は、3回目の駐車後に、1回目の駐車で得られた環境地図M11、2回目の駐車で得られた環境地図M12、3回目の駐車で得られた環境地図M13を統合して、統合地図M21を生成してもよい。なお、図8では、環境地図M11,M12,M13及び統合地図M21が同様の構成の場合を例示しているが、環境地図M11,M12,M13及び統合地図M21のデータは異なっていてもよい(図9及び図10も同様である)。
 或いは、地図生成部11は、2回目の駐車以降に駐車する都度、統合地図を生成(更新)してもよい。例えば図9に示すように、地図生成部11は、2回目の駐車後に、1回目の駐車で得られた環境地図M11と、2回目の駐車で得られた環境地図M12とを統合することにより、第1の統合地図M21を生成する。そして、3回目の駐車後に、地図生成部11は、3回目の駐車で得られた環境地図M13と、第1の統合地図M21とを統合することにより、第2の統合地図M22を生成してもよい。
 或いは、地図生成部11は、複数の環境地図を幾つかのグループに分けて、グループ毎に複数の環境地図を統合することにより統合地図をそれぞれ生成してもよい。例えば図10に示すように、地図生成部11は、1回目の駐車で得られた環境地図M11と、2回目の駐車で得られた環境地図M12とを第1のグループとして統合して、第1の統合地図M21を生成する。一方、3回目の駐車で得られた環境地図M13と、4回目の駐車で得られた環境地図M14とを第2のグループとして統合して、第2の統合地図M22を生成する。地図生成部11は更に、第1の統合地図M21と第2の統合地図M22とを統合することにより、第3の統合地図M23を生成する。
 図11は、地図生成部11により生成された統合地図M21の一例を示す。統合地図M21は、駐車目標位置P2の周辺の障害物31a,32a,33aを含む。更に、統合地図M21上には、駐車開始位置P1及び駐車目標位置P2が設定されている。なお、図11に示した統合地図M21は、図3に示した環境地図M11と同様の場合を例示しているが、統合地図M21は複数回の学習結果が補完されることで、より正確な地図データであってもよい。
 提示制御部12は、記憶装置5に記憶された駐車開始位置及び駐車目標位置を含む統合地図を提示装置6に提示させて、乗員に対して駐車開始位置及び駐車目標位置を含む統合地図の適否入力を要求する。例えば、提示制御部12は、図11に示した駐車開始位置P1及び駐車目標位置P2を含む統合地図M21を提示装置6に提示させて、駐車開始位置P1及び駐車目標位置P2を含む統合地図M21に対する適否入力を乗員に対して要求する。
 提示制御部12は、例えば図8に示すように、複数回の駐車が完了した後に、複数の環境地図M11,M12,M13を一括して統合することにより統合地図M21を生成する場合には、統合地図M21を提示して、統合地図M21に対する乗員による適否入力を要求する。また、図9に示すように、2回目以降の駐車毎に第1の統合地図M21及び第2の統合地図M22を逐次生成する場合には、2回目以降の駐車毎に第1の統合地図M21及び第2の統合地図M22を提示して、第1の統合地図M21及び第2の統合地図M22に対する乗員による適否入力を逐次要求してもよい。或いは、第1の統合地図M21を提示せずに、最終的に生成された第2の統合地図M22のみを提示して、第2の統合地図M22のみに対する乗員による適否入力を要求してもよい。
 また、図10に示すように、グループ毎に第1の統合地図M21及び第2の統合地図M22をそれぞれ生成し、第1の統合地図M21及び第2の統合地図M22を統合して第3の統合地図M23を生成する場合には、第1の統合地図M21、第2の統合地図M22及び第3の統合地図M23を逐次提示して、第1の統合地図M21、第2の統合地図M22及び第3の統合地図M23に対する乗員による適否入力を逐次要求してもよい。或いは、第1の統合地図M21及び第2の統合地図M22を提示せずに、最終的に生成された第3の統合地図M23のみ提示して、第3の統合地図M23のみに対する乗員による適否入力を要求してもよい。
 入力装置4は、提示装置6に駐車目標位置の周囲状況が提示されている時に、提示された駐車目標位置の周囲状況に対する乗員による適否入力を受け付ける。例えば、図11に示した統合地図M21を提示装置6に提示したときに、乗員は、提示された統合地図M21自体(即ち、統合地図M21中の障害物31a,32a,33aや他車両22aの有無や位置)、統合地図M21上の駐車開始位置P1、統合地図M21上の駐車目標位置P2の少なくともいずれかが適当でないと判断した場合、適さないとした適否入力を入力装置4を介して入力する。一方、乗員は、提示された統合地図M21自体、統合地図M21上の駐車開始位置P1、統合地図M21上の駐車目標位置P2のいずれも適当であると判断した場合、適するとした適否入力を入力装置4を介して入力する。
 判定部13は、入力装置4が受け付けた乗員の適否入力に応じて、統合地図M21の適否を判定する。乗員の適するとした適否入力が得られた場合には、判定部13は統合地図M21が適当であると判定し、統合地図M21を自動駐車の際に参照する地図データとして採用し、記憶装置5に記憶させる。一方、乗員の適さないとした適否入力が得られた場合には、判定部13は統合地図M21が不適当であると判定し、統合地図M21を自動駐車の際に参照する地図データとして採用せず、記憶装置5に記憶させない。
 駐車支援部14は、次回以降の駐車目標位置への駐車に際して、記憶装置5に記憶された駐車目標位置の周囲状況のデータを読み出して、駐車目標位置の周囲状況のデータを用いて自動駐車を実行する。
 なお、提示制御部12は、複数回の駐車毎に、地図生成部11により生成された環境地図を提示装置6に提示させて、環境地図に対する適否入力を要求してもよい。入力装置4は、複数回の駐車毎に、提示装置6に環境地図が提示されている時に、環境地図に対する乗員による適否入力を受け付けてもよい。判定部13は、複数回の駐車毎に、入力装置4が受け付けた乗員の適否入力に応じて、環境地図の適否を判定してもよい。即ち、乗員の適するとした適否入力が得られた場合には、判定部13は環境地図が適当であると判定し、環境地図を記憶装置5に記憶させる。一方、乗員の適さないとした適否入力が得られた場合には、判定部13は環境地図が不適当であると判定し、環境地図を記憶装置5に記憶させない。
 <駐車支援方法>
 次に、図12のフローチャートを参照しながら、本発明の第2の実施形態に係る駐車支援方法の一例を説明する。
 ステップS21において、地図生成部11は、乗員からの入力装置4を介した指示情報に基づいて、駐車開始位置に到達したか否かを判定し、駐車開始位置に到達したと判定された場合にステップS22に移行する。
 ステップS22において、駐車開始位置から駐車目標位置へ手動の駐車を開始する。なお、既存の俯瞰画像を用いた駐車支援装置を用いて駐車を制御してもよい。周囲状況センサ2が、駐車目標位置の周辺の障害物及び特徴点を検出する。車両状況センサ3が、車輪速パルス及びヨーレート等を含むオドメトリ情報を検出する。
 ステップS23において、地図生成部11は、乗員のシフトレバー操作やパーキングブレーキ操作等に基づいて、駐車目標位置に到達し、駐車が完了したか否かを判定する。駐車が完了したと判定された場合、ステップS24に移行する。
 ステップS24において、地図生成部11は、周囲状況センサ2により検出した周囲状況及び車両状況センサ3により検出されたオドメトリ情報等に基づいて、駐車開始位置及び駐車目標位置を含む環境地図(表示画像)を生成する。
 ステップS25において、地図生成部11は、ステップS21~S23で実行した駐車が、同一の駐車目標位置に対する初回の駐車であるか否かを判定する。初回の駐車であると判定された場合、地図生成部11により今回生成された1つの環境地図しかなく、統合地図は生成できないため、処理を完了する。一方、ステップS25において初回の駐車ではないと判定された場合には、ステップS26に移行する。
 ステップS26において、地図生成部11は、駐車目標位置の周囲状況の検出(学習)が十分であるか否かを判定する。例えば、同一の駐車目標位置に対する駐車回数(学習回数)を閾値として、駐車回数が3回以上の場合に周囲状況の検出が十分であると判定し、駐車回数が3回未満の場合に周囲状況の検出が不十分と判定する。或いは、駐車目標位置の周囲状況における障害物の存在確率を閾値として、障害物の存在確率が閾値以上の場合に周囲状況の検出が十分であると判定し、障害物の存在確率が閾値未満の場合に周囲状況の検出が不十分と判定してもよい。なお、ステップS26の周囲状況の検出が十分であるか否かを判定するステップを省略し、ステップS27に移行してもよい。
 ステップS27において、提示制御部12は、地図生成部11により生成された駐車開始位置及び駐車目標位置を含む環境地図(表示画像)を提示装置6に提示し、乗員に対して適否入力を要求する。乗員は、提示装置6に提示された表示画像を視認して、表示画像に対する適否入力を入力装置4を介して入力する。このとき、表示画像中の障害物の有無や位置、駐車開始位置、駐車目標位置が正しくないと判断した場合には、表示画像が不適当である旨の適否入力を入力装置4を介して入力する。一方、乗員は、表示画像中の障害物の有無や位置、駐車開始位置、駐車目標位置が正しいと判断した場合には、表示画像が適当である旨の適否入力を入力装置4を介して入力する。
 ステップS28において、判定部13は、入力装置4が受け付けた乗員による表示画像に対する適否入力に応じて、地図生成部11により生成された統合地図の適否を判定する。乗員が適するとした適否入力が得られた場合には、判定部13は、地図生成部11により生成された環境地図を適当であると判定して、ステップS29に移行する。
 ステップS29において、地図生成部11は、最小二乗法やICPアルゴリズム等を用いて、地図生成部11により生成された今回の駐車で得られた環境地図を含む複数の環境地図を統合した環境地図(統合地図)を生成する。例えば今回の駐車が3回目である場合には、記憶装置5に記憶されていた初回の駐車で得られた環境地図及び2回目の駐車で得られた環境地図と、今回(3回目)の駐車で得られた環境地図とを統合することにより統合地図を生成する。或いは、初回の駐車で得られた環境地図及び2回目の駐車で得られた環境地図が統合されて、第1の統合地図として記憶装置5に記憶されている場合には、第1の統合地図と今回(3回目)の駐車で得られた環境地図とを統合することにより第2の統合地図を生成する。そして、地図生成部11により生成された統合地図を自動駐車の際に参照する地図データとして採用し、記憶装置5に記憶する。
 一方、ステップS28において乗員が適さないとした適否入力が得られた場合には、判定部13は、地図生成部11により生成された表示画像が不適当であると判定して、ステップS30に移行する。ステップS30において、判定部13は、地図生成部11により生成された環境地図を採用せず、環境地図を統合した統合地図を生成しない。
 本発明の第2の実施形態に係る駐車支援プログラムは、図12に示した駐車支援方法の手順を、制御装置1を構成するコンピュータに実行させる。本発明の第2の実施の形態に係る駐車支援プログラムは、例えば記憶装置5に格納可能である。
 なお、図12に示した駐車支援方法において、ステップS27において、提示制御部12は、地図生成部11により生成された環境地図(表示画像)を提示装置6に提示する場合を説明したが、これに限定されない。例えば、ステップS27の前に地図生成部11が複数の環境地図を統合した統合地図(表示画像)を生成し、ステップS27において、提示制御部12が統合地図(表示画像)を提示装置6に提示してもよい。この場合、ステップS28において、統合地図(表示画像)が適するとした適否入力が得られた場合には、ステップS29に移行して、判定部13は、統合地図を自動駐車の際に参照する地図データとして採用し、記憶装置5に記憶する。一方、ステップS28において乗員が適さないとした適否入力が得られた場合には、判定部13は、統合地図を不適当であると判定して、ステップS30に移行する。ステップS30において、判定部13は、統合地図を自動駐車の際に参照する地図データとして採用せず、記憶装置5に記憶しない。
 本発明の第2の実施形態によれば、駐車目標位置の周囲状況を記憶し、記憶された周囲状況を用いて自動駐車を実行する際に、周囲状況センサ2により検出した駐車目標位置の周囲状況である環境地図等を提示装置6により提示する。そして、提示された駐車目標位置の周囲状況に対して、乗員が適するとした適否入力が得られた場合に駐車目標位置の周囲状況を記憶する。このため、自動駐車の際に参照するのに適した駐車目標位置の周囲状況を記憶することができる。したがって、記憶された駐車目標位置の周囲状況を用いて自動駐車を精度良く実行することができる。
 更に、駐車目標位置への駐車を複数回繰り返して駐車目標位置の周囲状況を複数回検出し、検出した複数回の駐車目標位置の周囲状況を記憶することにより、複数回の駐車目標位置の周囲状況を統合・補完してより精度の高い環境地図を生成することができる。
 更に、記憶した複数回の駐車目標位置の周囲状況を提示することにより、複数回の駐車目標位置の周囲状況のうちの適切なデータを乗員が選択することができる。
 更に、駐車目標位置への駐車の都度、駐車目標位置の周囲状況を記憶することにより、駐車目標位置への駐車の都度、自動駐車の際に参照するのに適した環境地図等の周囲状況を選択することができる。
 更に、周囲状況センサ2により検出した駐車目標位置の周囲状況である環境地図等を提示装置6により提示するときに、駐車目標位置を含む周囲状況を提示する。これにより、乗員は、周囲状況の適否を入力する際に、駐車目標位置と、駐車目標位置の周囲に存在する障害物等との位置関係を容易に理解することができる。
 更に、駐車目標位置への駐車毎の周囲状況を提示し、駐車目標位置への駐車毎に、周囲状況センサ2により検出した駐車目標位置の周囲状況に対する乗員の適否入力を受付け、乗員が適すると入力した周囲状況を記憶する。これにより、駐車目標位置への駐車毎に得られた駐車目標位置の周囲状況のうちから、自動駐車の際に参照するのに適した駐車目標位置の周囲状況を選択的に記憶することができる。したがって、記憶された駐車目標位置の周囲状況を用いて自動駐車を精度良く実行することができる。
 <本発明の第2の実施形態の変形例>
 本発明の第2の実施形態では、複数回の駐車で得られた複数の環境地図のすべてを統合する場合を例示した。これに対して、本発明の第2の実施形態の変形例では、複数の環境地図の一部を選択的に統合する場合を説明する。
 提示制御部12は、複数回の駐車で得られた複数の環境地図を提示装置6に並べて或いは順次提示して、複数の環境地図のうち統合する環境地図(学習結果)の選択を乗員に対して要求する。乗員は、提示装置6に提示される複数の環境地図を視認して、複数の環境地図のうち統合に適した環境地図(学習結果)を選択する指示情報を、入力装置4を介して入力する。地図生成部11は、乗員による統合する環境地図の選択結果に基づいて、記憶装置5に記憶された複数の環境地図のうち統合する環境地図を抽出する。地図生成部11は、抽出した環境地図を統合することにより統合地図を生成する。
 本発明の第2の実施形態の変形例によれば、駐車を複数回繰り返すことにより得られた複数の環境地図を提示装置6に提示して、複数の環境地図のうち統合する環境地図(学習結果)の選択を乗員に対して要求する。これにより、乗員は、各学習時の環境地図の中で統合に適した環境地図を選択することができ、不適当な環境地図を除去したうえで、統合に適した環境地図を選択的に統合することができる。
 (その他の実施の形態)
 上記のように、本発明は第1及び第2の実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 本発明の第1及び第2の実施形態においては、提示装置6が主にディスプレイである場合を説明したが、提示装置6がディスプレイ以外のデバイスであってもよい。例えば、提示装置6がスピーカである場合、提示装置6は、「駐車目標位置の周囲状況の認識率が80%です」、「前方に駐車目標位置が認識されています」といった周囲状況センサ2により検出された駐車目標位置の周囲状況を説明する音声を出力することにより、周囲状況センサ2により検出された駐車目標位置の周囲状況の情報を乗員に対して提示することができる。
 このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
1…制御装置
2…周囲状況センサ
2a…カメラ
2b…レーザレーダ
3…車両状況センサ
3a…車輪速センサ
3b…ヨーレートセンサ
4…入力装置
5…記憶装置
6…提示装置
11…地図生成部
12…提示制御部
13…判定部
14…駐車支援部

Claims (8)

  1.  駐車目標位置への駐車に際し、前記駐車目標位置の周囲状況を記憶し、記憶された前記周囲状況を用いて自動駐車を実行する駐車支援方法において、
     前記周囲状況を検出するステップと、
     検出した前記周囲状況を提示するステップと、
     提示した前記周囲状況に対する乗員による適否入力を受付けるステップと、
     乗員が適するとした前記適否入力が得られた場合に、前記周囲状況を記憶するステップ
     とを含むことを特徴とする駐車支援方法。
  2.  前記周囲状況を検出するステップは、前記駐車目標位置への駐車を複数回繰り返すことにより、前記周囲状況を複数回検出し、
     前記周囲状況を記憶するステップは、検出した複数回の前記周囲状況を記憶する
     ことを特徴とする請求項1に記載の駐車支援方法。
  3.  前記周囲状況を提示するステップは、記憶した複数回の前記周囲状況を提示することを特徴とする請求項2に記載の駐車支援方法。
  4.  前記周囲状況を記憶するステップは、前記駐車目標位置への駐車の都度、前記周囲状況を記憶することを特徴とする請求項2又は3に記載の駐車支援方法。
  5.  前記周囲状況を提示するステップは、前記駐車目標位置を含む前記周囲状況を提示することを特徴とする請求項1乃至4の何れか一項に記載の駐車支援方法。
  6.  前記周囲状況を提示するステップは、前記駐車目標位置とは異なる位置に駐車目標位置候補を含む前記周囲状況を提示することを特徴とする請求項1乃至5の何れか一項に記載の駐車支援方法。
  7.  前記周囲状況を提示するステップは、前記駐車目標位置への駐車毎の前記周囲状況を提示し、
     前記乗員による適否入力を受付けるステップは、前記駐車目標位置への駐車毎に、前記周囲状況に対する前記乗員の適否入力を受付け、
     前記周囲状況を記憶するステップは、前記乗員が適すると入力した周囲状況を記憶する
     ことを特徴とする請求項2又は3に記載の駐車支援方法。
  8.  駐車目標位置への駐車に際し、前記駐車目標位置の周囲状況を記憶し、記憶された前記周囲状況を用いて自動駐車を実行する駐車支援装置において、
     前記周囲状況を検出する周囲状況センサと、
     検出した前記周囲状況を提示する提示装置と、
     提示した前記周囲状況に対する乗員による適否入力を受付けるインターフェースと、
     乗員が適するとした前記適否入力が得られた場合に、前記周囲状況を記憶するコントローラ
     とを備えることを特徴とする駐車支援装置。
PCT/JP2016/080386 2016-10-13 2016-10-13 駐車支援方法及び駐車支援装置 WO2018070021A1 (ja)

Priority Applications (11)

Application Number Priority Date Filing Date Title
BR112019007398-1A BR112019007398B1 (pt) 2016-10-13 2016-10-13 Método de assistência ao estacionamento e dispositivo de assistência ao estacionamento
PCT/JP2016/080386 WO2018070021A1 (ja) 2016-10-13 2016-10-13 駐車支援方法及び駐車支援装置
KR1020197013035A KR102154510B1 (ko) 2016-10-13 2016-10-13 주차 지원 방법 및 주차 지원 장치
EP16918946.1A EP3527448B1 (en) 2016-10-13 2016-10-13 Parking assist method and parking assist device
MX2019004331A MX2019004331A (es) 2016-10-13 2016-10-13 Metodo de asistencia al estacionamiento y dispositivo de asistencia al estacionamiento.
RU2019113789A RU2721437C1 (ru) 2016-10-13 2016-10-13 Устройство помощи при парковке и способ помощи при парковке
CA3041176A CA3041176C (en) 2016-10-13 2016-10-13 Parking assistance method and parking assistance device
US16/341,282 US11273821B2 (en) 2016-10-13 2016-10-13 Parking assistance method and parking assistance device
MYPI2019002016A MY183262A (en) 2016-10-13 2016-10-13 Parking assistance method and parking assistance device
JP2018544646A JP7122968B2 (ja) 2016-10-13 2016-10-13 駐車支援方法及び駐車支援装置
CN201680090073.1A CN109843677B (zh) 2016-10-13 2016-10-13 停车辅助方法及停车辅助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/080386 WO2018070021A1 (ja) 2016-10-13 2016-10-13 駐車支援方法及び駐車支援装置

Publications (1)

Publication Number Publication Date
WO2018070021A1 true WO2018070021A1 (ja) 2018-04-19

Family

ID=61905373

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/080386 WO2018070021A1 (ja) 2016-10-13 2016-10-13 駐車支援方法及び駐車支援装置

Country Status (11)

Country Link
US (1) US11273821B2 (ja)
EP (1) EP3527448B1 (ja)
JP (1) JP7122968B2 (ja)
KR (1) KR102154510B1 (ja)
CN (1) CN109843677B (ja)
BR (1) BR112019007398B1 (ja)
CA (1) CA3041176C (ja)
MX (1) MX2019004331A (ja)
MY (1) MY183262A (ja)
RU (1) RU2721437C1 (ja)
WO (1) WO2018070021A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019196091A (ja) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 停止位置設定装置
JP2020069958A (ja) * 2018-11-01 2020-05-07 トヨタ自動車株式会社 駐車支援装置
JP2020075550A (ja) * 2018-11-06 2020-05-21 トヨタ自動車株式会社 駐車支援装置
CN111369779A (zh) * 2018-12-26 2020-07-03 北京图森智途科技有限公司 一种岸吊区卡车精准停车方法、设备及系统
JP2021526473A (ja) * 2018-05-25 2021-10-07 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 運転者支援方法のためのトレーニング方法、運転者支援方法、制御機器、および制御機器を備えた車両
JP2022517371A (ja) * 2019-01-16 2022-03-08 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両の軌道を学習する方法、および電子車両誘導システム
EP3845424A4 (en) * 2018-08-29 2022-06-15 Faurecia Clarion Electronics Co., Ltd. ON-BOARD PROCESSING DEVICE
WO2023100229A1 (ja) * 2021-11-30 2023-06-08 日産自動車株式会社 駐車支援方法及び駐車支援装置
US11804135B2 (en) 2019-11-28 2023-10-31 Mitsubishi Electric Corporation Object recognition apparatus, object recognition method, and computer readable medium
WO2024157459A1 (ja) * 2023-01-27 2024-08-02 日産自動車株式会社 駐車支援方法及び駐車支援装置
WO2024184974A1 (ja) * 2023-03-03 2024-09-12 日産自動車株式会社 駐車支援方法及び駐車支援装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7046552B2 (ja) * 2017-10-05 2022-04-04 アルパイン株式会社 ナビゲーション装置、目的地案内システム、プログラム
JP6897597B2 (ja) * 2018-02-16 2021-06-30 トヨタ自動車株式会社 駐車支援装置
JP7218172B2 (ja) * 2018-12-25 2023-02-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、及び車載処理装置の制御方法
JP7319590B2 (ja) * 2019-10-11 2023-08-02 トヨタ自動車株式会社 車両駐車支援装置
JP7468254B2 (ja) * 2020-08-28 2024-04-16 富士通株式会社 位置姿勢算出方法および位置姿勢算出プログラム
CN116508083B (zh) * 2020-11-02 2024-04-26 日产自动车株式会社 停车辅助方法及停车辅助装置
US11769409B2 (en) * 2020-12-15 2023-09-26 Charter Communications Operating, Llc Automated parking lot digital map generation and use thereof
CN113012464B (zh) * 2021-02-20 2022-03-22 腾讯科技(深圳)有限公司 一种寻车指引方法、装置、设备及计算机可读存储介质
DE102021214767A1 (de) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erstellen einer digitalen Karte

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11157404A (ja) * 1997-11-26 1999-06-15 Toyota Motor Corp 駐車支援装置
JP2002240661A (ja) * 2001-02-19 2002-08-28 Nissan Motor Co Ltd 駐車支援装置
JP2005326944A (ja) 2004-05-12 2005-11-24 Hitachi Ltd レーザー計測により地図画像を生成する装置及び方法
JP2007055378A (ja) * 2005-08-23 2007-03-08 Nissan Motor Co Ltd 駐車支援装置及び駐車支援方法
JP2013244852A (ja) * 2012-05-25 2013-12-09 Sharp Corp 駐車支援装置、駐車支援方法およびそのプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1157404A (ja) * 1997-08-13 1999-03-02 Junko Harashima フロン破壊処理方法
JP3632563B2 (ja) * 1999-10-19 2005-03-23 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
JPWO2006064544A1 (ja) 2004-12-14 2008-06-12 株式会社日立製作所 自動車庫入れ装置
JP2006298115A (ja) * 2005-04-19 2006-11-02 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2007315956A (ja) * 2006-05-26 2007-12-06 Aisin Aw Co Ltd 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置
KR100854766B1 (ko) 2007-04-27 2008-08-27 주식회사 만도 거리 센서를 이용한 주차 공간 검출 방법
KR20120054879A (ko) * 2010-11-22 2012-05-31 고려대학교 산학협력단 차량형 이동 로봇의 충돌 회피 경로 생성 방법 및 이를 이용한 주차 보조 시스템
JP5516992B2 (ja) * 2010-11-30 2014-06-11 アイシン精機株式会社 駐車位置調整装置
DE102011109492A1 (de) * 2011-08-04 2013-02-07 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Fahrunterstützungsvorrichtung zur Unterstützung der Befahrung enger Fahrwege
DE102012008858A1 (de) * 2012-04-28 2012-11-08 Daimler Ag Verfahren zum autonomen Parken eines Kraftfahrzeugs, Fahrerassistenzvorrichtung zur Durchführung des Verfahrens, sowie Kraftfahrzeug mit der Fahrerassistenzvorrichtung
DE102013209764B4 (de) * 2013-05-27 2023-10-05 Robert Bosch Gmbh Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102013015349A1 (de) * 2013-09-17 2014-04-10 Daimler Ag Verfahren und Vorrichtung zum Betrieb eines Fahrzeugs
DE102013015348A1 (de) * 2013-09-17 2014-04-10 Daimler Ag Verfahren und Vorrichtung zum Betrieb eines Fahrzeugs
JP5949840B2 (ja) * 2014-06-19 2016-07-13 トヨタ自動車株式会社 駐車支援装置
US10293816B2 (en) * 2014-09-10 2019-05-21 Ford Global Technologies, Llc Automatic park and reminder system and method of use
DE102014223363B4 (de) * 2014-11-17 2021-04-29 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
JP6507862B2 (ja) * 2015-06-02 2019-05-08 トヨタ自動車株式会社 周辺監視装置及び運転支援装置
RU165235U1 (ru) * 2015-11-17 2016-10-10 Общество с ограниченной ответственностью "Когнитивные технологии" Система распознавания и анализа дорожной сцены
CN107444264A (zh) * 2016-05-31 2017-12-08 法拉第未来公司 使用相机检测车辆附近的物体
EP3498554B1 (en) * 2016-08-09 2020-06-24 JVC KENWOOD Corporation Display control device, display device, display control method, and program
US10252714B2 (en) * 2016-08-11 2019-04-09 Toyota Motor Engineering & Manufacturing North America, Inc. Parking assistance control for vehicle with autonomous operation capability
KR101965834B1 (ko) * 2016-10-12 2019-08-13 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11157404A (ja) * 1997-11-26 1999-06-15 Toyota Motor Corp 駐車支援装置
JP2002240661A (ja) * 2001-02-19 2002-08-28 Nissan Motor Co Ltd 駐車支援装置
JP2005326944A (ja) 2004-05-12 2005-11-24 Hitachi Ltd レーザー計測により地図画像を生成する装置及び方法
JP2007055378A (ja) * 2005-08-23 2007-03-08 Nissan Motor Co Ltd 駐車支援装置及び駐車支援方法
JP2013244852A (ja) * 2012-05-25 2013-12-09 Sharp Corp 駐車支援装置、駐車支援方法およびそのプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7272756B2 (ja) 2018-05-09 2023-05-12 トヨタ自動車株式会社 停止位置設定装置
JP2019196091A (ja) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 停止位置設定装置
US11780432B2 (en) 2018-05-25 2023-10-10 Robert Bosch Gmbh Training method for a driver assistance method, driver assistance method, control device and vehicle comprising the control device
JP2021526473A (ja) * 2018-05-25 2021-10-07 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 運転者支援方法のためのトレーニング方法、運転者支援方法、制御機器、および制御機器を備えた車両
JP2023024995A (ja) * 2018-05-25 2023-02-21 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 運転者支援方法のためのトレーニング方法、運転者支援方法、制御機器、および制御機器を備えた車両
EP3845424A4 (en) * 2018-08-29 2022-06-15 Faurecia Clarion Electronics Co., Ltd. ON-BOARD PROCESSING DEVICE
JP7047709B2 (ja) 2018-11-01 2022-04-05 トヨタ自動車株式会社 駐車支援装置
JP2020069958A (ja) * 2018-11-01 2020-05-07 トヨタ自動車株式会社 駐車支援装置
JP7047715B2 (ja) 2018-11-06 2022-04-05 トヨタ自動車株式会社 駐車支援装置
JP2020075550A (ja) * 2018-11-06 2020-05-21 トヨタ自動車株式会社 駐車支援装置
CN111369779A (zh) * 2018-12-26 2020-07-03 北京图森智途科技有限公司 一种岸吊区卡车精准停车方法、设备及系统
JP2022517371A (ja) * 2019-01-16 2022-03-08 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両の軌道を学習する方法、および電子車両誘導システム
JP7565928B2 (ja) 2019-01-16 2024-10-11 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両の軌道を学習する方法、および電子車両誘導システム
US11804135B2 (en) 2019-11-28 2023-10-31 Mitsubishi Electric Corporation Object recognition apparatus, object recognition method, and computer readable medium
WO2023100229A1 (ja) * 2021-11-30 2023-06-08 日産自動車株式会社 駐車支援方法及び駐車支援装置
WO2024157459A1 (ja) * 2023-01-27 2024-08-02 日産自動車株式会社 駐車支援方法及び駐車支援装置
WO2024184974A1 (ja) * 2023-03-03 2024-09-12 日産自動車株式会社 駐車支援方法及び駐車支援装置

Also Published As

Publication number Publication date
KR20190060825A (ko) 2019-06-03
CN109843677A (zh) 2019-06-04
CA3041176A1 (en) 2018-04-19
EP3527448B1 (en) 2021-05-26
CN109843677B (zh) 2020-07-17
KR102154510B1 (ko) 2020-09-10
EP3527448A4 (en) 2019-11-06
US11273821B2 (en) 2022-03-15
BR112019007398A2 (pt) 2019-07-02
EP3527448A1 (en) 2019-08-21
MX2019004331A (es) 2019-08-05
JP7122968B2 (ja) 2022-08-22
RU2721437C1 (ru) 2020-05-19
MY183262A (en) 2021-02-18
JPWO2018070021A1 (ja) 2019-08-15
US20200017099A1 (en) 2020-01-16
BR112019007398B1 (pt) 2022-12-20
CA3041176C (en) 2020-07-21

Similar Documents

Publication Publication Date Title
WO2018070021A1 (ja) 駐車支援方法及び駐車支援装置
JP4341649B2 (ja) ナビゲーション装置、位置検出方法
JP6926976B2 (ja) 駐車支援装置及びコンピュータプログラム
KR102513745B1 (ko) 운전 지원 장치
JP6436054B2 (ja) 運転支援装置
JP4793227B2 (ja) カーナビゲーション装置
JP2018034541A (ja) 駐車支援方法及び駐車支援装置
US20170076608A1 (en) Driving assistance apparatus
KR102145747B1 (ko) 주차 지원 방법 및 주차 지원 장치
WO2018070022A1 (ja) 自己位置推定方法及び自己位置推定装置
JP2007333502A (ja) 合流支援装置及び合流支援方法
JP4416021B2 (ja) 車両ナビゲーション装置
JP5573266B2 (ja) 車両用対象物画像認識装置、車両用対象物画像認識方法及びコンピュータプログラム
JP2009220592A (ja) 車載用縦列駐車支援装置および車載用縦列駐車支援装置のプログラム
JP2008202968A (ja) 車両用ナビゲーション装置
JP2023021775A (ja) 駐車支援方法及び駐車支援装置
US11935307B2 (en) Vehicle control apparatus
WO2023166738A1 (ja) 駐車支援方法及び駐車支援装置
JP2006343480A (ja) 地図表示装置
JP2019066963A (ja) 運転支援装置および運転支援方法
JP2024113792A (ja) 車両挙動分析装置、車道挙動分析方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16918946

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018544646

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3041176

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112019007398

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 20197013035

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2016918946

Country of ref document: EP

Effective date: 20190513

ENP Entry into the national phase

Ref document number: 112019007398

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20190411