[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2018225177A1 - 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法 - Google Patents

空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法 Download PDF

Info

Publication number
WO2018225177A1
WO2018225177A1 PCT/JP2017/021123 JP2017021123W WO2018225177A1 WO 2018225177 A1 WO2018225177 A1 WO 2018225177A1 JP 2017021123 W JP2017021123 W JP 2017021123W WO 2018225177 A1 WO2018225177 A1 WO 2018225177A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
empty space
space
unit
parking lot
Prior art date
Application number
PCT/JP2017/021123
Other languages
English (en)
French (fr)
Inventor
謙太郎 坂梨
兼秀 荒井
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201780091403.3A priority Critical patent/CN110709910A/zh
Priority to JP2019523263A priority patent/JP6785960B2/ja
Priority to PCT/JP2017/021123 priority patent/WO2018225177A1/ja
Priority to US16/607,522 priority patent/US20200143140A1/en
Publication of WO2018225177A1 publication Critical patent/WO2018225177A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/144Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces on portable or mobile units, e.g. personal digital assistant [PDA]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Definitions

  • This invention relates to an empty space notification device that supports parking in a parking lot.
  • Patent Document 1 describes a navigation device that, when a vehicle enters a large parking lot, analyzes an image of a captured image transmitted from a flying object and discriminates an empty parking space.
  • the navigation device can also emit a voice message such as “There is an empty space on the right fifth vehicle 4 rows ahead of the current position”.
  • Some parking lots have a parking frame due to a white line drawn on the ground, and others have no parking frame like a temporary parking lot.
  • the navigation device of Patent Document 1 assumes a parking lot with a parking lot frame based on the contents of a voice message. Since the parking frame is drawn in advance in such a size that a vehicle of most sizes can be parked, the vehicle can be parked without any problem in the empty parking frame. Therefore, in a parking lot with a parking frame, if a free parking space can be identified as in the navigation device of Patent Document 1, there is no problem even if the driver is notified without considering whether the vehicle really fits in that space. Absent.
  • the present invention has been made to solve the above-described problems, and an object thereof is to obtain an empty space notification device applicable to a parking lot without a parking frame.
  • An empty space notification device includes a video acquisition unit that acquires a video overlooking a parking lot, a parking vehicle detection unit that detects a parked vehicle in the parking lot using the video, and a parking lot in the parking lot.
  • An empty space detection unit that detects an area where there is no parked vehicle detected by the vehicle detection unit and is determined to fit the guidance target vehicle as an empty space, and an empty space detected by the empty space detection unit
  • an information generation unit that generates notification information to be displayed.
  • the area determined to accommodate the guidance target vehicle since the area determined to accommodate the guidance target vehicle is detected as an empty space, it can be applied to a parking lot without a parking frame.
  • FIG. 1 It is a figure which shows the structure of the empty space notification apparatus which concerns on Embodiment 1, and its periphery. It is the figure which showed typically the positional relationship of a flying body and a guidance object vehicle.
  • 3A and 3B are diagrams illustrating a hardware configuration example of the free space notification device according to the first embodiment. It is a flowchart which shows an example of the process by a flying body and a vehicle-mounted apparatus. It is an image figure of the process by step ST3 of FIG. It is explanatory drawing of the warehousing space, the leaving space, and the door opening space. It is a flowchart which shows the detection process of the empty space which considered the leaving space, the entering space, and the door opening space. It is a figure which shows a parking layout.
  • step ST43 of FIG. It is an image figure of the process by step ST44 of FIG.
  • step ST45 of FIG. 12A and 12B are image diagrams of the process in step ST6 of FIG. It is an example of the image which the image information which the information generation part produced
  • FIG. 1 is a diagram showing a configuration of an empty space notification device 12 and its surroundings according to the first embodiment.
  • FIG. 1 shows a case where the empty space notification device 12 is built in the flying object 10.
  • the in-vehicle device 20 can communicate with the flying object 10.
  • FIG. 2 is a diagram schematically showing a positional relationship between the flying object 10 and the vehicle V on which the in-vehicle device 20 is mounted.
  • FIG. 2 is a diagram when viewed from the viewpoint of overlooking the parking lot.
  • the vehicle V is a guidance target vehicle entering the parking lot and trying to park.
  • the flying object 10 is flying over the parking lot.
  • the flying object 10 is a drone, for example.
  • the flying object 10 includes a camera 11, an empty space notification device 12, and a communication device 13.
  • the camera 11 produces
  • the camera 11 outputs the generated video to the empty space notification device 12.
  • the empty space notification device 12 includes a video acquisition unit 12a, a calculation unit 12b, a parked vehicle detection unit 12c, an empty space detection unit 12d, a priority setting unit 12e, an exit estimation unit 12f, and an information generation unit 12g. And a communication processing unit 12h.
  • the video acquisition unit 12a acquires the video output from the camera 11 and overlooking the parking lot.
  • the video acquisition unit 12a outputs the acquired video to a calculation unit configured by a calculation unit 12b, a parked vehicle detection unit 12c, an empty space detection unit 12d, a priority setting unit 12e, and a leaving estimation unit 12f.
  • the calculation unit 12b calculates the size of the vehicle V by image processing using the video acquired by the video acquisition unit 12a. Note that the position of the vehicle V whose size is to be calculated is specified using position information generated by a position information generation unit 25 described later. The calculation unit 12b outputs the calculated size of the vehicle V to the empty space detection unit 12d.
  • the parked vehicle detection unit 12c detects a parked vehicle already parked in the parking lot by image processing using the video acquired by the video acquisition unit 12a. In FIG. 2, the parked vehicle is indicated by a rectangle in the parking lot. The parked vehicle detection unit 12c outputs the detection result to the empty space detection unit 12d.
  • the empty space detection unit 12d receives the processing of the calculation unit 12b and the parked vehicle detection unit 12c, and detects an area where the vehicle V is accommodated in the parking lot as an empty space. Details of the free space detection processing by the free space detection unit 12d will be described in the description with reference to FIG.
  • the free space detection unit 12d outputs the detected free space to the priority setting unit 12e and the information generation unit 12g.
  • the priority setting unit 12e sets the priority for each free space detected by the free space detection unit 12d.
  • the priority setting part 12e sets the priority of the empty space near the vehicle entrance of a parking lot high, for example.
  • the priority setting unit 12e outputs the set priority to the information generation unit 12g.
  • the delivery estimation unit 12f estimates a parked vehicle to be delivered soon from among parked vehicles already parked in the parking lot.
  • the exit estimation unit 12f outputs the parked vehicle that is estimated to exit to the information generation unit 12g.
  • the information generation unit 12g generates notification information indicating the free space detected by the free space detection unit 12d.
  • the information generation unit 12g outputs the generated notification information to the communication processing unit 12h.
  • the communication processing unit 12h is responsible for exchanging information between the free space notification device 12 and the communication device 13. For example, the communication processing unit 12 h outputs the notification information generated by the information generation unit 12 g to the communication device 13. For example, the communication processing unit 12h outputs information received from the in-vehicle device 20 by the communication device 13 to the arithmetic unit.
  • the communication device 13 is responsible for communication between the flying object 10 and the in-vehicle device 20.
  • the communication device 13 transmits notification information and the like output from the communication processing unit 12 h to the in-vehicle device 20 and receives information from the in-vehicle device 20.
  • the communication device 13 is a communication device corresponding to a mobile phone network such as a radio wave beacon, an optical beacon, DSRC (Dedicated Short Range Communications), Wi-Fi, or LTE (Long Term Evolution).
  • the in-vehicle device 20 includes a GPS (Global Positioning System) receiver 21, an input device 22, a display device 23, a communication device 24, a position information generation unit 25, a communication processing unit 26, and a display control unit 27.
  • GPS Global Positioning System
  • the GPS receiver 21 receives radio waves output from GPS satellites and outputs received information to the position information generation unit 25.
  • the input device 22 receives an operation by a user such as a driver of the vehicle V.
  • the input device 22 is a hardware key such as a touch panel or a button, for example.
  • the input device 22 When operated by the user, the input device 22 outputs operation information indicating the operation content to the position information generation unit 25.
  • the display device 23 is controlled by the display control unit 27 to display an image.
  • the display device 23 is, for example, an LCD (Liquid Crystal Display).
  • the communication device 24 is responsible for communication between the in-vehicle device 20 and the flying object 10.
  • the communication device 24 transmits position information and the like described later output from the communication processing unit 26 to the flying object 10 and receives notification information and the like from the flying object 10.
  • the communication device 24 is a communication device compatible with a radio beacon, an optical beacon, DSRC, Wi-Fi, or a cellular phone network such as LTE.
  • the position information generation unit 25 generates position information using the reception information output from the GPS receiver 21 or the operation information output from the input device 22.
  • the position information generation unit 25 outputs the generated position information to the communication processing unit 26.
  • the communication processing unit 26 is responsible for exchanging information between the position information generating unit 25 and the display control unit 27 and the communication device 13. For example, the communication processing unit 26 outputs the position information generated by the position information generation unit 25 to the communication device 24. Further, for example, the communication processing unit 26 outputs information received by the communication device 24 from the flying object 10 to the display control unit 27.
  • the display control unit 27 controls the video displayed by the display device 23.
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in a memory.
  • the CPU is also called a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, or a DSP (Digital Signal Processor).
  • FIG. 3A shows the functions of the video acquisition unit 12a, calculation unit 12b, parked vehicle detection unit 12c, empty space detection unit 12d, priority setting unit 12e, exit estimation unit 12f, information generation unit 12g, and communication processing unit 12h.
  • FIG. 3 is a diagram illustrating a hardware configuration example when realized by a processing circuit 101 which is dedicated hardware.
  • the processing circuit 101 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof. To do.
  • the functions of the image acquisition unit 12a, calculation unit 12b, parked vehicle detection unit 12c, empty space detection unit 12d, priority setting unit 12e, exit estimation unit 12f, information generation unit 12g, and communication processing unit 12h are separated processing circuits. 101 may be realized in combination, or the function of each unit may be realized by one processing circuit 101.
  • FIG. 3B shows the functions of the video acquisition unit 12a, calculation unit 12b, parked vehicle detection unit 12c, empty space detection unit 12d, priority setting unit 12e, exit estimation unit 12f, information generation unit 12g, and communication processing unit 12h.
  • 2 is a diagram illustrating an example of a hardware configuration when realized by a CPU 103 that executes a program stored in a memory 102.
  • the functions of the video acquisition unit 12a, the calculation unit 12b, the parked vehicle detection unit 12c, the empty space detection unit 12d, the priority setting unit 12e, the exit estimation unit 12f, the information generation unit 12g, and the communication processing unit 12h are as follows: It is realized by software, firmware, or a combination of software and firmware.
  • the CPU 103 reads out and executes the program stored in the memory 102, whereby a video acquisition unit 12a, a calculation unit 12b, a parked vehicle detection unit 12c, an empty space detection unit 12d, a priority setting unit 12e, a delivery estimation unit 12f,
  • the function of each part of the information generation part 12g and the communication processing part 12h is implement
  • the memory 102 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically Erasable Programmable ROM, etc.).
  • a RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically Erasable Programmable ROM, etc.).
  • This corresponds to a semiconductor memory or a disk-shaped recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD (Digital Versatile Disc).
  • each part of the image video acquisition part 12a, the calculation part 12b, the parked vehicle detection part 12c, the empty space detection part 12d, the priority setting part 12e, the leaving estimation part 12f, the information generation part 12g, and the communication process part 12h, it is one.
  • the part may be realized by dedicated hardware, and a part may be realized by software or firmware.
  • the video acquisition unit 12a, the calculation unit 12b, the parked vehicle detection unit 12c, and the empty space detection unit 12d are realized by a processing circuit as dedicated hardware, and the priority setting unit 12e, the exit estimation unit 12f,
  • the functions of the information generator 12g and the communication processor 12h can be realized by the processing circuit reading and executing a program stored in the memory.
  • the processing circuit is configured by the above-described video acquisition unit 12a, calculation unit 12b, parked vehicle detection unit 12c, vacant space detection unit 12d, priority setting unit 12e, delivery, by hardware, software, firmware, or a combination thereof.
  • the function of each part of the estimation part 12f, the information generation part 12g, and the communication process part 12h is realizable.
  • the position information generation unit 25, the communication processing unit 26, and the display control unit 27 of the in-vehicle device 20 are realized by the processing circuit 101 as shown in FIG. 3A or the memory 102 and the CPU 103 as shown in FIG. 3B. be able to.
  • the position information generation unit 25 generates position information.
  • the position information generated by the position information generation unit 25 is transmitted to the flying object 10 via the communication processing unit 26 and the communication device 24 (step ST1). From this position information, the flying object 10 can know where the vehicle V that is the guidance target vehicle is located.
  • the position information generation unit 25 generates position information using reception information from the GPS receiver 21, for example. Alternatively, the position information generation unit 25 may generate position information using operation information output from the input device 22.
  • the position information generation unit 25 uses the touch panel which is the input device 22. Touch the vehicle V in the video.
  • the position information generation unit 25 uses the operation information output from the input device 22 to generate information indicating where in the video is touched as position information.
  • the vehicle-mounted device 20 when a location recognized as a guidance target vehicle is set in advance by a parking lot manager or the like, when the vehicle reaches the location, for example, the vehicle entrance of the parking lot, the vehicle-mounted device 20 notifies the flying body 10 of “Notification of empty space”.
  • the “request message” may be transmitted as position information.
  • the flying object 10 receives the message, the flying object 10 considers that the vehicle V is located at a set place such as a vehicle entrance of the parking lot.
  • the flying object 10 receives the position information transmitted from the in-vehicle device 20 by the communication device 13, and the position information is output to the calculation unit 12b via the communication processing unit 12h. Subsequently, using the video acquired by the video acquisition unit 12a, the calculation unit 12b calculates the size of the vehicle V at the position indicated by the position information by image processing (step ST2). Thereby, as shown in FIG. 2, the rough vertical width and rough width of the vehicle V are calculated.
  • the length in the front-rear direction of the vehicle is the vertical width
  • the length in the left-right direction of the vehicle is the horizontal width.
  • the video acquisition unit 12a acquires a video overlooking the parking lot from the camera 11 at an appropriate timing.
  • the camera 11 In order to calculate the size of the vehicle V using the video acquired by the video acquisition unit 12a, the camera 11 is provided so that the vehicle entering the parking lot also enters the shooting range.
  • the calculation unit 12b outputs the calculated size of the vehicle V to the empty space detection unit 12d.
  • the parked vehicle detection unit 12c detects a parked vehicle already parked in the parking lot by using image processing acquired by the video acquisition unit 12a (step ST3). For example, an image when there is no parked vehicle in the parking lot is stored in a memory (not shown), and the parked vehicle detection unit 12c can detect the parked vehicle by differential processing using the image. . At this time, the parked vehicle detection unit 12c outputs the position, size, and direction of the parked vehicle as detection results to the empty space detection unit 12d.
  • FIG. 5 is an image diagram of processing in step ST3.
  • a parked vehicle is detected as indicated by the rectangle in the parking lot.
  • the parked vehicle detection unit 12c may detect an obstacle in the parking lot.
  • the direction of the parked vehicle may be any direction that indicates the direction in which the object detected as the parked vehicle is long. Which is the front of the parked vehicle and the rear of the parked vehicle is facing? It does not have to indicate up to.
  • the empty space detection unit 12d receives the processing of steps ST2 and ST3 and detects an area in the parking lot where the vehicle V can be accommodated as an empty space (step ST4).
  • the simplest method for detecting an empty space is a method for detecting an area in which the vehicle V fits in an area where there is no parked vehicle in the parking lot.
  • the empty space detection unit 12d extracts an area where there is no parked vehicle detected by the parked vehicle detection unit 12c from the video acquired by the video acquisition unit 12a.
  • the empty space detection unit 12d may not use the image of the parking lot.
  • the empty space detection unit 12d stores information such as the size of the parking lot in a memory (not shown).
  • the empty space detection unit 12d can extract an area where there is no parked vehicle in the parking lot. Then, the empty space detection unit 12d appropriately divides the extracted region into a rectangular shape, and determines whether the vehicle V having the size calculated by the calculation unit 12b can be accommodated for each divided region. At this time, an area determined to contain the vehicle V is detected as an empty space.
  • FIG. 6 is an explanatory diagram of a preferable space when it is considered in detecting an empty space.
  • the exit space and entry space are shown as space S1 in FIG. If there is any object in the space S1, it is difficult for the vehicle to enter or exit.
  • the opening space is shown as space S2 in FIG.
  • space S2 the space for the trunk room door is set in both the longitudinal direction of the vehicle.
  • one of them overlaps with the space S1, so that a space S2 is formed on the opposite side of the space S1 in the left and right sides of the vehicle and in the longitudinal direction of the vehicle as shown in FIG. Is set. If there is any object in the space S2, it will be difficult to open the door of the vehicle. Note that only the space for opening the door of the driver's seat may be considered as the opening space.
  • the entry space, exit space, and door opening space are vacant using vehicle-specific characteristic information such as vehicle width and width, vehicle width and width when the door is open, and minimum turning radius. It can be calculated by the space detector 12d.
  • the characteristic information unique to the guidance target vehicle is simultaneously transmitted from the in-vehicle device 20 to the flying object 10 at the time of transmitting the position information in step ST1, for example. Further, as the unique characteristic information of each parked vehicle, unique characteristic information transmitted when the parked vehicle is a guidance target vehicle may be accumulated in the flying object 10. In addition, when characteristic information unique to the guidance target vehicle and the parked vehicle cannot be acquired, average characteristic information of the vehicle may be used. In addition, regarding the vertical width and the horizontal width of the vehicle, the rough vertical width and the rough horizontal width calculated in step ST2 may be substituted.
  • the empty space detection unit 12d determines whether a parking layout exists (step ST41).
  • the parking layout indicates how to use a parking lot assumed by a parking lot manager or the like. For example, as shown in FIG. 8, information indicating a parking space and a road space for the vehicle to travel is stored in advance in a memory (not shown) as a parking layout.
  • step ST41; NO If there is no parking layout (step ST41; NO), that is, if the parking layout is not stored in a memory (not shown), the process proceeds to a process of step ST43 described later.
  • step ST41; YES when a parking layout exists (step ST41; YES), that is, when the parking layout is stored in a memory (not shown), the empty space detection unit 12d creates a layout as shown in FIG. ST42).
  • the empty space detection unit 12d creates a leaving space for the parked vehicle (step ST43).
  • the created exit space can be regarded as a virtual road through which a parked vehicle passes. If there is a layout created in step ST42, the empty space detection unit 12d uses the road space indicated in the layout as a delivery space for subsequent processing. In step ST43, the empty space detection unit 12d may also create an opening space for the parked vehicle.
  • the vacant space detection unit 12d sets a parking impossible area (step ST44). For example, as shown by a cross in FIG. 10, the vacant space detection unit 12d sets a region near the vehicle entrance of the parking lot and a region narrower than the lateral width of the vehicle V as a non-parking region. In addition, the vacant space detection unit 12d may set an area uniquely set by the parking lot manager as an unparkable area.
  • the vacant space detection unit 12d detects the vacant space in the parking lot excluding the parked vehicle, the parking space of the parked vehicle, and the set non-parking area (step ST45).
  • the empty space detection unit 12 d detects, as an empty space, an area that is determined to contain the storage space and the opening space of the vehicle V.
  • the entry space and the opening space of the vehicle V are hatched with the exit space of the parked vehicle shown in FIGS. 9 and 10 not shown. ing.
  • the free space detection unit 12d determines whether a free space has been found (step ST5). When an empty space is not found (step ST5; NO), for example, when the parking lot is full, the process proceeds to step ST7 described later.
  • the priority setting unit 12e sets a priority for each empty space detected by the empty space detection unit 12d (step ST6). For example, as shown in FIG. 12A, the priority setting unit 12e sets priorities in order from the vehicle entrance to the parking lot. Alternatively, the priority setting unit 12e sets priorities in order of increasing width as shown in FIG. 12B. Or the priority setting part 12e may set a priority in the order near from the vehicle exit of a parking lot, or the order near or far from the pedestrian entrance of a parking lot. The priority setting unit 12e outputs the set priority to the information generation unit 12g.
  • the conditions used when setting the priority are, for example, transmitted from the in-vehicle device 20 to the flying object 10 at the same time when the position information is transmitted in step ST1. For example, when the user wants to park in a place near the vehicle entrance of the parking lot, the user sets that in advance in the in-vehicle device 20.
  • the exit estimation unit 12f estimates a parked vehicle to be released soon from among parked vehicles already parked in the parking lot (step ST7).
  • the exit guessing unit 12f periodically acquires the video output from the camera 11 via the video acquisition unit 12a and performs image processing to detect and manage a person's boarding / exiting situation in the parked vehicle.
  • the boarding / exiting situation there are no people coming out of the vehicle, one or more people coming out of the vehicle, one or more people coming out of the vehicle and returning one or more people, and the number of people leaving the vehicle There are four possible categories: the same number of people have returned.
  • the unloading estimation unit 12f uses the detected boarding / exiting state to estimate a parked vehicle to be unloaded soon. When there is no person coming out of the vehicle, the possibility of leaving is considered to be the lowest. Subsequently, when one or more people come out of the vehicle, one or more people come out of the vehicle. In the case of returning as described above, subsequently, the possibility of leaving is increased in the order of the number of people returning from the vehicle. Or the leaving estimation part 12f may guess whether it leaves based on the parking time of a parked vehicle. The leaving estimation unit 12f outputs to the information generation unit 12g a parked vehicle that is estimated to leave, such as when the same number of people that have left the vehicle have returned.
  • the information generation unit 12g generates notification information indicating the free space detected by the free space detection unit 12d (step ST8).
  • the information generation unit 12 g generates image information that is differentiated by coloring an empty space (grayed in the illustrated example).
  • the information generation unit 12g may generate image information that also indicates the priority as shown in FIG.
  • the information generation unit 12g when there is a parked vehicle that is estimated to be issued by the issue estimation unit 12f because the same number of people as the number of people who have left the vehicle has returned, the information generation unit 12g, as shown in FIG. It is preferable to generate image information that is differentiated by coloring the parked vehicle (black in the illustrated example).
  • the notification information generated by the information generation unit 12g is transmitted to the in-vehicle device 20 via the communication processing unit 12h and the communication device 13.
  • the display control unit 27 acquires the notification information via the communication device 24 and the communication processing unit 26, and controls the display device 23 to display the video indicated by the notification information (step ST9).
  • the information generation unit 12g may, for example, “There is a wide empty space to the right of the entrance”, “There is one empty space to the left of the entrance”, or “One empty space in the back of the parking lot” Image information including a text message such as “Yes” may be generated. These messages are finally displayed on the display device 23.
  • the information generation unit 12g may generate voice information indicating these messages as notification information.
  • the audio information is received by the in-vehicle device 20 and then output from an in-vehicle speaker (not shown) by an audio control unit of the in-vehicle device 20 (not shown).
  • the information generation unit 12g may generate image information by superimposing the empty space, the priority, and the parked vehicle to be delivered on the video generated by the camera 11, or may be a simple figure instead of the video generated by the camera 11.
  • the image information expressing the empty space, the priority, and the parked vehicle to be delivered may be generated. In the former case, the user can easily imagine the situation of the parking lot, and in the latter case, the data amount of the image information can be suppressed.
  • the empty space notifying device 12 detects an empty space that is large enough to accommodate the vehicle V even in a parking lot without a parking frame, and notifies the user via the in-vehicle device 20. Can do.
  • the empty space notification device 12 may be built in the in-vehicle device 20.
  • the free space notification device 12 appropriately acquires information necessary for detecting a free space such as a video generated by the camera 11 from the flying object 10 and performs processing.
  • the free space notification device 12 may be built in an external server.
  • the external server is communicably connected to both the flying object 10 and the in-vehicle device 20.
  • the empty space notification device 12 may be built in a mobile terminal brought into a vehicle such as a smartphone or a tablet terminal.
  • the portable terminal is communicably connected to both the flying object 10 and the in-vehicle device 20.
  • the vacant space notification device 12 may be configured so as to be distributed in the flying object 10 and the in-vehicle device 20 and straddle the flying object 10 and the in-vehicle device 20.
  • a camera is provided at a position where the parking lot can be looked down rather than the flying object 10, and the empty space notifying device 12 is built in the camera, or an empty space notifying device can be communicated with the camera at any place in the parking lot. 12 may be provided.
  • the priority setting unit 12e and the leaving estimation unit 12f are provided in the empty space notification device 12 because the amount of information known by the user is large, but an empty space having a size that can accommodate the vehicle V is notified.
  • the priority setting unit 12e and the leaving estimation unit 12f may be excluded from the empty space notification device 12.
  • FIG. 12d determines whether or not the vehicle V is accommodated in the area where the parked vehicle estimated to be issued by the departure estimation unit 12f stops.
  • FIG. 12d determines whether or not the vehicle V is accommodated in the area where the parked vehicle estimated to be issued by the departure estimation unit 12f stops.
  • the flying object 10 may be provided in a parking lot, and may be constantly flying over the parking lot. Alternatively, the flying object 10 may be provided in a guidance target vehicle. When entering, it may begin to fly over the parking lot. In the latter case, since the flying object 10 is dedicated to the guidance target vehicle, the flying object 10 may store the size of the guidance target vehicle in advance in a memory (not shown). In this way, even if the calculation unit 12b is not provided in the flying object 10, the empty space detection unit 12d can read the size of the guidance target vehicle from a memory (not shown) and use it for processing.
  • the empty space notification device 12 As described above, according to the empty space notification device 12 according to the first embodiment, even in a parking lot without a parking frame, an empty space having a size enough to accommodate the vehicle V is detected, and the in-vehicle device The user can be notified via 20. That is, the empty space notification device 12 can be applied to a parking lot without a parking frame. Naturally, the empty space notification device 12 can detect the empty space in the same manner even when a parking lot with a parking frame is targeted by performing the processing described above.
  • the empty space detection unit 12d includes an exit space required when the parked vehicle exits, an entry space required when the guidance target vehicle enters, and an opening space required when the door of the guidance target vehicle opens. And vacant space was detected using Thereby, a more appropriate empty space can be detected with higher accuracy.
  • the empty space detection unit 12d calculates the warehousing space and the door opening space using the characteristic information unique to the guidance target vehicle. Thereby, the warehousing space and the door opening space of the guidance target vehicle can be calculated with higher accuracy.
  • a priority setting unit 12e that sets the priority for each free space detected by the free space detection unit 12d is provided, and the information generation unit 12g generates notification information indicating the priority of the free space. Thereby, the user can know which empty space is more preferable.
  • the delivery estimation part 12f which guesses the parked vehicle to deliver using the passenger's boarding / alighting situation in the parking lot in the parking lot
  • the information generation part 12g shows the parked vehicle which the delivery estimation part 12f presumed to deliver. Notification information is generated. Thereby, the user can know where it is likely to become a new empty space. This is particularly useful when the vehicle is full.
  • the calculation unit 12b that calculates the size of the guidance target vehicle using the video is provided. Thereby, even if the flying object 10 is provided in the parking lot, the size of the guidance target vehicle can be calculated and used for processing.
  • FIG. 14 is a diagram showing a configuration of the free space notification device 12 and its surroundings according to the second embodiment.
  • the configuration shown as the in-vehicle device 20 in FIG. 1 is shown as a mobile terminal 30 possessed by the guide.
  • the portable terminal 30 includes a GPS receiver 21, an input device 22, a display device 23, a communication device 24, a position information generation unit 25, a communication processing unit 26, and a display control unit similar to the vehicle-mounted device 20. 27.
  • the flying object 10 is configured in the same manner as that shown in FIG. Therefore, components having the same or corresponding functions as those already described in the first embodiment are denoted by the same reference numerals, and description thereof is omitted or simplified in the second embodiment. In addition, illustration was abbreviate
  • FIG. 15 is a figure at the time of seeing from the viewpoint which overlooks a parking lot, and has shown the example of arrangement
  • the position information transmitted in step ST1 is generated when the guide touches the touch panel that is the input device 22. That is, the image of the parking lot transmitted by the flying object 10 is already displayed on the display device 23, and the guide touches the vehicle to be guided in the image using the touch panel.
  • the position information generation unit 25 generates information indicating where in the video is touched as position information.
  • step ST8 Since the processing of steps ST2 to ST8 has already been described in the first embodiment, description thereof will be omitted to avoid duplication.
  • the notification information generated in step ST8 is transmitted to the mobile terminal 30.
  • the display control part 27 controls the display apparatus 23 so that the image
  • the guide can see the video as shown in FIG. 13, and the guidance target vehicle can be guided with reference to the video.
  • a text message may be displayed on the display device 23, or a voice indicating the message may be output from a speaker of the mobile terminal 30.
  • the empty space notification device 12 As described above, according to the empty space notification device 12 according to the second embodiment, even in a parking lot without a parking frame, an empty space having a size enough to accommodate the vehicle V is detected, and the portable terminal The parking lot guide can be notified via 30. That is, the empty space notification device 12 can be applied to a parking lot without a parking frame. Naturally, the empty space notification device 12 can detect the empty space in the same manner even when a parking lot with a parking frame is targeted by performing the processing described above.
  • the empty space notification device can detect an empty space in which the size of the guidance target vehicle can be detected, it is used as a device for detecting an empty space in a parking lot without a parking frame. Especially suitable for.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Traffic Control Systems (AREA)

Abstract

駐車車両検出部(12c)は、駐車場を俯瞰した映像を用いて、駐車場内の駐車車両を検出する。空きスペース検出部(12d)は、駐車場の中で、駐車車両検出部(12c)が検出した駐車車用が無い領域であって、誘導対象車両の大きさが収まると判定した領域を、空きスペースとして検出する。そして、情報生成部(12g)は、空きスペース検出部(12d)が検出した空きスペースを示す通知情報を生成する。

Description

空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法
 この発明は、駐車場での駐車を支援する空きスペース通知装置に関するものである。
 例えば特許文献1には、車両が大きな駐車場に入った場合に、飛行体から送信された撮影映像を画像分析し、空いている駐車スペースを判別するナビゲーション装置が記載されている。そして、このナビゲーション装置は、「現在位置から4列先の右側5台目に空きスペースが有ります。」といった音声メッセージの放音も可能となっている。
特開2016―138853号公報
 駐車場には、地面に白線が引かれるなどして駐車枠がある駐車場もあれば、臨時駐車場のように駐車枠が無い駐車場もある。
 例えば上記特許文献1のナビゲーション装置は、音声メッセージの内容からして駐車場枠がある駐車場を想定したものである。駐車枠は、予め大抵の大きさの車両が駐車できる大きさで引かれているので、空いている駐車枠には問題無く車両を停めることができる。したがって、駐車枠がある駐車場では、上記特許文献1のナビゲーション装置のように、空いている駐車スペースが判別できればそのスペースに車両が本当に収まるかを考慮せずにドライバへ通知しても支障はない。
 一方、駐車枠が無い場合、車両が不規則に停められるなどして、隣接する駐車車両の間隔も不規則になる。このため、駐車車両の間に空いているスペースが見つかったとしても、そのスペースには駐車しようとしている車両が収まらない可能性がある。
 したがって、上記特許文献1のように車両が本当に収まるかを考慮しない従来の装置では、駐車枠が無い駐車場において適切な空きスペースを通知することが難しかった。
 この発明は、上記のような課題を解決するためになされたもので、駐車枠が無い駐車場に対しても適用可能な空きスペース通知装置を得ることを目的とする。
 この発明に係る空きスペース通知装置は、駐車場を俯瞰した映像を取得する映像取得部と、映像を用いて、駐車場内の駐車車両を検出する駐車車両検出部と、駐車場の中で、駐車車両検出部が検出した駐車車両が無い領域であって、誘導対象車両の大きさが収まると判定した領域を、空きスペースとして検出する空きスペース検出部と、空きスペース検出部が検出した空きスペースを示す通知情報を生成する情報生成部とを備えることを特徴とするものである。
 この発明によれば、誘導対象車両が収まると判定した領域を空きスペースとして検出するので、駐車枠が無い駐車場に対しても適用することができる。
実施の形態1に係る空きスペース通知装置及びその周辺の構成を示す図である。 飛行体と誘導対象車両との位置関係を模式的に示した図である。 図3A及び図3Bは、実施の形態1に係る空きスペース通知装置のハードウェア構成例を示す図である。 飛行体及び車載装置による処理の一例を示すフローチャートである。 図4のステップST3による処理のイメージ図である。 入庫スペース、出庫スペース及び開扉スペースの説明図である。 出庫スペース、入庫スペース及び開扉スペースを考慮した空きスペースの検出処理を示すフローチャートである。 駐車レイアウトを示す図である。 図7のステップST43による処理のイメージ図である。 図7のステップST44による処理のイメージ図である。 図7のステップST45による処理のイメージ図である。 図12A及び図12Bは、図4のステップST6による処理のイメージ図である。 情報生成部が生成した画像情報が示す画像の一例である。 実施の形態2に係る空きスペース通知装置及びその周辺の構成を示す図である。 誘導員及び誘導対象車両の配置例を示す図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1. 
 図1は、実施の形態1に係る空きスペース通知装置12及びその周辺の構成を示す図である。図1では、空きスペース通知装置12が飛行体10に内蔵されている場合を示している。車載装置20は、飛行体10と通信可能となっている。図2は、飛行体10と、車載装置20が搭載された車両Vとの位置関係を模式的に示した図である。図2は、駐車場を俯瞰する視点から見た際の図となっている。車両Vは、駐車場に入って駐車しようとしている誘導対象車両である。
 飛行体10は、駐車場の上空を飛行している。飛行体10は、例えばドローンである。飛行体10は、カメラ11と、空きスペース通知装置12と、通信デバイス13とを有する。
 カメラ11は、映像を生成し出力するものであり、飛行体10に内蔵されて、駐車場を俯瞰した映像を生成する。カメラ11は、生成した映像を空きスペース通知装置12へ出力する。
 空きスペース通知装置12は、映像取得部12aと、算出部12bと、駐車車両検出部12cと、空きスペース検出部12dと、優先度設定部12eと、出庫推測部12fと、情報生成部12gと、通信処理部12hとを有する。
 映像取得部12aは、カメラ11が出力した、駐車場を俯瞰した映像を取得する。映像取得部12aは、取得した映像を、算出部12bと駐車車両検出部12cと空きスペース検出部12dと優先度設定部12eと出庫推測部12fとで構成された演算部へ出力する。
 算出部12bは、映像取得部12aが取得した映像を用いた画像処理により、車両Vの大きさを算出する。なお、大きさを算出する対象となる車両Vの位置は、後述の位置情報生成部25が生成する位置情報を用いて特定される。算出部12bは、算出した車両Vの大きさを空きスペース検出部12dへ出力する。
 駐車車両検出部12cは、映像取得部12aが取得した映像を用いた画像処理により、駐車場内で既に駐車している駐車車両を検出する。図2において、駐車車両は、駐車場内に矩形で示されている。駐車車両検出部12cは、検出結果を空きスペース検出部12dへ出力する。
 空きスペース検出部12dは、算出部12b及び駐車車両検出部12cの処理を受けて、駐車場の中で、車両Vが収まる領域を空きスペースとして検出する。空きスペース検出部12dによる空きスペースの検出処理の詳細については、後述の図4を用いた説明の際に述べる。空きスペース検出部12dは、検出した空きスペースを優先度設定部12e及び情報生成部12gへ出力する。
 優先度設定部12eは、空きスペース検出部12dが検出した空きスペースごとの優先度を設定する。優先度設定部12eは、例えば、駐車場の車両入口から近い空きスペースの優先度を高く設定する。優先度設定部12eは、設定した優先度を情報生成部12gへ出力する。
 出庫推測部12fは、駐車場内で既に駐車している駐車車両の中から、近々出庫する駐車車両を推測する。出庫推測部12fは、出庫すると推測される駐車車両を情報生成部12gへ出力する。
 情報生成部12gは、空きスペース検出部12dが検出した空きスペースを示す通知情報を生成する。情報生成部12gは、生成した通知情報を通信処理部12hへ出力する。
 通信処理部12hは、空きスペース通知装置12と通信デバイス13との間での情報のやり取りを担う。例えば、通信処理部12hは、情報生成部12gが生成した通知情報を、通信デバイス13へ出力する。また例えば、通信処理部12hは、通信デバイス13が車載装置20から受信した情報を演算部へ出力する。
 通信デバイス13は、飛行体10と車載装置20との間での通信を担う。通信デバイス13は、通信処理部12hが出力する通知情報等を車載装置20へ送信し、また、車載装置20から情報を受信する。通信デバイス13は、電波ビーコン、光ビーコン、DSRC(Dedicated Short Range Communications)、Wi-Fi、又は、LTE(Long Term Evolution)等の携帯電話網等に対応した通信デバイスである。
 車載装置20は、GPS(Global Positioning System)受信機21と、入力装置22と、表示装置23と、通信デバイス24と、位置情報生成部25と、通信処理部26と、表示制御部27とを有する。
 GPS受信機21は、GPS衛星が出力した電波を受信して、受信情報を位置情報生成部25へ出力する。
 入力装置22は、車両Vのドライバ等のユーザによる操作を受け付ける。入力装置22は、例えば、タッチパネル、又は、ボタン等のハードウェアキーである。入力装置22は、ユーザに操作されると、その操作内容を示す操作情報を位置情報生成部25へ出力する。
 表示装置23は、表示制御部27に制御されて、映像を表示する。表示装置23は、例えば、LCD(Liquid Crystal Display)等である。
 通信デバイス24は、車載装置20と飛行体10との間での通信を担う。通信デバイス24は、通信処理部26が出力する後述の位置情報等を飛行体10へ送信し、また、飛行体10から通知情報等を受信する。通信デバイス24は、通信デバイス13と同様に、電波ビーコン、光ビーコン、DSRC、Wi-Fi、又は、LTE等の携帯電話網等に対応した通信デバイスである。
 位置情報生成部25は、GPS受信機21が出力した受信情報、又は、入力装置22が出力した操作情報を用いて、位置情報を生成する。位置情報生成部25は、生成した位置情報を通信処理部26へ出力する。
 通信処理部26は、位置情報生成部25及び表示制御部27と、通信デバイス13との間での情報のやり取りを担う。例えば、通信処理部26は、位置情報生成部25が生成した位置情報を、通信デバイス24へ出力する。また例えば、通信処理部26は、通信デバイス24が飛行体10から受信した情報を表示制御部27へ出力する。
 表示制御部27は、表示装置23が表示する映像を制御する。
 次に、空きスペース通知装置12のハードウェア構成例について、図3A及び図3Bを用いて説明する。
 空きスペース通知装置12の映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各機能は、処理回路により実現される。当該処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ又はDSP(Digital Signal Processor)とも呼ばれる。
 図3Aは、映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能を、専用のハードウェアである処理回路101で実現した場合のハードウェア構成例を示す図である。処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、若しくはFPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能を別個の処理回路101を組み合わせて実現してもよいし、各部の機能を1つの処理回路101で実現してもよい。
 図3Bは、映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能を、メモリ102に格納されるプログラムを実行するCPU103で実現した場合のハードウェア構成例を示す図である。この場合、映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組合せにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ102に格納される。CPU103は、メモリ102に格納されたプログラムを読み出して実行することにより、映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能を実現する。すなわち、空きスペース通知装置12は、後述する図4のフローチャートで示すステップST2~ST8が結果的に実行されることになるプログラム等を格納するためのメモリ102を有する。また、これらのプログラムは、映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の手順又は方法をコンピュータに実行させるものであるとも言える。ここで、メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、若しくはEEPROM(Electrically Erasable Programmable ROM)等の、不揮発性若しくは揮発性の半導体メモリ、又は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、若しくはDVD(Digital Versatile Disc)等のディスク状の記録媒体等が該当する。
 なお、映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、映像取得部12a、算出部12b、駐車車両検出部12c及び空きスペース検出部12dについては専用のハードウェアとしての処理回路でその機能を実現し、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hについては処理回路がメモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組合せによって、上記の映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hの各部の機能を実現することができる。
 なお、車載装置20の位置情報生成部25、通信処理部26及び表示制御部27についても同様に、図3Aに示すような処理回路101、又は図3Bに示すようなメモリ102及びCPU103で実現することができる。
 次に、上記のように構成された飛行体10及び車載装置20による処理の一例について、図4に示すフローチャートを用いて説明する。以下の例では、駐車枠が無い駐車場を例に説明するが、駐車枠がある駐車場に対しても、以下に示す処理は適用可能である。
 まず、位置情報生成部25は、位置情報を生成する。位置情報生成部25が生成した位置情報は、通信処理部26及び通信デバイス24を介して、飛行体10へ送信される(ステップST1)。この位置情報により、飛行体10は、誘導対象車両である車両Vがどこにいるのかを知ることができる。
 位置情報生成部25は、例えば、GPS受信機21からの受信情報を用いて位置情報を生成する。または、位置情報生成部25は、入力装置22が出力する操作情報を用いて位置情報を生成してもよい。飛行体10が既にカメラ11により生成された駐車場の映像を車載装置20に送信しており、当該映像が表示装置23に表示されている場合、ユーザは、入力装置22であるタッチパネルを用いて当該映像内の車両Vをタッチする。位置情報生成部25は、入力装置22が出力する操作情報を用いて、映像内のどこがタッチされたかを示す情報を位置情報として生成する。
 あるいは、誘導対象車両として認識される場所が駐車場管理者等により予め設定されている場合、当該場所例えば駐車場の車両入口に到達すると、車載装置20から飛行体10へ「空きスペースの通知を要求するメッセージ」が位置情報として送信されるようにしてもよい。飛行体10は、当該メッセージを受信すると、駐車場の車両入口等の設定されている場所に車両Vが位置すると見なす。
 飛行体10は、車載装置20から送信された位置情報を通信デバイス13により受信し、通信処理部12hを介して位置情報は、算出部12bに出力される。
 続いて、算出部12bは、映像取得部12aが取得した映像を用いて、位置情報が示す位置にある車両Vの大きさを、画像処理により算出する(ステップST2)。これにより、図2に示すように車両Vの大まかな縦幅及び大まかな横幅が算出される。ここでは、車両の前後方向の長さを縦幅、車両の左右方向の長さを横幅とする。なお、映像取得部12aは、駐車場を俯瞰した映像を、カメラ11から適宜のタイミングで取得している。映像取得部12aが取得した映像を用いて車両Vの大きさを算出するために、カメラ11は、駐車場に入ろうとする車両も撮影範囲に入るように設けられる。
 算出部12bは、算出した車両Vの大きさを空きスペース検出部12dへ出力する。
 続いて、駐車車両検出部12cは、映像取得部12aが取得した映像を用いて、駐車場内で既に駐車している駐車車両を、画像処理により検出する(ステップST3)。例えば、不図示のメモリに駐車場で1台も駐車車両が無いときの映像を保存しておき、当該映像を用いた差分処理によって、駐車車両検出部12cは、駐車車両を検出することができる。このとき、駐車車両検出部12cは、駐車車両の位置、大きさ及び向きを検出結果として空きスペース検出部12dへ出力する。
 図5は、ステップST3による処理のイメージ図である。図5において駐車場内の矩形で示すように、駐車車両が検出される。なお、駐車車両検出部12cは、駐車車両に加えて駐車場内の障害物も検出するようにしてもよい。また、駐車車両の向きとは、駐車車両として検出した物体がどの方向に長いかを示すものであればよく、駐車車両の前方がどちらに向いていて、駐車車両の後方がどちらに向いているかまでを示すものでなくてよい。
 続いて、空きスペース検出部12dは、ステップST2,3の処理を受けて、駐車場の中で、車両Vが収まる領域を空きスペースとして検出する(ステップST4)。
 最も簡素な空きスペースの検出方法は、駐車場内の駐車車両が無い領域の中で、車両Vが収まる領域を検出する方法である。空きスペース検出部12dは、映像取得部12aが取得した映像から、駐車車両検出部12cが検出した駐車車両が無い領域を抽出する。なお、このとき、空きスペース検出部12dは駐車場の映像を用いなくてもよい。例えば、空きスペース検出部12dは、駐車場の大きさ等の情報を不図示のメモリに保存しておく。当該情報が示す平面上に、駐車車両検出部12cが検出したように駐車車両をマッピングしていけば、空きスペース検出部12dは、駐車場内の駐車車両が無い領域を抽出することができる。そして、空きスペース検出部12dは、抽出した領域を適宜矩形状に区切り、算出部12bが算出した大きさの車両Vが収まるかを、区切られた領域ごとに判定する。このとき車両Vが収まると判定された領域が、空きスペースとして検出される。
 なお、空きスペース検出部12dが空きスペースを検出する際、車両の出庫及び入庫等を考慮することで、より精度良く、また、より適切な空きスペースを検出することができる。この場合の空きスペースの検出方法について、図6~図11を用いて詳細に説明する。
 図6は、空きスペースを検出するにあたり、考慮すると好ましいスペースの説明図である。車両の前方又は後方には、当該車両が出庫する際に必要な出庫スペース、又は、当該車両が入庫する際に必要な入庫スペースが存在する。出庫スペース及び入庫スペースについては、図6中にスペースS1として示している。スペースS1に何らかの物体があると、車両は入庫又は出庫が困難となる。
 また、車両の左方及び右方には、当該車両のドアが開く際に必要な開扉スペースが存在する。開扉スペースについては、図6中にスペースS2として示している。なお、トランクルームのドアも考慮すると、図6のように車両の縦幅方向にも開扉スペースが存在する。既に述べたように、どの方向が車両の前方で、どの方向が車両の後方かまでは検出されないので、トランクルームのドア用のスペースは、車両の縦幅方向の両方に設定されることになるが、図6に示すようにそのうちの一方はスペースS1と重複するので、図6のように車両の左方、右方、及び、車両の縦幅方向においてスペースS1とは反対側に、スペースS2が設定される。スペースS2に何らかの物体があると、車両のドアを開けることが困難となる。なお、開扉スペースとして、運転席のドアを開けるスペースのみが考慮されるようにしてもよい。
 入庫スペース、出庫スペース及び開扉スペースは、車両の縦幅及び横幅、ドアが開いている際の車両の縦幅及び横幅、並びに、最小回転半径等の車両に固有な特性情報を用いて、空きスペース検出部12dにより算出可能である。
 誘導対象車両の固有の特性情報は、例えば、ステップST1の位置情報の送信時に、同時に車載装置20から飛行体10へと送信される。
 また、各駐車車両の固有の特性情報は、駐車車両が誘導対象車両であったときに送信された固有の特性情報を飛行体10で蓄積しておけばよい。
 また、誘導対象車両及び駐車車両の固有の特性情報が取得できない場合、車両の平均的な特性情報が用いられるようにしてもよい。なお、車両の縦幅及び横幅に関しては、ステップST2で算出した大まかな縦幅及び大まかな横幅で代用されてもよい。
 上記のような入庫スペース、出庫スペース及び開扉スペースを考慮した空きスペースの検出処理を、図7に示すフローチャートを用いて説明する。
 まず、空きスペース検出部12dは、駐車レイアウトが存在するかを判定する(ステップST41)。駐車レイアウトとは、駐車場管理者等が想定する駐車場の使い方を示したものである。例えば、図8に示すように、駐車スペースと、車両が走行するための道スペースとを示す情報が、駐車レイアウトとして不図示のメモリに予め保存されている。
 駐車レイアウトが存在しない場合(ステップST41;NO)、つまり、駐車レイアウトが不図示のメモリに保存されていない場合、処理は、後述のステップST43の処理に移行する。
 一方、駐車レイアウトが存在する場合(ステップST41;YES)、つまり、駐車レイアウトが不図示のメモリに保存されている場合、空きスペース検出部12dは、図8に示すようなレイアウトを作成する(ステップST42)。
 続いて、空きスペース検出部12dは、図9に示すように、駐車車両について出庫スペースを作成する(ステップST43)。図9に示すように、作成された出庫スペースは、駐車車両が出庫時に通る仮想的な道と捉えることができる。
 なお、ステップST42で作成したレイアウトがある場合、空きスペース検出部12dは、当該レイアウトに示される道スペースも出庫スペースとして以降の処理に使う。また、ステップST43において、空きスペース検出部12dは、駐車車両について開扉スペースも作成するようにしてもよい。
 続いて、空きスペース検出部12dは、駐車不可領域を設定する(ステップST44)。空きスペース検出部12dは、例えば、図10に×印で示すように、駐車場の車両入口の付近、及び、車両Vの横幅よりも狭い領域を、駐車不可領域とする。また、空きスペース検出部12dは、駐車場管理者が独自に設定した領域を、駐車不可領域としてもよい。
 続いて、空きスペース検出部12dは、駐車車両、駐車車両の出庫スペース及び設定した駐車不可領域を除いた駐車場内で、空きスペースを検出する(ステップST45)。このとき、空きスペース検出部12dは、図11に示すように、車両Vの入庫スペース及び開扉スペースが収まると判定した領域を、空きスペースとして検出する。なお、図11では、図面の見易さのために、図9及び図10で示した駐車車両の出庫スペースを不図示とした状態で、車両Vの入庫スペース及び開扉スペースをハッチングして示している。
 以上のように、車両の出庫及び入庫等を考慮することで、より精度良く、また、より適切な空きスペースを検出することができる。
 空きスペース検出部12dによる空きスペースを検出する処理に続く処理について、再度図4に示すフローチャートを用いて説明する。
 空きスペース検出部12dは、空きスペースが見つかったかを判定する(ステップST5)。空きスペースが見つからなかった場合(ステップST5;NO)、例えば駐車場が満車である場合、処理は、後述のステップST7の処理に移行する。
 一方、空きスペースが見つかった場合(ステップST5;YES)、優先度設定部12eは、空きスペース検出部12dが検出した空きスペースごとの優先度を設定する(ステップST6)。例えば、優先度設定部12eは、図12Aに示すように、駐車場の車両入口から近い順に、優先度を設定する。または、優先度設定部12eは、図12Bに示すように、幅が広い順に、優先度を設定する。あるいは、優先度設定部12eは、駐車場の車両出口から近い順、又は、駐車場の歩行者入口から近い若しくは遠い順に、優先度を設定してもよい。優先度設定部12eは、設定した優先度を情報生成部12gへ出力する。優先度を設定する際に用いる条件は、例えば、ステップST1の位置情報の送信時に、同時に車載装置20から飛行体10へと送信される。例えば、駐車場の車両入口から近い場所に駐車したいとユーザが考える場合、ユーザは予め車載装置20にその旨を設定しておく。
 続いて、出庫推測部12fは、駐車場内で既に駐車している駐車車両の中から、近々出庫する駐車車両を推測する(ステップST7)。例えば、出庫推測部12fは、カメラ11が出力する映像を映像取得部12aを介して周期的に取得し、画像処理することで、駐車車両での人の乗降状況を検出して管理する。乗降状況としては、車両から人が出てきていない、車両から人が1人以上出てきた、車両から人が1人以上出てきて1人以上戻ってきた、及び、車両から出た人数と同じ人数の人が戻ってきた、という4つの分類が考えられる。出庫推測部12fは、検出した乗降状況を用いて、近々出庫する駐車車両を推測する。車両から人が出てきていない場合は出庫の可能性が最も低いとされ、続いて、車両から人が1人以上出てきた場合、続いて、車両から人が1人以上出てきて1人以上戻ってきた場合、続いて、車両から出た人数と同じ人数の人が戻ってきた場合、の順に出庫の可能性が高くなる。または、出庫推測部12fは、駐車車両の駐車時間に基づき出庫するかを推測してもよい。出庫推測部12fは、車両から出た人数と同じ人数の人が戻ってきたなどの出庫すると推測される駐車車両を、情報生成部12gへ出力する。
 続いて、情報生成部12gは、空きスペース検出部12dが検出した空きスペースを示す通知情報を生成する(ステップST8)。情報生成部12gは、例えば図13に示すように、空きスペースを色付け(図示例ではグレー塗り)するなどして差別化して示した画像情報を通知情報として生成する。また、優先度設定部12eによる優先度の設定がされている場合、情報生成部12gは、図13に示すように、優先度についても示した画像情報を生成するとよい。また、車両から出た人数と同じ人数の人が戻ってきたなどして、出庫推測部12fにより出庫すると推測された駐車車両が有る場合、情報生成部12gは、図13に示すように、当該駐車車両を色付け(図示例では黒塗り)するなどして差別化して示した画像情報を生成するとよい。
 情報生成部12gが生成した通知情報は、通信処理部12h及び通信デバイス13を介して車載装置20へ送信される。表示制御部27は、通信デバイス24及び通信処理部26を介して通知情報を取得し、当該通知情報が示す映像を表示するよう、表示装置23を制御する(ステップST9)。
 なお、情報生成部12gは、例えば「入口の右方に広い空きスペースがあります」、「入口の左方に1台の空きスペースがあります」、又は、「駐車場奥に1台の空きスペースがあります」等のテキストメッセージを含んだ画像情報を生成してもよい。これらのメッセージは、最終的に表示装置23で表示される。また、情報生成部12gは、これらのメッセージを示す音声情報を通知情報として生成してもよい。当該音声情報は、車載装置20で受信された後、不図示の車載装置20の音声制御部によって、不図示の車載スピーカから出力される。
 また、情報生成部12gは、空きスペース、優先度及び出庫する駐車車両をカメラ11が生成した映像に重畳して画像情報を生成してもよいし、カメラ11が生成した映像ではなく単なる図形にて空きスペース、優先度及び出庫する駐車車両を表現した画像情報を生成してもよい。前者の場合は、ユーザが駐車場の状況をイメージしやすくなり、後者の場合は、画像情報のデータ量を抑えることができる。
 このようにして、空きスペース通知装置12は、駐車枠が無い駐車場であっても、車両Vが収まる程度の大きさを持つ空きスペースを検出し、車載装置20を介してユーザに通知することができる。
 なお、上記では、空きスペース通知装置12が飛行体10に内蔵されている場合を示した。しかしながら、空きスペース通知装置12を車載装置20内に構築してもよい。この場合、空きスペース通知装置12は、カメラ11が生成した映像等、空きスペースを検出するのに必要な情報を、適宜飛行体10から取得して処理を行う。また、同様に、空きスペース通知装置12を外部サーバ内に構築してもよい。当該外部サーバは、飛行体10及び車載装置20の双方と通信可能に接続される。また、同様に、空きスペース通知装置12をスマートフォン及びタブレット端末等の車両内に持ち込まれた携帯端末内に構築してもよい。当該携帯端末は、飛行体10及び車載装置20の双方と通信可能に接続される。
 また、空きスペース通知装置12の映像取得部12a、算出部12b、駐車車両検出部12c、空きスペース検出部12d、優先度設定部12e、出庫推測部12f、情報生成部12g及び通信処理部12hが、飛行体10及び車載装置20に分散して設けられて、飛行体10及び車載装置20をまたいで空きスペース通知装置12が構成されてもよい。
 また、飛行体10ではなく、駐車場を俯瞰できる位置にカメラを設け、当該カメラに空きスペース通知装置12を内蔵する、又は、当該カメラと通信可能に駐車場の任意の場所に空きスペース通知装置12を設けるようにしてもよい。
 また、優先度設定部12e及び出庫推測部12fが空きスペース通知装置12に備わっている方がユーザが知る情報量が多くなり好ましいが、車両Vが収まる程度の大きさを持つ空きスペースを通知するだけならば、優先度設定部12e及び出庫推測部12fは空きスペース通知装置12から除かれても構わない。
 また、出庫推測部12fが出庫すると推測した駐車車両が停まっている領域に対し、空きスペース検出部12dが当該領域に車両Vが収まるかを判定し、収まると判定された場合のみ、図13で示すように出庫しそうな駐車車両としてユーザへ通知されるようにしてもよい。
 また、飛行体10は、駐車場に備えられており、当該駐車場の上空を常時飛行しているものであってもよいし、誘導対象車両に備えられており、当該誘導対象車両が駐車場に入る際に当該駐車場の上空へと飛行を始めるものであってもよい。後者の場合は、誘導対象車両専用の飛行体10となるので、飛行体10が不図示のメモリに誘導対象車両の大きさを予め記憶しておくようにしてもよい。このようにすると、飛行体10に算出部12bを設けなくても、空きスペース検出部12dは誘導対象車両の大きさを不図示のメモリから読み出して、処理に用いることができる。
 以上のように、この実施の形態1に係る空きスペース通知装置12によれば、駐車枠が無い駐車場であっても、車両Vが収まる程度の大きさを持つ空きスペースを検出し、車載装置20を介してユーザに通知することができる。つまり、空きスペース通知装置12は、駐車枠が無い駐車場に対しても適用することができる。また、当然ながら、空きスペース通知装置12は、上記で説明した処理を行うことにより、駐車枠がある駐車場を対象とした場合でも、同様に空きスペースを検出することができる。
 また、空きスペース検出部12dは、駐車車両が出庫する際に必要な出庫スペースと、誘導対象車両が入庫する際に必要な入庫スペースと、誘導対象車両のドアが開く際に必要な開扉スペースとを用いて、空きスペースを検出することとした。これにより、より精度良く、また、より適切な空きスペースを検出することができる。
 また、空きスペース検出部12dは、誘導対象車両の固有の特性情報を用いて、入庫スペースと開扉スペースとを算出することとした。これにより、誘導対象車両の入庫スペースと開扉スペースとをより精度良く算出することができる。
 また、空きスペース検出部12dが検出した空きスペースごとの優先度を設定する優先度設定部12eを備え、情報生成部12gは、空きスペースの優先度を示す通知情報を生成することとした。これにより、ユーザは、どこの空きスペースがより好ましいかを知ることができる。
 また、駐車場内の駐車車両での人の乗降状況を用いて、出庫する駐車車両を推測する出庫推測部12fを備え、情報生成部12gは、出庫推測部12fが出庫すると推測した駐車車両を示す通知情報を生成することとした。これにより、ユーザは、どこが新たに空きスペースとなりそうなのかを知ることができる。これは、特に満車時の場合、有用である。
 また、映像を用いて、誘導対象車両の大きさを算出する算出部12bを備えることとした。これにより、飛行体10が駐車場に備えられているものであっても、誘導対象車両の大きさを算出して処理に用いることができる。
実施の形態2.
 実施の形態1では、誘導対象車両のドライバへ空きスペースを通知することを想定して説明した。実施の形態2では、駐車場に入ってくる車両を誘導する誘導員へ空きスペースを通知する形態について説明する。
 図14は、実施の形態2に係る空きスペース通知装置12及びその周辺の構成を示す図である。図14では、図1で車載装置20として示した構成が、誘導員が所持する携帯端末30として示されている。しかしながら、携帯端末30は、車載装置20と同様のGPS受信機21と、入力装置22と、表示装置23と、通信デバイス24と、位置情報生成部25と、通信処理部26と、表示制御部27とを有している。また、飛行体10も図1で示したものと同様に構成される。したがって、実施の形態1で既に説明した構成と同一又は相当する機能を有する構成については、同一の符号を付し、実施の形態2ではその説明を省略又は簡略化する。なお、携帯端末30において電話機能等を担う構成については、図示を省略した。
 次に、上記のように構成された飛行体10及び携帯端末30による処理の一例について、図4に示すフローチャートを引用しながら説明する。なお、図15は、駐車場を俯瞰する視点から見た際の図であり、誘導員及び誘導対象車両の配置例を示している。
 ステップST1で送信される位置情報は、入力装置22であるタッチパネルを誘導員がタッチすることにより生成される。つまり、飛行体10が送信した駐車場の映像が既に表示装置23に表示されており、誘導員は、タッチパネルを用いて当該映像内で誘導したい車両をタッチする。位置情報生成部25は、映像内のどこがタッチされたかを示す情報を、位置情報として生成する。
 ステップST2~ST8の処理は、既に実施の形態1で説明したとおりなので、重複を避けるために説明を省略する。
 ステップST8で生成された通知情報は、携帯端末30へ送信される。そして、携帯端末30では、当該通知情報が示す映像を表示するよう、表示制御部27が表示装置23を制御する。これにより、誘導員は、図13に示すような映像を見ることができ、当該映像を参考に、誘導対象車両の誘導が可能となる。なお、実施の形態1で説明したように、テキストメッセージが表示装置23で表示されるようにしてもよいし、当該メッセージを示す音声が携帯端末30のスピーカから出力されるようにしてもよい。
 以上のように、この実施の形態2に係る空きスペース通知装置12によれば、駐車枠が無い駐車場であっても、車両Vが収まる程度の大きさを持つ空きスペースを検出し、携帯端末30を介して駐車場の誘導員に通知することができる。つまり、空きスペース通知装置12は、駐車枠が無い駐車場に対しても適用することができる。また、当然ながら、空きスペース通知装置12は、上記で説明した処理を行うことにより、駐車枠がある駐車場を対象とした場合でも、同様に空きスペースを検出することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態においての任意の構成要素の省略が可能である。
 以上のように、この発明に係る空きスペース通知装置は、誘導対象車両の大きさが収まる空きスペースを検出することができるので、駐車枠が無い駐車場にて空きスペースを検出する装置として用いるのに特に適している。
 10 飛行体、11 カメラ、12 空きスペース通知装置、12a 映像取得部、12b 算出部、12c 駐車車両検出部、12d 空きスペース検出部、12e 優先度設定部、12f 出庫推測部、12g 情報生成部、12h 通信処理部、13 通信デバイス、20 車載装置、21 GPS受信機、22 入力装置、23 表示装置、24 通信デバイス、25 位置情報生成部、26 通信処理部、27 表示制御部、30 携帯端末、101 処理回路、102 メモリ、103 CPU。

Claims (8)

  1.  駐車場を俯瞰した映像を取得する映像取得部と、
     前記映像を用いて、前記駐車場内の駐車車両を検出する駐車車両検出部と、
     前記駐車場の中で、前記駐車車両検出部が検出した駐車車両が無い領域であって、誘導対象車両の大きさが収まると判定した領域を、空きスペースとして検出する空きスペース検出部と、
     前記空きスペース検出部が検出した空きスペースを示す通知情報を生成する情報生成部とを備えることを特徴とする空きスペース通知装置。
  2.  前記空きスペース検出部は、駐車車両が出庫する際に必要な出庫スペースと、前記誘導対象車両が入庫する際に必要な入庫スペースと、前記誘導対象車両のドアが開く際に必要な開扉スペースとを用いて、空きスペースを検出することを特徴とする請求項1記載の空きスペース通知装置。
  3.  前記空きスペース検出部は、前記誘導対象車両の固有の特性情報を用いて、前記入庫スペースと前記開扉スペースとを算出することを特徴とする請求項2記載の空きスペース通知装置。
  4.  前記空きスペース検出部が検出した空きスペースごとの優先度を設定する優先度設定部を備え、
     前記情報生成部は、空きスペースの優先度を示す通知情報を生成することを特徴とする請求項1記載の空きスペース通知装置。
  5.  前記駐車場内の駐車車両での人の乗降状況を用いて、出庫する駐車車両を推測する出庫推測部を備え、
     前記情報生成部は、前記出庫推測部が出庫すると推測した駐車車両を示す通知情報を生成することを特徴とする請求項1記載の空きスペース通知装置。
  6.  前記映像を用いて、前記誘導対象車両の大きさを算出する算出部を備えることを特徴とする請求項1記載の空きスペース通知装置。
  7.  請求項1記載の空きスペース通知装置と、
     前記駐車場を俯瞰した映像を生成するカメラとを備えることを特徴とする空きスペース通知システム。
  8.  映像取得部が、駐車場を俯瞰した映像を取得する映像取得ステップと、
     駐車車両検出部が、前記映像を用いて、前記駐車場内の駐車車両を検出する駐車車両検出ステップと、
     空きスペース検出部が、前記駐車場の中で、前記駐車車両検出ステップにより検出された駐車車両が無い領域であって、誘導対象車両の大きさが収まると判定した領域を、空きスペースとして検出する空きスペース検出ステップと、
     情報生成部が、前記空きスペース検出ステップにより検出された空きスペースを示す通知情報を生成する情報生成ステップとを備えることを特徴とする空きスペース通知方法。
PCT/JP2017/021123 2017-06-07 2017-06-07 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法 WO2018225177A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780091403.3A CN110709910A (zh) 2017-06-07 2017-06-07 空闲空间通知装置、空闲空间通知系统以及空闲空间通知方法
JP2019523263A JP6785960B2 (ja) 2017-06-07 2017-06-07 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法
PCT/JP2017/021123 WO2018225177A1 (ja) 2017-06-07 2017-06-07 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法
US16/607,522 US20200143140A1 (en) 2017-06-07 2017-06-07 Empty space notification device, empty space notification system, and empty space notification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/021123 WO2018225177A1 (ja) 2017-06-07 2017-06-07 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法

Publications (1)

Publication Number Publication Date
WO2018225177A1 true WO2018225177A1 (ja) 2018-12-13

Family

ID=64567092

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021123 WO2018225177A1 (ja) 2017-06-07 2017-06-07 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法

Country Status (4)

Country Link
US (1) US20200143140A1 (ja)
JP (1) JP6785960B2 (ja)
CN (1) CN110709910A (ja)
WO (1) WO2018225177A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098529A (ja) * 2018-12-19 2020-06-25 株式会社ソフトウェア・ファクトリー 駐車場システム
JP2022125838A (ja) * 2021-02-17 2022-08-29 トヨタ自動車株式会社 情報処理装置、プログラム及び情報処理方法
WO2023063145A1 (ja) * 2021-10-13 2023-04-20 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11395107B1 (en) * 2021-02-22 2022-07-19 Ford Global Technologies, Llc Multicast assisted parking lot management
JP2022164077A (ja) * 2021-04-15 2022-10-27 トヨタ自動車株式会社 情報処理装置、プログラム及び情報処理方法
CN115641746A (zh) * 2022-09-29 2023-01-24 深圳市旗扬特种装备技术工程有限公司 一种共享单车空闲车位识别方法、停车引导方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108599A (ja) * 2010-11-15 2012-06-07 Clarion Co Ltd 駐車場案内装置
JP2013145540A (ja) * 2011-12-13 2013-07-25 Toyota Motor Corp 情報提供装置
JP2016076029A (ja) * 2014-10-03 2016-05-12 株式会社デンソー 駐車支援システム
JP2016138853A (ja) * 2015-01-29 2016-08-04 株式会社ゼンリンデータコム ナビゲーションシステム、車載ナビゲーション装置、飛行体、ナビゲーション方法、車載ナビゲーション装置用連携プログラム及び飛行体用連携プログラム
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991591A (ja) * 1995-09-20 1997-04-04 Fujitsu General Ltd 駐車場誘導システム
JP3180664B2 (ja) * 1996-04-26 2001-06-25 アイシン・エィ・ダブリュ株式会社 案内装置及び案内装置用記録媒体
JP2826086B2 (ja) * 1995-12-28 1998-11-18 アルパイン株式会社 ナビゲーション装置
JP2003168196A (ja) * 2001-11-29 2003-06-13 Aisin Seiki Co Ltd 駐車誘導装置および駐車誘導システム
DE10220837A1 (de) * 2002-05-08 2003-11-27 Daimler Chrysler Ag Vorrichtung zur Parklückensuche mittels Radar
JP4604703B2 (ja) * 2004-12-21 2011-01-05 アイシン精機株式会社 駐車補助装置
WO2009157298A1 (ja) * 2008-06-26 2009-12-30 アイシン精機株式会社 駐車支援装置と、当該駐車支援装置を用いた駐車案内装置
CN101519918B (zh) * 2009-04-10 2010-08-25 清华大学 基于智能拖车的智能停车场
US20120287279A1 (en) * 2009-10-02 2012-11-15 Mitsubishi Electric Corporation Parking support apparatus
US8799037B2 (en) * 2010-10-14 2014-08-05 Palto Alto Research Center Incorporated Computer-implemented system and method for managing motor vehicle parking reservations
WO2014016841A1 (en) * 2012-07-27 2014-01-30 Neuner Tomer Intelligent state determination
EP2922042A1 (fr) * 2014-03-21 2015-09-23 SP Financial Holding SA Procédé et système de gestion d'une aire de stationnement
US10328932B2 (en) * 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
CN203925063U (zh) * 2014-06-23 2014-11-05 重庆长安汽车股份有限公司 一种汽车滑门开门限位器
CN204402254U (zh) * 2014-12-31 2015-06-17 山东天辰智能停车设备有限公司 一种自动化停车设备专用安全门
JP6528428B2 (ja) * 2015-02-05 2019-06-12 富士通株式会社 駐車位置決定プログラム、情報処理装置、および誘導方法
EP3274978A1 (en) * 2015-03-23 2018-01-31 Philips Lighting Holding B.V. Luminaire parking guidance
WO2016152133A1 (ja) * 2015-03-26 2016-09-29 日本電気株式会社 車両誘導システム及び車両誘導方法
DE102015207804B4 (de) * 2015-04-28 2017-03-16 Robert Bosch Gmbh Verfahren zum Erkennen von Parkflächen und/oder Freiflächen
US10169995B2 (en) * 2015-09-25 2019-01-01 International Business Machines Corporation Automatic selection of parking spaces based on parking space attributes, driver preferences, and vehicle information
CN205531559U (zh) * 2016-01-29 2016-08-31 长安大学 一种行星式双层无避让立体车库

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108599A (ja) * 2010-11-15 2012-06-07 Clarion Co Ltd 駐車場案内装置
JP2013145540A (ja) * 2011-12-13 2013-07-25 Toyota Motor Corp 情報提供装置
JP2016076029A (ja) * 2014-10-03 2016-05-12 株式会社デンソー 駐車支援システム
JP2016138853A (ja) * 2015-01-29 2016-08-04 株式会社ゼンリンデータコム ナビゲーションシステム、車載ナビゲーション装置、飛行体、ナビゲーション方法、車載ナビゲーション装置用連携プログラム及び飛行体用連携プログラム
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098529A (ja) * 2018-12-19 2020-06-25 株式会社ソフトウェア・ファクトリー 駐車場システム
JP2022125838A (ja) * 2021-02-17 2022-08-29 トヨタ自動車株式会社 情報処理装置、プログラム及び情報処理方法
JP7468398B2 (ja) 2021-02-17 2024-04-16 トヨタ自動車株式会社 情報処理装置、プログラム及び情報処理方法
WO2023063145A1 (ja) * 2021-10-13 2023-04-20 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
US20200143140A1 (en) 2020-05-07
JPWO2018225177A1 (ja) 2019-11-07
CN110709910A (zh) 2020-01-17
JP6785960B2 (ja) 2020-11-18

Similar Documents

Publication Publication Date Title
WO2018225177A1 (ja) 空きスペース通知装置、空きスペース通知システム及び空きスペース通知方法
US10518698B2 (en) System and method for generating a parking alert
JP6900950B2 (ja) 制振制御装置及び制振制御方法、並びに移動体
WO2017067079A1 (zh) 弯道会车预警方法和装置
US11216753B2 (en) Parking management system and parking management method
EP2804152A1 (en) Event detection and recording methods and systems
CN109017554B (zh) 行驶提醒方法、装置及计算机可读存储介质
JP2018190199A (ja) 監視装置及び防犯システム
WO2016154777A1 (en) Intelligent voice assistant system, apparatus, and method for vehicle
KR101109580B1 (ko) 룸미러형 av/블랙박스 장치와 운송 차량용 텔레매틱스 단말기를 포함하는 운송 차량용 안전 운행 관리 시스템
JP6962712B2 (ja) 車載画像記録装置
KR20210147410A (ko) 차량 카메라를 이용한 정보 제공 서비스 방법 및 장치
WO2020136941A1 (ja) 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP4318559B2 (ja) 盗難防止システム
JP2021105754A (ja) 車載処理装置、及び車載処理システム
JP7435032B2 (ja) 車両用記録装置、及び車両用記録装置の制御方法
KR102531722B1 (ko) 차량 단말을 이용한 주차위치안내 서비스 방법 및 장치
KR102276082B1 (ko) 내비게이션 장치, 블랙 박스 및 그들의 제어 방법
JP7225819B2 (ja) 車両
JP2019028482A (ja) 車載器および運転支援装置
JP6562225B2 (ja) 車両位置案内システム
US20240132092A1 (en) Device and method for notification
JP7192678B2 (ja) 車両用記録制御装置、記録制御方法およびプログラム
JP7119984B2 (ja) 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
JP2024121960A (ja) 複合機能車載装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17912581

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019523263

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17912581

Country of ref document: EP

Kind code of ref document: A1