WO2020196676A1 - 画像処理装置、車両制御装置、および方法、並びにプログラム - Google Patents
画像処理装置、車両制御装置、および方法、並びにプログラム Download PDFInfo
- Publication number
- WO2020196676A1 WO2020196676A1 PCT/JP2020/013471 JP2020013471W WO2020196676A1 WO 2020196676 A1 WO2020196676 A1 WO 2020196676A1 JP 2020013471 W JP2020013471 W JP 2020013471W WO 2020196676 A1 WO2020196676 A1 WO 2020196676A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- dimensional map
- image
- data processing
- processing unit
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 213
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000003672 processing method Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 3
- 230000007480 spreading Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 49
- 230000002093 peripheral effect Effects 0.000 description 41
- 230000008859 change Effects 0.000 description 22
- 240000004050 Pentaglottis sempervirens Species 0.000 description 14
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 3
- 230000008602 contraction Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
Definitions
- the present disclosure relates to image processing devices, vehicle control devices, methods, and programs. Specifically, for example, the present invention relates to an image processing device, a vehicle control device, a method, and a program that detect various obstacles from images taken by a camera attached to a vehicle and realize safe driving.
- the in-vehicle camera used in the automatic parking application is generally a wide-angle camera equipped with a fisheye lens or the like and having an angle of view of about 180 degrees.
- the automatic parking application for example, analyzes the position of an object such as a parking frame or an obstacle (vehicle, pedestrian, edge stone, vehicle stop, etc.) around the vehicle from an image obtained by an in-vehicle camera, and performs a memory based on the analyzed position information.
- an object such as a parking frame or an obstacle (vehicle, pedestrian, edge stone, vehicle stop, etc.) around the vehicle from an image obtained by an in-vehicle camera, and performs a memory based on the analyzed position information.
- These objects are placed on the map above, and the driving route is determined so that the vehicle can be parked accurately in the parking frame without touching obstacles, and the control for driving the vehicle is executed.
- Patent Document 1 Japanese Unexamined Patent Publication No. 2009-250785
- Japanese Unexamined Patent Publication No. 2009-250785 Japanese Unexamined Patent Publication No. 2009-250785
- a change in the baseline length corresponding to the distance between two lenses is measured, and the subject distance is based on the measured amount of change in the baseline length.
- the configuration for correcting the above is disclosed.
- the method described in this document is a method specialized in the configuration of measuring the subject distance using a compound eye lens, and cannot be applied to the correction of the captured image of an in-vehicle camera that is not a compound eye lens.
- the present disclosure is an image processing device capable of safely traveling by preventing the vehicle from coming into contact with or colliding with an object in a captured image even when the lens of a camera mounted on the vehicle is distorted due to a temperature change. It is an object of the present invention to provide a vehicle control device, a method, and a program.
- the first aspect of the disclosure is It has a data processing unit that inputs a camera image that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle.
- the data processing unit Among the objects in the two-dimensional map, there is an image processing device that generates a two-dimensional map including an enlarged display object in which an enlarged area extending around the object is set for an object having a low position reliability.
- the second aspect of the present disclosure is A data processing unit that inputs images taken by a camera that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle. It has a vehicle control unit that determines a travel route with reference to the two-dimensional map generated by the data processing unit and executes control to drive the vehicle.
- the data processing unit Among the objects in the two-dimensional map, a two-dimensional map including an enlarged display object in which an enlarged area extending around the object is set for an object having a low position reliability is generated.
- the vehicle control unit It is in a vehicle control device that executes control to drive a vehicle by selecting a traveling route that does not come into contact with the enlarged display object arranged on the two-dimensional map.
- the third aspect of the present disclosure is This is an image processing method executed in an image processing device.
- the image processing device has a data processing unit that inputs a captured image of a camera that captures the surroundings of the vehicle and generates a two-dimensional map including objects around the vehicle.
- the data processing unit There is an image processing method for generating a two-dimensional map including a magnified display object in which an enlarged area spread around the object is set for an object having a low position reliability among the objects in the two-dimensional map.
- the fourth aspect of the present disclosure is It is a vehicle control method executed in the vehicle control device.
- the vehicle control device A data processing unit that inputs images taken by a camera that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle. It has a vehicle control unit that determines a travel route with reference to the two-dimensional map generated by the data processing unit and executes control to drive the vehicle.
- the data processing unit Among the objects in the two-dimensional map, a two-dimensional map including an enlarged display object in which an enlarged area extending around the object is set for an object having a low position reliability is generated.
- the present invention is a vehicle control method for selecting a travel route that does not come into contact with an enlarged display object arranged on the two-dimensional map and executing control for traveling the vehicle.
- the fifth aspect of the present disclosure is A program that executes image processing in an image processing device.
- the image processing device has a data processing unit that inputs a captured image of a camera that captures the surroundings of the vehicle and generates a two-dimensional map including objects around the vehicle.
- the program is installed in the data processing unit.
- the objects in the two-dimensional map there is a program that generates a two-dimensional map including an enlarged display object in which an enlarged area spread around the object is set for an object having a low position reliability.
- the sixth aspect of the present disclosure is A program that executes vehicle control processing in a vehicle control device.
- the vehicle control device A data processing unit that inputs images taken by a camera that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle. It has a vehicle control unit that determines a travel route with reference to the two-dimensional map generated by the data processing unit and executes control to drive the vehicle.
- the program is attached to the data processing unit.
- a two-dimensional map including an enlarged display object in which an enlarged area spread around the object is set for an object having a low position reliability is generated.
- the program is for selecting a travel route that does not come into contact with the enlarged display object arranged on the two-dimensional map and executing control for traveling the vehicle.
- the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
- a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
- system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
- a device and a method for generating a two-dimensional map or a surround view image in which an object having a low position reliability is used as an enlarged display object are realized.
- it has a data processing unit that inputs a photographed image of a camera that photographs the surroundings of the vehicle and generates a two-dimensional map including objects around the vehicle.
- the data processing unit generates a two-dimensional map or a surround view image including an enlarged display object in which an enlarged area spread around the object is set for an object having low position reliability.
- the data processing unit determines that an object having an image height equal to or higher than a predetermined image height threshold is an object having a low position reliability, and an object having an image height equal to or higher than the image height threshold has a position reliability. Judge as a high object.
- FIG. 1 is a diagram for explaining the outline of the surround view camera system.
- the figure on the left of the figure shows a vehicle 10 equipped with a surround view camera system.
- the vehicle 10 is equipped with cameras at four locations, front, rear, left and right.
- Each of these cameras is a camera having a wide-angle lens such as a fisheye lens, and can shoot a wider wide-angle area.
- the dotted line area shown in the figure is a shooting area of each camera, and by image processing the images taken by these four cameras, an image observed from the upper part of the vehicle can be generated.
- the image shown on the right side of FIG. 1 is an example of a display image generated as a result of image processing. This is displayed on the driver's seat display unit.
- the vehicle at the center of this display image is virtual data and is not acquired from the image taken by the camera.
- the image around the vehicle is an image generated by image processing based on the images taken by the four cameras, and by pasting the image of the own vehicle in the center, it is as if the vehicle was observed from the sky. An image is generated.
- the virtual observation image from the upper part of the vehicle is called a "surround view image", a "bird's-eye view image”, a “bird's-eye view image”, or the like.
- the driver can check this image through the monitor (display unit) in the driver's seat, and while checking obstacles around the vehicle, safe driving, for example, backing or parking. It is possible to perform driving operations such as.
- an automatic parking application is also used in which the driver (driver) is not required to perform a driving operation, and the vehicle surrounding situation is automatically analyzed using images taken by the camera to park the vehicle by automatic driving.
- the lens of the camera is distorted.
- the so-called lens image height characteristic changes, and the object shooting position in the image shifts.
- the vehicle 10 is equipped with cameras that capture, for example, four directions of front, rear, left, and right, and images of these four cameras are combined and observed from above the vehicle, that is, A "surround view image" can be generated.
- Each camera has a wide-angle lens such as a fisheye lens, and can shoot a wider wide-angle area.
- the dotted line area shown in FIG. 1 is a shooting area of each camera, and by performing image processing on the images taken by these four cameras, an image observed from the upper part of the vehicle can be generated.
- the rear camera 12 is a wide-angle lens camera provided with a wide-angle lens such as a fisheye lens, and can capture an image of a wide area behind the vehicle.
- the rear camera 12 captures an object on the road surface behind the vehicle 10.
- the vertical pole 30 is shown as an object.
- This captured image is input to an image processing device in the vehicle 10, image correction processing is executed in the image processing device, and an image (surround view image) similar to that seen with the naked eye is generated from the upper part of the vehicle, for example, a monitor of the driver's seat. Is displayed in.
- the data used by the vehicle 10 includes surround view images, two-dimensional maps, and automatic driving control data (high-definition maps, etc.) around the vehicle.
- the surround view image is a composite of a plurality of images from a plurality of imaging devices, and is an image showing the periphery of the vehicle.
- the bird's-eye view image is included in the surround view image.
- the two-dimensional map is data including position information of objects around the vehicle.
- the two-dimensional map may include object size information and distance information from the vehicle to the object.
- a high-definition map is a map that represents a three-dimensional space around a vehicle.
- the data for automatic driving control is data used for automatic driving control, and may include a high-definition map.
- a surround view image or a two-dimensional map is used as display data presented to the driver of the vehicle.
- data for automatic operation control such as a high-definition map may be used.
- the travel control data is data for controlling the travel of the vehicle.
- data for automatic driving control such as a high-definition map and a two-dimensional map are used.
- the description of "surround view image” and "two-dimensional map” in the following explanation is an example of the image to be used, and “two-dimensional map” may be used instead of "surround view image", or “two-dimensional map” may be used.
- a “surround view image” may be used instead of the "two-dimensional map”.
- a composite image of a "surround view image” and a "two-dimensional map” may be used.
- the description "two-dimensional map (/ surround view image)” in the following description means that any image may be used.
- the two-dimensional map also includes a two-dimensional image.
- the "autonomous driving control data (high-definition map, etc.)" an image generated with high definition based on the "surround view image” or the "two-dimensional map” may be used.
- the rear camera 12 is a wide-angle lens camera provided with a wide-angle lens such as a fisheye lens, and can capture an image of a wide area behind the vehicle.
- a wide-angle lens such as a fisheye lens
- FIG. 3 A specific example of distortion will be described with reference to FIG. 3 and below.
- the rear camera 12 captures a state in which a large number of vertical poles 30 stand behind the vehicle 10 on the road surface on which grid lines are drawn.
- the vertical pole 30 is a pole similar to the vertical pole 30 shown in FIG. 2, and is a pole erected perpendicular to the road surface 20.
- a rear camera 12 equipped with a wide-angle lens captures an image of the rear of the vehicle 10 in which a large number of vertical poles 30 stand.
- FIG. 4 (1) is a photographed image. As shown in FIG. 4 (1), the grid pattern of the road surface on the captured image has a curved distortion. Further, the vertical pole 30 appears to be tilted as it approaches the periphery of the image. This is image distortion caused by shooting with a wide-angle lens.
- FIG. 4 (2) is a bird's-eye view image as a corrected image generated by performing distortion correction and viewpoint conversion on the image of FIG. 4 (1).
- the image processing device generates an image (overhead image) similar to that observed with the naked eye from above as a corrected image.
- the camera lens is distorted when it is in a high temperature state or a low temperature state.
- the so-called lens image height characteristic changes, and the object shooting position in the image shifts.
- FIG. 5 (1) is a captured image taken by the rear camera 12 provided with a wide-angle lens, as described with reference to FIG. 4 (1).
- the lens of the rear camera 12, that is, the camera lens 50 is superimposed on this captured image.
- a material such as glass or plastic is used for the lens of the camera.
- a glass lens When a glass lens is used, the expansion and contraction rate due to temperature change is small, so the occurrence of lens distortion is negligible.
- the expansion and contraction rate due to temperature change is large and large lens distortion occurs. appear. There is an image height shift as an index indicating the position shift of the subject shooting position due to this lens distortion.
- the image height is a value representing the image position as a distance from the optical axis on the evaluation surface of the optical system. As the lens distortion occurs, the image height also shifts, and as a result, the position of the object captured by the camera shifts.
- a 2D map or surround view image in which the object is arranged is generated, a 2D map or surround view image in which the object is arranged at a position different from the actual one is generated. Will be done.
- the image height shift occurs with the magnitude of the lens distortion, but the lens distortion generated with the temperature change tends to be relatively small in the inner peripheral region of the lens and large in the outer peripheral region.
- the inner peripheral region 51 near the central region of the lens is a region in which the lens distortion due to a temperature change is small.
- the outer peripheral region 52 of the lens is a region in which the lens distortion due to a temperature change is large.
- the line that separates the inner peripheral region 51 and the outer peripheral region 52 is shown as the region division line 61.
- FIG. 5 (2) is a bird's-eye view image generated by correcting the image taken by the camera shown in FIG. 5 (1).
- the area division line 61 is a line corresponding to the area division line 61 that divides the inner peripheral area 51 and the outer peripheral area 52 shown in FIG. 5 (1).
- the area inside the area division line 61 corresponds to the inner peripheral area 51 shown in FIG. 5 (1), that is, the image area taken through the central portion of the lens. Objects in this area have little misalignment of the captured image position, and highly accurate position analysis is possible.
- the outer region of the region division line 61 corresponds to the outer peripheral region 52 shown in FIG. 5 (1), that is, the image region captured through the outer peripheral region of the lens.
- the positional deviation of the captured image position becomes large, which makes high-precision position analysis difficult. That is, the photographed object in this outer peripheral region is an object with low reliability of the position analysis result using the image.
- the image height is a value representing the image position as a distance from the optical axis on the evaluation surface of the optical system.
- the values shown in FIG. 6 are set.
- FIG. 7 is a graph showing a state in which an amount of deviation in image height due to a temperature change is generated.
- the graph shown in FIG. 7 is a graph in which the image height (deg) shown in FIG. 6 is set on the horizontal axis and the image height deviation amount (deg) is set on the vertical axis, and the image height deviation due to a temperature change of the camera (lens) is set. It shows a change.
- the lens distortion is small at any position from the inner circumference to the outer circumference of the lens, the deviation amount of the image height is ⁇ 0, and the object of the captured image at this temperature is There is no deviation in the position of the captured image, and highly accurate object position analysis is possible. Specifically, the objects in the bird's-eye view image generated based on the captured image are displayed at the correct positions.
- the temperature is 50 degrees
- the amount of image height deviation ⁇ 0 in the inner peripheral portion of the lens but the lens distortion becomes large and the amount of image height deviation becomes large in the outer peripheral portion of the lens.
- the deviation amount of the image height ⁇ 1 (deg) is 50 degrees
- the image height deviation amount ⁇ 0 in the inner peripheral portion of the lens is 70 degrees
- the image height deviation amount ⁇ 0 in the inner peripheral portion of the lens but the lens distortion becomes larger and the image height deviation amount also becomes larger in the outer peripheral portion of the lens.
- the lens distortion characteristic and the image height characteristic due to the temperature change differ depending on the camera configuration and the lens.
- the image processing device of the present disclosure stores, for example, characteristic information (lens distortion characteristic and image height characteristic due to temperature change) measured in advance for a camera mounted on a vehicle in a storage unit, and the characteristic information stored in the storage unit. To carry out the reason described below.
- FIG. 8 is a diagram showing a flowchart illustrating a sequence of processes executed by the image processing apparatus of the present disclosure.
- the processing according to the flowchart shown in FIG. 8 can be executed under the control of a data processing unit including a CPU or the like having a program execution function according to a program stored in the storage unit of the image processing device.
- a data processing unit including a CPU or the like having a program execution function according to a program stored in the storage unit of the image processing device.
- the processing of each step of the flow shown in FIG. 8 will be sequentially described.
- Step S101 First, in step S101, the imaging unit (camera) captures an image. For example, cameras 11 to 14 mounted on the vehicle 10 shown in FIG. 1 take an image.
- the imaging unit is a camera equipped with a wide-angle lens such as a fisheye lens, and captures, for example, the captured images shown in FIGS. 4 (1) and 5 (1).
- Step S102 the object detection process from the image captured by the imaging unit (camera) in step S101 is executed to detect the object. At the same time, the position of the object in the image and the size of the object are detected.
- the object detection process sets a detected unprocessed object, that is, an unprocessed object ID for which processing according to this flow has not been executed. An individual ID is set for each object and recorded in the storage unit.
- Step S103 Next, in step S103, the distance and image height of each object are calculated. This process is performed by the existing method. Since the calculation of these values is executed based on the captured image, the high-precision calculation process cannot be executed in the region where the image height deviation is large.
- step S104 the temperature information of each camera is acquired from the temperature sensor provided for each camera that has taken the image.
- Step S105 it is determined whether or not the temperature of the camera acquired from the temperature sensor is within the predetermined threshold temperature range.
- the threshold temperature range is a preset threshold temperature range.
- the threshold temperature range is 10 ° C to 30 °.
- This threshold temperature range is set to a temperature range in which lens distortion is small and the amount of image height deviation is small.
- the lens distortion is small and the image height deviation is small in the vicinity of 25 degrees, and the temperature range in the vicinity is defined as the threshold temperature range. It is preferable to set an optimum range for this threshold temperature range according to the characteristics of the camera or lens to be used.
- step S105 determines whether the temperature of the camera acquired from the temperature sensor is within the predetermined threshold temperature range. If the determination in step S105 is Yes, that is, if it is determined that the temperature of the camera acquired from the temperature sensor is within the predetermined threshold temperature range, the process proceeds to step S110. In this case, it is a case where the camera or the lens is in a normal temperature state, the lens distortion is small, and it is determined that a large image height shift does not occur even on the outer circumference of the lens.
- step S105 determines that the temperature of the camera acquired from the temperature sensor is not within the predetermined threshold temperature range (between the predetermined first threshold value and the predetermined second threshold value). If so, the process proceeds to step S106.
- the camera or lens is in a high temperature state where the temperature is higher than the predetermined first threshold value or a low temperature state where the temperature is lower than the predetermined second threshold value, and the lens distortion is large and the lens is on the outer circumference. This is the case when there is a possibility that a large image height shift has occurred.
- the first threshold is greater than the second threshold. However, the first threshold value and the second threshold value may be the same value.
- Step S106 If the determination is No in step S105, that is, if it is determined that the temperature of the camera acquired from the temperature sensor is not within the predetermined threshold temperature range, the process proceeds to step S106.
- the camera or lens is in a high temperature state or a low temperature state, the lens distortion is large, and there is a possibility that a large image height shift occurs on the outer circumference of the lens.
- step S106 the objects (unprocessed objects) in the image are sequentially selected, and the comparison process of the object image height and the predetermined image height threshold value is executed.
- the processing of steps S106 to S110 is executed sequentially, repeatedly, or in parallel for the objects (unprocessed objects) in the image.
- the image height threshold value may be set as, for example, an image height corresponding to the area division line 61 shown in FIGS. 5 and 6. That is, it corresponds to the region division line 61 which is the boundary between the inner peripheral region 51 where the lens distortion and image height deviation due to the temperature change are small and the outer peripheral region 52 where the lens distortion and image height deviation due to the temperature change are large as shown in FIG.
- the image height is set as the image height threshold value. For example, in the example shown in FIG. Image height threshold ⁇ 90 (deg) Is.
- the image height threshold value that is, the image height corresponding to the area division line 61, which is the boundary between the inner peripheral region 51 and the outer peripheral region 52, differs depending on the camera and the lens.
- the image processing device acquires in advance the image height threshold value corresponding to the camera or lens provided in the vehicle and stores it in the storage unit.
- the image processing apparatus uses the stored data to execute the process of step S106.
- step S107 the image processing apparatus determines whether or not the image height of the object selected from the image is equal to or higher than the specified image height threshold value. If the image height of the selected object is equal to or higher than the specified image height threshold value, the process proceeds to step S108. This is a process when the selected object is an object outside the area division line 61.
- step S110 This is a process when the selected object is an object inside the area division line 61.
- Step S108 If it is determined in step S107 that the image height of the selected object is equal to or higher than the specified image height threshold value, that is, if the selected object is an object outside the area division line 61, the process proceeds to step S108.
- step S108 the image processing apparatus sets the position reliability as the attribute information of the selected object to a low reliability.
- the attribute information whose position reliability is low reliability is recorded in the storage unit in association with the object ID.
- Step S109 the image processing apparatus Executes a process of enlarging the size of an object whose position reliability is low, or a process of setting a width / size area corresponding to the reliability as a caution area around the object.
- this is a process of generating display data of the enlarged display object 71 shown in FIG. 9 (2) and the attention area display object 73 shown in FIG. 10 (3).
- This display data will be described in detail later.
- Step S110 On the other hand, if it is determined in step S107 that the image height of the selected object is not equal to or higher than the specified image height threshold value, that is, if the selected object is an object inside the area division line 61, the process proceeds to step S110.
- step S105 determines whether the temperature of the camera acquired from the temperature sensor is within the threshold temperature range defined in advance. If the determination in step S105 is Yes, that is, when it is determined that the temperature of the camera acquired from the temperature sensor is within the threshold temperature range defined in advance, the process proceeds to step S110.
- the camera or the lens is in a normal temperature state, and it is determined that the lens distortion is small and a large image height shift does not occur even on the outer circumference of the lens.
- the image processing apparatus sets the position reliability as the attribute information of the selected object to high reliability in step S110.
- the attribute information whose position reliability is high reliability is recorded in the storage unit in association with the object ID.
- Position reliability information is set for all objects by the processes of steps S108 and S110.
- step S111 the image processing apparatus generates and displays a two-dimensional map (/ surround view image) in which each object is arranged. For example, it is displayed on the monitor in the driver's seat. After the process of step S111, the process returns to step S101 and the process is repeated.
- FIG. 9 shows the following two image display examples.
- Conventional 2D map (/ surround view image) Two-dimensional map (/ surround view image) of the present disclosure
- the area division line 61 corresponds to the area division line 61 described above with reference to FIG. That is, the area division line 61 is a line corresponding to the area division line 61 that divides the inner peripheral area 51 and the outer peripheral area 52 described with reference to FIG.
- the inside of the region division line 61 corresponds to an image region captured through the center of the lens. Objects in this area have little misalignment of the captured image position, and highly accurate position analysis is possible.
- the outside of the region division line 61 corresponds to an image region captured through the outer peripheral region of the lens. For the objects in this area, the positional deviation of the captured image position becomes large, which makes high-precision position analysis difficult.
- the object in this outer peripheral region is an object with low reliability that cannot be said to exist reliably at the display position of the bird's-eye view image shown in FIG. 9 (1).
- the driver drives the vehicle while looking at this displayed image, the driver does not touch the object (pole) based on the displayed image. )
- the driver does not touch the object (pole) based on the displayed image.
- the vehicle will come into contact with the object (pole) or pass so close that it is likely to come into contact with the object (pole). There is.
- FIG. 9 A display image for avoiding such a danger is shown in FIG. 9 (2).
- Two-dimensional map (/ surround view image) of the present disclosure Is. This image is an image generated according to the flow shown in FIG.
- the object (pole) in the inner region of the region division line 61 that is, the inner region corresponding to the image region captured through the center of the lens is the conventional image shown in (1). It is a normal display object 72 that has been subjected to the same display processing as in. The normal display object 72 is displayed as an image that reflects the size of the actual object.
- These normal display objects 72 are objects on which the process of step S110 of the flow shown in FIG. 8 has been executed. That is, in step S110, the position reliability of the object is set to high reliability.
- step S110 that is, the object for which the position reliability is set to high reliability is the object for which the image height of the selected object is determined not to be equal to or higher than the specified image height threshold value in step S107. That is, it is an object inside the area division line 61, and for these objects, the objects included in the bird's-eye view image are displayed as they are.
- the object (pole) in the outer region of the region division line 61 that is, the outer region corresponding to the image region captured via the outer peripheral portion of the lens is included in the bird's-eye view image. It is displayed as an enlarged display object 71 in which the size of the object obtained from the captured image is enlarged instead of the actual size of the object.
- step S108 the position reliability of the object is set to low reliability
- step S109 the process of enlarging the size of the object is executed.
- steps S108 to S109 that is, the object whose position reliability is set to low reliability and the enlargement processing is executed, is determined in step S107 that the image height of the selected object is equal to or higher than the specified image height threshold value.
- the determined object that is, the object outside the area division line 61.
- the object size obtained from the captured image is not the same, but the objects are enlarged and displayed.
- the enlarged image is displayed on the monitor in the driver's seat.
- the driver moves the vehicle so as not to touch the enlarged object (pole).
- the vehicle can be safely moved without touching the actual object (pole). it can.
- step S105 when the determination in step S105 is Yes, that is, when the camera temperature is within the temperature threshold range, the object in the outer peripheral region is not enlarged and displayed, and FIG. 9 (1) shows. An image similar to the conventional image shown will be displayed. In this case, the object in the outer peripheral region is less likely to have an image height shift, and the object can be displayed at the correct position.
- the display mode of the low-reliability object is not limited to the enlarged display shown in FIG. 9 (2).
- various displays such as overlaying a caution area around an object are possible.
- the object to be enlarged and displayed is an object whose position reliability is determined to be low, but the area division line 61 shown in FIGS. 9 and 10 will move according to the progress of the vehicle. .. Therefore, the object (position reliability is high reliability) detected in the inner region of the region division line 61 in the past captured image is located outside the region division line 61 as the vehicle advances thereafter. It is possible to maintain the setting of high reliability, and it is not necessary to enlarge or display cautions for such objects.
- FIG. 11 shows a state in which the vehicle gently curves to the right and moves forward. There is a large right curve from time t1 to t2.
- the normal display object 81 shown in FIG. 11 is located in the outer peripheral region outside the area division line 61 (t2) at time t2, and the normal display object 81 exists substantially in the front direction of the vehicle at time t1. Therefore, the normal display object 81 exists in the inner region of the region division line 61 (t1) of the image taken by the front camera of the vehicle at time t1, and at this point, the flow step already shown in FIG. The process of S110 is executed, and the object becomes an object registered in the storage unit as an object whose position reliability has been determined as high reliability.
- Such an object that is, an object whose position reliability has been determined to be highly reliable, is regarded as an object whose position has been analyzed even if it is located in the outer peripheral region outside the area division line 61 due to the subsequent progress of the vehicle. , Not subject to enlarged display. That is, the processes of steps S108 to S109 are not executed.
- a process of generating and displaying a two-dimensional map (/ surround view image) in which each object is arranged is performed. That is, for example, a display image for displaying a two-dimensional map (/ surround view image) on the monitor of the driver's seat and driving the driver so as not to touch the object by looking at the two-dimensional map (/ surround view image). It was a processing sequence to generate.
- the two-dimensional map generated by the processing of steps S101 to S110 of the flow shown in FIG. 8 can be used not only for the driver's driving but also as data for automatic driving.
- the flowchart shown in FIG. 12 is a flowchart illustrating a processing sequence in which the two-dimensional map is used for automatic operation. The flow shown in FIG. 12 will be described.
- steps S101 to S110 in the flow shown in FIG. 12 is the same processing as the processing of steps S101 to S110 of the flow described above with reference to FIG. Only the final step S121 is different. That is, the flow shown in FIG. 12 is a flow in which step S111 of the flow shown in FIG. 8 is replaced with step S121 of FIG. The process of step S121 will be described.
- Step S121 the traveling control of the vehicle is executed based on the two-dimensional map (for traveling control) in which each object is arranged.
- Vehicle travel control includes autonomous driving.
- Data for automatic driving control such as a high-definition map may be used as data for driving control.
- the automatic driving control data such as a high-definition map includes information on the position, size, and distance of each object in the three-dimensional space, and information on the attention area set based on the reliability.
- the two-dimensional map for travel control used at this time is a two-dimensional map as described with reference to FIGS. 9 (2), 10 and 11. That is, it is a two-dimensional map based on an object whose position reliability is low and whose size is expanded or an area having a width / size corresponding to the reliability is set as a caution area around it.
- the vehicle control unit that executes automatic traveling of the vehicle uses the two-dimensional map for traveling control to execute control of selecting and traveling an enlarged object or a route that does not contact the object and the attention area. As a result, even if the position of the object having the low reliability of the position is displaced, the vehicle control unit executes the control of traveling on the route that does not enter the enlarged display area of the object. As a result, safe automatic driving can be realized by selecting a traveling route that greatly reduces the possibility of contacting an object having low reliability in position.
- the object located in the inner peripheral region inside the area division line 61 is an object having a high positional reliability
- the object located in the outer outer peripheral region is an object having a low positional reliability. ..
- Objects with high reliability in the inner circumference area are displayed to reflect the actual object size, and objects with low reliability in the outer circumference are actually displayed.
- the configuration was such that the object size of the above was greatly enlarged and the attention area was displayed.
- display modes are possible as the display mode of the object having a low position reliability. For example, if the direction of the positional deviation is determined by the temperature characteristics of the lens, as shown in FIG. 13, an object display that expands only in the displacement direction may be performed.
- the temperature characteristics of a lens at high temperature tend to show a change that spreads radially around the optical axis of the lens. If the direction in which the imaging position of the subject deviates is known in advance due to the temperature characteristics, the display may be enlarged and displayed only in the deviating direction as shown in FIG.
- the object display may be set so that the enlargement ratio is sequentially changed. That is, the process of changing the enlargement ratio according to the value of the position reliability and displaying it is performed.
- the display image (two-dimensional map (/ surround view image)) shown in FIG. 14 is an example in which the enlargement ratio of the object is changed according to the amount of the image height shift to display the object.
- the enlargement ratio of the object may be changed according to the change in the image height shift amount, that is, the position reliability, and the object may be displayed.
- the object may be displayed in different colors depending on the position reliability. For example Objects with high position reliability are displayed in green, Objects with medium reliability are displayed in yellow, Objects with low position reliability are displayed in red, This is the display mode.
- a frame having a different size depending on the position reliability may be displayed outside the shape of the actual object.
- Objects with high position reliability display a small frame
- Objects with medium reliability will display a medium frame
- Objects with low position reliability display a large frame, For example, such a display mode.
- display data may be generated by arbitrarily combining a plurality of the above-mentioned display modes.
- the image processing device 100 of the present disclosure generates a two-dimensional map in which image processing such as enlargement is performed on an object having low position reliability according to the flow described above with reference to FIG. 8, and is displayed in two dimensions. Executes the process of displaying on the display as a map (/ surround view image).
- FIG. 15 is a block diagram showing a configuration example of an image processing system (vehicle control system) 100 having both functions of an image processing device and a vehicle control device.
- the image processing system (vehicle control system) 100 shown in FIG. 15 has four cameras, that is, a surround view camera system, that captures the front, rear, left, and right directions of the vehicle, similar to the vehicle 10 described with reference to FIG.
- the image processing system (vehicle control system) 100 shown in FIG. 15 is, for example, a device provided inside a vehicle.
- the image processing system (vehicle control system) 100 includes a control unit 101, a vehicle control device 102, a display device 103, an input unit 104, a storage unit 105, a communication unit 106, a vehicle information acquisition unit 107, and data processing.
- the device 110 further includes four cameras 121F to 121B provided on the front, rear, left and right sides of the vehicle, and temperature sensors 131F to 131 attached to each camera.
- the elements such as the display device 103, the data processing device 110, and the four cameras 121F to 121B can be configured as individual devices having their own independent housings.
- the four cameras 121F to 121B are four cameras that capture the front, rear, left, and right directions of the vehicle, and are cameras for generating surround view images, similar to the vehicle 10 described with reference to FIG.
- the cameras F and 121F are forward-direction shooting cameras
- the cameras L and 121L are left-direction shooting cameras
- the cameras R and 121R are right-direction shooting cameras.
- Cameras B and 121B are rearward photographing cameras.
- Each of these cameras is a camera having a wide-angle lens such as a fisheye lens, and can capture a wider area, that is, a wide-angle area.
- Each of these cameras 121F to 121B is individually provided with temperature sensors 131F to B.
- the data processing device 110 inputs the images taken by these four cameras, and from the two-dimensional map described above with reference to FIG. 1 or from the viewpoint above the vehicle, which represents the vehicle and the surroundings of the vehicle.
- Image surround view image
- the two-dimensional map is provided to the vehicle control device 102.
- the two-dimensional map (/ surround view image) generated by the data processing device 110 is a two-dimensional map generated by processing according to the flowcharts shown in FIGS. 8 and 12 described above. That is, when the detected temperature of the temperature sensor mounted on the camera is not within the predetermined temperature range, the object on the outer periphery of the lens, that is, the object having low reliability in position is enlarged or displayed to call attention. To execute. Specifically, for example, the two-dimensional map (/ surround view image) described above with reference to FIGS. 9 (2), 10, 11, 13, and 14 is generated.
- the display device 103 is a display unit having a display such as a liquid crystal display device provided at a position where the driver in the driver's seat can observe.
- a two-dimensional map (/ surround view image) generated by the data processing device 110 is displayed on the display device 103.
- an enlarged image of an object with low position reliability is displayed on the monitor in the driver's seat.
- the driver moves the vehicle so as not to touch the enlarged object (pole).
- the vehicle can be safely moved without touching the actual object (pole). it can.
- the two-dimensional map (/ surround view image) generated by the data processing device 110 is also input to the vehicle control device 102.
- the vehicle control device 102 executes automatic driving control of the vehicle such as steering operation and acceleration / deceleration of the vehicle.
- the vehicle control device 102 uses a two-dimensional map generated by the data processing device 110, that is, a two-dimensional map in which an object having low position reliability is enlarged or a attention area is set, as a two-dimensional map for control.
- the travel route is determined with reference to the vehicle, and the vehicle is automatically driven.
- the vehicle control device 102 uses the two-dimensional map to execute control for selecting and traveling an enlarged object in the two-dimensional map or a route that does not come into contact with the attention area set with the object. As a result, even if the position of the object having the low reliability of the position is displaced, the vehicle control unit executes the control of traveling on the route that does not enter the enlarged display area of the object. As a result, safe automatic driving can be realized by selecting a traveling route that greatly reduces the possibility of contacting an object having low reliability in position.
- the input unit 104 is composed of, for example, a switch or an operation unit that can be operated by the user.
- the touch panel of the UI (user interface) screen displayed on the display device 103 also functions as the input unit 104.
- the storage unit 105 is a data storage means having various configurations such as a removable medium, a RAM, a ROM, and the like, in addition to a large-capacity storage device such as a hard disk.
- the communication unit 106 applies at least one of various communication means such as Wi-Fi, 4G, LTE, and Bluetooth (registered trademark) to an external device, for example, a user such as a server or a user's smartphone. Communicate with external devices such as terminals.
- the vehicle information acquisition unit 107 acquires operation information of an operation unit operated by the driver when the vehicle is running, such as a handle, an accelerator, and a brake. Further, it may be configured to acquire detection information of a sensor or the like.
- the control unit 101 controls various processes executed in the image processing system (vehicle control system) 100.
- the control unit 101 has a data processing unit having a program execution function such as a CPU, and various processes executed in the image processing system (vehicle control system) 100 according to a program stored in the storage unit 105, for example.
- a program execution function such as a CPU
- Each device and each component shown in FIG. 15 may be configured by configuring a plurality of devices and components as one device and components. Further, each device and each component shown in FIG. 15 are configured as a moving body such as a vehicle.
- the data processing device 110 includes an object recognition unit 201, an object distance calculation unit 202, a reliability calculation unit 203, a display data creation unit 204, and a travel control data creation unit 205.
- the object recognition unit 201 executes object detection from an image captured by the imaging unit (camera), and generates object position information (coordinates on the image) and object size (size) information as recognition results.
- the object distance calculation unit 202 calculates the distance from the own vehicle on which the imaging unit (camera) or the imaging unit is mounted to the detected object.
- the reliability calculation unit 203 acquires the temperature of the camera from the temperature sensor and the object information (position, distance) from the object distance calculation unit. At the same time, the size information of the object may be acquired.
- the reliability of the object information (position, distance, size, etc.) calculated by the object distance calculation unit 202 is calculated according to the comparison result between the temperature of the camera and the predetermined threshold value.
- the display data creation unit 204 includes object position information (coordinates on the image) generated by the object recognition unit 201, the distance of the detected object generated by the object distance calculation unit 202, and object information (object information) generated by the reliability calculation unit 203.
- the display data may be a two-dimensional map showing the position, distance, and size of the object and having information on the attention area set based on the reliability. Further, the display data may be image data after enlargement processing in which the object area in the captured image is enlarged based on the object information (position, distance, size) and the reliability. Further, the two-dimensional map may be superimposed on the captured image. Further, the display data may be image data generated by superimposing a mark indicating information (position, distance, size, etc.) of the object corrected based on the reliability on the captured image.
- the travel control data creation unit 205 includes object position information (coordinates on the image) generated by the object recognition unit 201, the distance of the detected object generated by the object distance calculation unit 202, and the object generated by the reliability calculation unit 203. Acquire the reliability of information (position, distance, size, etc.).
- the travel control data creation unit 205 includes object position information (coordinates on the image) generated by the object recognition unit 201, the distance of the detected object generated by the object distance calculation unit 202, and the object generated by the reliability calculation unit 203. Travel control data is created based on the reliability of information (position, distance, size, etc.).
- the travel control data may be a two-dimensional map showing the position, distance, and size of the object and having information on the attention area based on the reliability.
- the travel control data may be a high-definition map which is information on the three-dimensional space including information on the position, size, and distance of each object in the three-dimensional space and information on the attention area set based on the reliability. ..
- the travel control data may be a type of automatic driving control data different from the high-definition map.
- the travel control data creation unit 205 may use an image captured by the camera when creating travel control data (including a high-definition map), or may use a radar, ultrasonic waves, or LiDAR. Data for driving control may be created using data from a sensor other than the camera such as.
- the display data creation unit 204 and the travel control data creation unit 205 have been described so as to create a two-dimensional map in each block.
- the two-dimensional map created by the display data creation unit 204 may be used by the travel control data creation unit 205
- the two-dimensional map created by the travel control data creation unit 205 may be used to create display data. It may be used in the part 204.
- FIG. 17 is a diagram showing a configuration example of hardware applicable as an image processing system (vehicle control system) 100.
- the configuration shown in FIG. 17 will be described.
- the CPU (Central Processing Unit) 301 functions as a data processing unit that executes various processes according to a program stored in the ROM (Read Only Memory) 302 or the storage unit 308. For example, the process according to the sequence described in the above-described embodiment is executed.
- the RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
- the CPU 301 is connected to the input / output interface 305 via the bus 304, and the input / output interface 305 is input by various switches, a keyboard, a touch panel, a mouse, a microphone, and a status data acquisition unit such as a sensor, a camera, and GPS.
- An output unit 307 including a unit 306, a display, a speaker, and the like is connected.
- the figure shows the imaging unit (camera) 321 and the temperature sensor 322 as the components of the input unit 306. Further, the display unit 323 is shown as a component of the output unit 307.
- the CPU 301 inputs commands, status data, and the like input from the input unit 306, executes various processes, and outputs the process results to, for example, the output unit 307.
- the storage unit 308 connected to the input / output interface 305 is composed of, for example, a hard disk or the like, and stores a program executed by the CPU 301 and various data.
- the communication unit 309 functions as a transmission / reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
- the drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
- a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
- the technology disclosed in the present specification can have the following configuration.
- (1) It has a data processing unit that inputs a camera image that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle.
- the data processing unit An image processing device that generates a two-dimensional map including an enlarged display object in which an enlarged area spread around the object is set for an object having a low position reliability among the objects in the two-dimensional map.
- the data processing unit The image processing apparatus according to (1) or (2), which determines the position reliability of an object based on the image height of the object.
- An object having an image height equal to or higher than a predetermined image height threshold value is determined to be an object having low position reliability, and is arranged on the two-dimensional map as an enlarged display object in which an enlarged area spread around the object is set.
- An object that does not have an image height equal to or higher than the image height threshold value is determined to be an object with high position reliability, and is arranged on the two-dimensional map as a normal display object that does not set an enlarged area that extends around the object (1).
- the data processing unit The image processing apparatus according to any one of (1) to (5), which outputs a surround view image composed of the two-dimensional map to a display unit.
- the data processing unit The image processing device according to any one of (1) to (6), which outputs the two-dimensional map to a vehicle control unit that executes automatic driving.
- the vehicle control unit The image processing device according to any one of (1) to (7), which selects a traveling route that does not come into contact with the enlarged display object arranged on the two-dimensional map and executes control to drive the vehicle.
- the data processing unit The image processing apparatus according to any one of (1) to (8), which generates a two-dimensional map including an attention area setting object in which a attention area spreading around the object is set for an object having low position reliability.
- the data processing unit The image processing apparatus according to any one of (1) to (9), which generates a two-dimensional map including enlarged display objects having different enlargement ratios depending on the position reliability.
- the data processing unit is The image processing apparatus according to any one of (1) to (10), which generates a two-dimensional map including objects displayed in different colors according to the position reliability.
- the data processing unit The image processing apparatus according to any one of (1) to (11), which generates a two-dimensional map including objects surrounded by frames of different sizes depending on the position reliability.
- a data processing unit that inputs images taken by a camera that photographs the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle. It has a vehicle control unit that determines a travel route with reference to the two-dimensional map generated by the data processing unit and executes control to drive the vehicle.
- the data processing unit Among the objects in the two-dimensional map, a two-dimensional map including an enlarged display object in which an enlarged area extending around the object is set for an object having a low position reliability is generated.
- the vehicle control unit A vehicle control device that controls a vehicle to travel by selecting a travel route that does not come into contact with the enlarged display object arranged on the two-dimensional map.
- the image processing device has a data processing unit that inputs a captured image of a camera that captures the surroundings of the vehicle and generates a two-dimensional map including objects around the vehicle.
- the data processing unit An image processing method for generating a two-dimensional map including an enlarged display object in which an enlarged area spread around the object is set for an object having a low position reliability among the objects in the two-dimensional map.
- the vehicle control device A data processing unit that inputs images taken by a camera that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle. It has a vehicle control unit that determines a travel route with reference to the two-dimensional map generated by the data processing unit and executes control to drive the vehicle.
- the data processing unit Among the objects in the two-dimensional map, a two-dimensional map including an enlarged display object in which an enlarged area extending around the object is set for an object having a low position reliability is generated.
- the vehicle control unit A vehicle control method for executing control for driving a vehicle by selecting a travel route that does not come into contact with the enlarged display object arranged on the two-dimensional map.
- a program that executes image processing in an image processing device has a data processing unit that inputs a captured image of a camera that captures the surroundings of the vehicle and generates a two-dimensional map including objects around the vehicle.
- the program is installed in the data processing unit.
- a program that executes vehicle control processing in a vehicle control device A data processing unit that inputs images taken by a camera that captures the surroundings of the vehicle and generates a two-dimensional map that includes objects around the vehicle. It has a vehicle control unit that determines a travel route with reference to the two-dimensional map generated by the data processing unit and executes control to drive the vehicle.
- the program is attached to the data processing unit.
- a two-dimensional map including an enlarged display object in which an enlarged area spread around the object is set for an object having a low position reliability is generated.
- a program that selects a travel route that does not come into contact with the enlarged display object arranged on the two-dimensional map and executes control to drive the vehicle.
- the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
- executing processing by software install the program that records the processing sequence in the memory in the computer built in the dedicated hardware and execute it, or execute the program on a general-purpose computer that can execute various processing. It can be installed and run.
- the program can be pre-recorded on a recording medium.
- LAN Local Area Network
- the various processes described in the specification are not only executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes.
- the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
- a device and a method for generating a two-dimensional map or a surround view image in which an object having a low position reliability is used as an enlarged display object are realized.
- it has a data processing unit that inputs a photographed image of a camera that photographs the surroundings of the vehicle and generates a two-dimensional map including objects around the vehicle.
- the data processing unit generates a two-dimensional map or a surround view image including an enlarged display object in which an enlarged area spread around the object is set for an object having low position reliability.
- the data processing unit determines that an object having an image height equal to or higher than a predetermined image height threshold is an object having a low position reliability, and an object having an image height equal to or higher than the image height threshold has a position reliability. Judge as a high object.
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法を提供する。車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有する。データ処理部は、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップやサラウンドビュー画像を生成する。データ処理部は、予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定し、像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定する。
Description
本開示は、画像処理装置、車両制御装置、および方法、並びにプログラムに関する。具体的には例えば車両に取り付けたカメラの撮影画像から様々な障害物を検出し、安全な走行を実現する画像処理装置、車両制御装置、および方法、並びにプログラムに関する。
近年、車両周辺をカメラ撮影画像で確認しながら自動駐車を行わせるソフトウェアプログラムである自動駐車アプリケーションを搭載した車両が多く利用されている。
自動駐車アプリケーションで使用される車載カメラは一般的に、魚眼レンズ等を備えた画角が180度程度の広角カメラである。車両の周辺4か所に搭載された車載カメラ映像を合成することによって、自車の360°の周辺画像を取得して、画像から全周囲の障害物を検出する。
自動駐車アプリケーションで使用される車載カメラは一般的に、魚眼レンズ等を備えた画角が180度程度の広角カメラである。車両の周辺4か所に搭載された車載カメラ映像を合成することによって、自車の360°の周辺画像を取得して、画像から全周囲の障害物を検出する。
自動駐車アプリケーションは、例えば、車載カメラによって得られた画像から、車両周辺の駐車枠や障害物(車両・歩行者・縁石・車止めなど)のオブジェクトの位置を解析し、解析位置情報に基づいてメモリ上のマップにこれらのオブジェクトを配置し、車両が障害物に接触せずに正確に駐車枠内に駐車できるように走行ルートを決定して車両を走行させる制御を実行する。
しかし、車両に搭載したカメラが高温状態、あるいは低温状態になると、カメラのレンズに歪みが発生する。この結果いわゆるレンズ像高特性が変化し、画像中のオブジェクト撮影位置にずれが発生する。このような画像を用いたオブジェクト位置解析を行うと正確な位置データが得られないという問題が発生する。
なお、温度変化による誤差発生画像の補正処理を行う構成を開示した従来技術として、例えば特許文献1(特開2009-250785号公報)がある。
この特許文献1は、複眼レンズを用いて被写体までの距離を計測する構成において、2つのレンズの間隔に相当する基線長の変化を計測して、計測された基線長変化量に基づいて被写体距離の補正を行う構成を開示している。
この特許文献1は、複眼レンズを用いて被写体までの距離を計測する構成において、2つのレンズの間隔に相当する基線長の変化を計測して、計測された基線長変化量に基づいて被写体距離の補正を行う構成を開示している。
しかし、この文献に記載の手法は、複眼レンズを用いて被写体距離を計測する構成に特化した手法であり、複眼レンズではない車載カメラの撮影画像の補正には適用できない。
本開示は、車両に搭載したカメラのレンズが温度変化により歪みが発生した場合でも、撮影画像内のオブジェクトに対する車両の接触や衝突を防止して安全に走行することを可能とした画像処理装置、車両制御装置、および方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理装置にある。
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理装置にある。
さらに、本開示の第2の側面は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御装置にある。
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御装置にある。
さらに、本開示の第3の側面は、
画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理方法にある。
画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理方法にある。
さらに、本開示の第4の側面は、
車両制御装置において実行する車両制御方法であり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部が、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御方法にある。
車両制御装置において実行する車両制御方法であり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部が、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御方法にある。
さらに、本開示の第5の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させるプログラムにある。
画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させるプログラムにある。
さらに、本開示の第6の側面は、
車両制御装置において車両制御処理を実行させるプログラムであり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記プロクラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させ、
前記車両制御部に、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行させるプログラムにある。
車両制御装置において車両制御処理を実行させるプログラムであり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記プロクラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させ、
前記車両制御部に、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法が実現される。
具体的には、例えば、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有する。データ処理部は、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップやサラウンドビュー画像を生成する。データ処理部は、予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定し、像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定する。
これらの構成により、位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
具体的には、例えば、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有する。データ処理部は、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップやサラウンドビュー画像を生成する。データ処理部は、予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定し、像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定する。
これらの構成により、位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
以下、図面を参照しながら本開示の画像処理装置、車両制御装置、および方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.サラウンドビューカメラシステムの概要について
2.カメラ撮影画像の変換処理、および温度変化によるレンズ歪みとオブジェクト位置検出精度の低下について
3.本開示の画像処理装置が実行する処理のシーケンスについて
4.2次元マップを自動運転に利用する処理例について
5.その他の実施例について
6.画像処理システム(車両制御システム)の構成例について
7.画像処理システム(車両制御システム)のハードウェア構成例について
8.本開示の構成のまとめ
1.サラウンドビューカメラシステムの概要について
2.カメラ撮影画像の変換処理、および温度変化によるレンズ歪みとオブジェクト位置検出精度の低下について
3.本開示の画像処理装置が実行する処理のシーケンスについて
4.2次元マップを自動運転に利用する処理例について
5.その他の実施例について
6.画像処理システム(車両制御システム)の構成例について
7.画像処理システム(車両制御システム)のハードウェア構成例について
8.本開示の構成のまとめ
[1.サラウンドビューカメラシステムの概要について]
まず、最近の車両に備えられたサラウンドビューカメラシステムの概要について説明する。
まず、最近の車両に備えられたサラウンドビューカメラシステムの概要について説明する。
図1は、サラウンドビューカメラシステムの概要について説明する図である。図の左に示す図は、サラウンドビューカメラシステムを備えた車両10を示している。車両10は、前後左右の4か所にカメラを装着している。図に示す前方カメラ11、後方カメラ12、左側面カメラ13、右側面カメラ14である。
これらの各カメラは、例えば、魚眼レンズ等の広角レンズを持つカメラであり、より広い広角エリアを撮影できる。例えば、図に示す点線領域が各カメラの撮影領域であり、これらの4つのカメラの撮影画像を画像処理することで、車両上部から観察した画像を生成することができる。
図1右側に示す画像は、画像処理の結果、生成される表示画像の例である。これを、運転席表示部に表示する。なお、この表示画像の中心の車両は仮想的なデータであり、カメラの撮影画像から取得されるものではない。
車の周囲の画像が、4つのカメラによって撮影された画像に基づく画像処理によって生成された画像であり、この中心に自車両の画像を貼り合わせることで、あたかも上空から車両を観察したと同様の画像が生成される。
車の周囲の画像が、4つのカメラによって撮影された画像に基づく画像処理によって生成された画像であり、この中心に自車両の画像を貼り合わせることで、あたかも上空から車両を観察したと同様の画像が生成される。
この車上部からの仮想的な観察画像は「サラウンドビュー画像」、または「俯瞰画像」、あるいは「鳥瞰画像」等と呼ばれる。
ドライバ(運転者)は、この画像を運転席のモニタ(表示部)を介して確認することが可能であり、車両の周囲の障害物等を確認しながら、安全な走行、例えばバック、あるいは駐車等の運転操作を行うことができる。
ドライバ(運転者)は、この画像を運転席のモニタ(表示部)を介して確認することが可能であり、車両の周囲の障害物等を確認しながら、安全な走行、例えばバック、あるいは駐車等の運転操作を行うことができる。
また、ドライバ(運転者)に運転操作を行わせることなく、カメラ撮影画像を用いて車両周辺状況を自動解析して自動運転による駐車を行う自動駐車アプリケーションも利用されている。
自動駐車アプリケーションは、例えば、上述した「サラウンドビュー画像」を解析して駐車枠や障害物(車両・歩行者・縁石・車止めなど)のオブジェクトの位置を判別する。さらに、判別した各オブジェクト位置をメモリ上のマップ=「2次元マップ」に配置し、車両が障害物に接触せずに正確に駐車枠内に駐車できるように車両を制御して自動走行を行い、所定の駐車位置に車両を駐車させる。
自動駐車アプリケーションは、例えば、上述した「サラウンドビュー画像」を解析して駐車枠や障害物(車両・歩行者・縁石・車止めなど)のオブジェクトの位置を判別する。さらに、判別した各オブジェクト位置をメモリ上のマップ=「2次元マップ」に配置し、車両が障害物に接触せずに正確に駐車枠内に駐車できるように車両を制御して自動走行を行い、所定の駐車位置に車両を駐車させる。
しかし、例えば、車両搭載カメラが高温状態、あるいは低温状態になるとカメラのレンズに歪みが発生する。この結果いわゆるレンズ像高特性が変化し、画像中のオブジェクト撮影位置にずれが発生する。
このようなオブジェクト位置にずれが発生した画像を見ながら運転者が運転すると、障害物に接触する可能性がある。
また、自動駐車アプリケーションも、オブジェクト位置を誤って検出し、自動運転の実行時に障害物に接触する可能性がある。
また、自動駐車アプリケーションも、オブジェクト位置を誤って検出し、自動運転の実行時に障害物に接触する可能性がある。
[2.カメラ撮影画像の変換処理、および温度変化によるレンズ歪みとオブジェクト位置検出精度の低下について]
次に、カメラ撮影画像の変換処理、および温度変化によるレンズ歪みとオブジェクト位置検出精度の低下について説明する。
次に、カメラ撮影画像の変換処理、および温度変化によるレンズ歪みとオブジェクト位置検出精度の低下について説明する。
まず、図2以下を参照してカメラ撮影画像の変換処理の概要について説明する。
図1を参照して説明したように、車両10には例えば前後左右の4方向を撮影するカメラが装着されており、これら4台のカメラ画像を合成して車両上部から観察した画像、すなわち、「サラウンドビュー画像」を生成することができる。
図1を参照して説明したように、車両10には例えば前後左右の4方向を撮影するカメラが装着されており、これら4台のカメラ画像を合成して車両上部から観察した画像、すなわち、「サラウンドビュー画像」を生成することができる。
各カメラは魚眼レンズ等の広角レンズを持つカメラであり、より広い広角エリアを撮影できる。例えば、図1に示す点線領域が各カメラの撮影領域であり、これらの4つのカメラの撮影画像を画像処理することで、車両上部から観察した画像を生成することができる。
以下では、まず、各カメラの撮影画像とその変換処理について説明する。基本的には、各カメラの撮影画像と変換処理は同様の方法で実行される。以下では、代表例として、車両10の後部に備えられた後方カメラ12の撮影画像と変換処理例について説明する。
後方カメラ12は、例えば魚眼レンズ等の広角レンズを備えた広角レンズカメラであり、車両後方の広い領域の画像を撮影することができる。
後方カメラ12は、例えば魚眼レンズ等の広角レンズを備えた広角レンズカメラであり、車両後方の広い領域の画像を撮影することができる。
図2に示す例では、後方カメラ12は、車両10の後方の路面上のオブジェクトを撮影する。ここではオブジェクトとして垂直ポール30を示している。この撮影画像が車両10内の画像処理装置に入力され、画像処理装置において画像補正処理が実行され、車両上部から肉眼で見たと同様の画像(サラウンドビュー画像)が生成され、例えば運転席のモニタに表示される。
なお、車両10が利用するデータとしては、サラウンドビュー画像や、2次元マップ、自動運転制御用データ(高精細マップ等)の車両の周辺空間データがある。
サラウンドビュー画像とは、複数の撮像装置からの複数の画像を合成したものであり、車両の周辺を表した画像である。鳥瞰画像はサラウンドビュー画像に含まれる。2次元マップは、車両周辺のオブジェクトの位置情報を含むデータである。2次元マップは、オブジェクトのサイズ情報や、車両からオブジェクトまでの距離情報を含んでもよい。高精細マップは、車両周辺の3次元空間を表すマップである。自動運転制御用データは、自動運転制御に用いられるデータで、高精細マップを含んでもよい。
ここでは、車両の運転者に提示される表示用データとして、サラウンドビュー画像や2次元マップが用いられるとする。表示用データとして、高精細マップ等の自動運転制御用のデータを用いてもよい。また、走行制御用データは、車両の走行を制御するためのデータである。走行制御用データとして、高精細マップ等の自動運転制御用のデータや2次元マップが用いられる。
以下の説明中の「サラウンドビュー画像」や、「2次元マップ」の記載は利用する画像の一例であり、「サラウンドビュー画像」の代わりに、「2次元マップ」を用いてもよいし、「2次元マップ」の代わりに「サラウンドビュー画像」を用いてもよい。
また「サラウンドビュー画像」と「2次元マップ」の合成画像を用いてもよい。
以下の説明中の記載「2次元マップ(/サラウンドビュー画像)」は、いずれの画像を用いてもよいことを意味する。また、2次元マップには2次元画像も含む。
また、「自動運転制御用データ(高精細マップ等)」は、「サラウンドビュー画像」や、「2次元マップ」をベースに高精細化して生成する画像を用いてもよい。
サラウンドビュー画像とは、複数の撮像装置からの複数の画像を合成したものであり、車両の周辺を表した画像である。鳥瞰画像はサラウンドビュー画像に含まれる。2次元マップは、車両周辺のオブジェクトの位置情報を含むデータである。2次元マップは、オブジェクトのサイズ情報や、車両からオブジェクトまでの距離情報を含んでもよい。高精細マップは、車両周辺の3次元空間を表すマップである。自動運転制御用データは、自動運転制御に用いられるデータで、高精細マップを含んでもよい。
ここでは、車両の運転者に提示される表示用データとして、サラウンドビュー画像や2次元マップが用いられるとする。表示用データとして、高精細マップ等の自動運転制御用のデータを用いてもよい。また、走行制御用データは、車両の走行を制御するためのデータである。走行制御用データとして、高精細マップ等の自動運転制御用のデータや2次元マップが用いられる。
以下の説明中の「サラウンドビュー画像」や、「2次元マップ」の記載は利用する画像の一例であり、「サラウンドビュー画像」の代わりに、「2次元マップ」を用いてもよいし、「2次元マップ」の代わりに「サラウンドビュー画像」を用いてもよい。
また「サラウンドビュー画像」と「2次元マップ」の合成画像を用いてもよい。
以下の説明中の記載「2次元マップ(/サラウンドビュー画像)」は、いずれの画像を用いてもよいことを意味する。また、2次元マップには2次元画像も含む。
また、「自動運転制御用データ(高精細マップ等)」は、「サラウンドビュー画像」や、「2次元マップ」をベースに高精細化して生成する画像を用いてもよい。
なお、前述したように、後方カメラ12は、例えば魚眼レンズ等の広角レンズを備えた広角レンズカメラであり、車両後方の広い領域の画像を撮影することができる。
ただし、広角レンズを用いて撮影される画像には歪みが発生する。
ただし、広角レンズを用いて撮影される画像には歪みが発生する。
具体的な歪みの例について図3以下を参照して説明する。
図3に示すように、格子状の線が描かれた路面上の車両10後方に多数の垂直ポール30が林立した状態を後方カメラ12が撮影するものとする。垂直ポール30は、図2に示す垂直ポール30と同様のポールであり、路面20に対して垂直に立てられたポールである。
これら多数の垂直ポール30が林立した車両10後方の画像を、広角レンズを備えた後方カメラ12が撮影する。
図3に示すように、格子状の線が描かれた路面上の車両10後方に多数の垂直ポール30が林立した状態を後方カメラ12が撮影するものとする。垂直ポール30は、図2に示す垂直ポール30と同様のポールであり、路面20に対して垂直に立てられたポールである。
これら多数の垂直ポール30が林立した車両10後方の画像を、広角レンズを備えた後方カメラ12が撮影する。
図4(1)が、撮影画像である。図4(1)に示すように、撮影画像上の路面の格子パターンは湾曲した歪みを有する。また、垂直ポール30は、画像の周辺に近づくほど傾いて見える。
これは、広角レンズを用いた撮影によって発生する画像の歪みである。
これは、広角レンズを用いた撮影によって発生する画像の歪みである。
図4(2)は、図4(1)の画像に対する歪み補正と、視点変換を行って生成した補正画像としての俯瞰画像である。
画像処理装置は、上部から肉眼で観察したと同様の画像(俯瞰画像)を補正画像として生成する。
車両の前後左右に備えられた4台のカメラで撮影された画像の俯瞰画像を生成して合成することで、先に図1を参照して説明したサラウンドビュー画像を生成することができる。
画像処理装置は、上部から肉眼で観察したと同様の画像(俯瞰画像)を補正画像として生成する。
車両の前後左右に備えられた4台のカメラで撮影された画像の俯瞰画像を生成して合成することで、先に図1を参照して説明したサラウンドビュー画像を生成することができる。
しかし、カメラのレンズは、高温状態、あるいは低温状態になると歪みが発生する。この結果、いわゆるレンズ像高特性が変化し、画像中のオブジェクト撮影位置にずれが発生する。
この現象について、図5以下を参照して説明する。
図5(1)は、図4(1)を参照して説明したと同様、広角レンズを備えた後方カメラ12が撮影した撮影画像である。
この撮影画像上に後方カメラ12のレンズ、すなわちカメラレンズ50を重ねて示している。
図5(1)は、図4(1)を参照して説明したと同様、広角レンズを備えた後方カメラ12が撮影した撮影画像である。
この撮影画像上に後方カメラ12のレンズ、すなわちカメラレンズ50を重ねて示している。
カメラのレンズは、例えばガラス、プラスチック等の材料が用いられる。ガラスレンズを利用した場合は温度変化による膨張、収縮率が小さいため、レンズ歪みの発生は無視できるレベルであるが、プラスチックレンズの場合、温度変化に伴う膨張、収縮率が大きく、大きなレンズ歪みが発生する。
このレンズ歪みによる被写体撮影位置の位置ずれを示す指標として像高(Image height)ずれがある。
このレンズ歪みによる被写体撮影位置の位置ずれを示す指標として像高(Image height)ずれがある。
像高(Image height)とは、光学系の評価面上で像位置を光軸からの距離で表した値である。
レンズ歪みの発生に伴い、像高にもずれが発生し、結果としてカメラによって撮影されるオブジェクトの位置がずれることになる。このずれた画像に基づいてオブジェクト距離や位置を算出してオブジェクトを配置した2次元マップやサラウンドビュー画像を生成すると、実際とは異なる位置にオブジェクトが配置された2次元マップやサラウンドビュー画像が生成されてしまう。
レンズ歪みの発生に伴い、像高にもずれが発生し、結果としてカメラによって撮影されるオブジェクトの位置がずれることになる。このずれた画像に基づいてオブジェクト距離や位置を算出してオブジェクトを配置した2次元マップやサラウンドビュー画像を生成すると、実際とは異なる位置にオブジェクトが配置された2次元マップやサラウンドビュー画像が生成されてしまう。
像高ずれは、レンズ歪みの大きさに伴って発生するが、温度変化に伴って発生するレンズ歪みは、レンズ内周領域では比較的小さく、外周領域において大きくなる傾向がある。
図5(1)に示すように、レンズの中心領域に近い内周領域51は、温度変化によるレンズ歪みが小さい領域である。
一方、図5(1)に示すように、レンズの外周領域52は、温度変化によるレンズ歪みが大きい領域である。
この内周領域51と外周領域52を区分するラインを領域区分ライン61として示している。
図5(1)に示すように、レンズの中心領域に近い内周領域51は、温度変化によるレンズ歪みが小さい領域である。
一方、図5(1)に示すように、レンズの外周領域52は、温度変化によるレンズ歪みが大きい領域である。
この内周領域51と外周領域52を区分するラインを領域区分ライン61として示している。
図5(2)は、図5(1)に示すカメラ撮影画像を補正して生成した俯瞰画像である。この俯瞰画像において、領域区分ライン61は、図5(1)に示す内周領域51と外周領域52を区分する領域区分ライン61に対応するラインである。
領域区分ライン61の内側の領域が図5(1)に示す内周領域51、すなわちレンズ中心部を介して撮影された画像領域に対応する。この領域にあるオブジェクトは、撮影画像位置の位置ずれが少なく、高精度の位置解析が可能となる。
一方、領域区分ライン61の外側の領域が図5(1)に示す外周領域52、すなわちレンズ外周領域を介して撮影された画像領域に対応する。この領域にあるオブジェクトは、撮影画像位置の位置ずれが大きくなり、高精度の位置解析が困難となる。
すなわち、この外周領域の撮影オブジェクトは、画像を用いた位置解析結果の信頼度が低いオブジェクトとなる。
すなわち、この外周領域の撮影オブジェクトは、画像を用いた位置解析結果の信頼度が低いオブジェクトとなる。
温度変化に伴うレンズ歪みの発生と像高のずれ量には相関がある。
図6を参照して、温度変化に伴うレンズ歪みの発生と像高のずれ量との相関について説明する。
前述したように、像高(Image height)とは、光学系の評価面上で像位置を光軸からの距離で表した値である。例えば、図6に示すような値が設定される。
例えば、レンズ中心を像高=0(deg)として、最外周部を像高=200(deg)とする。
図6を参照して、温度変化に伴うレンズ歪みの発生と像高のずれ量との相関について説明する。
前述したように、像高(Image height)とは、光学系の評価面上で像位置を光軸からの距離で表した値である。例えば、図6に示すような値が設定される。
例えば、レンズ中心を像高=0(deg)として、最外周部を像高=200(deg)とする。
図7は、温度変化に伴う像高のずれ量の発生状態を示すグラフである。
図7に示すグラフは、横軸に図6に示す像高(deg)、縦軸に像高のずれ量(deg)を設定したグラフであり、カメラ(レンズ)の温度変化による像高ずれの変化を示している。
図7に示すグラフは、横軸に図6に示す像高(deg)、縦軸に像高のずれ量(deg)を設定したグラフであり、カメラ(レンズ)の温度変化による像高ずれの変化を示している。
例えば、温度が常温、すなわち、温度=25度の場合、レンズ内周~外周、いずれの位置においてもレンズ歪みが少なく、像高のずれ量≒0であり、この温度での撮影画像のオブジェクトは撮影画像位置のずれがなく、高精度なオブジェクト位置の解析が可能となる。具体的には、撮影画像に基づいて生成した俯瞰画像内のオブシォクトは正しい位置に表示される。
しかし、例えば温度=50度の場合、レンズ内周部では、像高ずれ量≒0であるが、レンズ外周部では、レンズ歪みが大きくなり、像高ずれ量が大きくなる。例えば、像高=200の位置、すなわちレンズのほぼ外周位置では像高のずれ量≒1(deg)となる。
また、例えば温度=70度の場合、レンズ内周部では、像高ずれ量≒0であるが、レンズ外周部では、レンズ歪みがさらに大きくなり、像高ずれ量も大きくなる。例えば、像高=200の位置、すなわちレンズのほぼ外周位置では像高のずれ量≒1.7(deg)となる。
また、例えば温度=70度の場合、レンズ内周部では、像高ずれ量≒0であるが、レンズ外周部では、レンズ歪みがさらに大きくなり、像高ずれ量も大きくなる。例えば、像高=200の位置、すなわちレンズのほぼ外周位置では像高のずれ量≒1.7(deg)となる。
このように像高ずれが大きいと、撮影画像に基づいて生成した俯瞰画像内のオブシォクトは正しい位置からずれた位置に表示される。
レンズ歪みは、低温でも発生する。例えば温度=0度の場合、レンズ内周部では、像高ずれ量≒0であるが、レンズ外周部では、レンズ歪みが大きくなり、像高ずれ量が大きくなる。例えば、像高=200の位置、すなわちレンズのほぼ外周位置では像高のずれ量≒-0.5(deg)となる。
また、例えば温度=7-20度の場合、レンズ内周部では、像高ずれ量≒0であるが、レンズ外周部では、レンズ歪みがさらに大きくなり、像高ずれ量も大きくなる。例えば、像高=200の位置、すなわちレンズのほぼ外周位置では像高のずれ量≒-1.1(deg)となる。
また、例えば温度=7-20度の場合、レンズ内周部では、像高ずれ量≒0であるが、レンズ外周部では、レンズ歪みがさらに大きくなり、像高ずれ量も大きくなる。例えば、像高=200の位置、すなわちレンズのほぼ外周位置では像高のずれ量≒-1.1(deg)となる。
なお、温度変化に伴うレンズ歪み特性や像高特性は、カメラ構成やレンズによって異なるものである。
本開示の画像処理装置は、例えば、車両に搭載したカメラについて、予め測定済みの特性情報(温度変化に伴うレンズ歪み特性や像高特性)を記憶部に格納し、記憶部に格納した特性情報を用いて、以下に説明する理を実行する。
本開示の画像処理装置は、例えば、車両に搭載したカメラについて、予め測定済みの特性情報(温度変化に伴うレンズ歪み特性や像高特性)を記憶部に格納し、記憶部に格納した特性情報を用いて、以下に説明する理を実行する。
[3.本開示の画像処理装置が実行する処理のシーケンスについて]
次に、本開示の画像処理装置が実行する処理のシーケンスについて説明する。
図8は、本開示の画像処理装置が実行する処理のシーケンスについて説明するフローチャートを示す図である。
なお、図8に示すフローチャートに従った処理は、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を有するCPU等を備えたデータ処理部の制御の下で実行可能である。
以下、図8に示すフローの各ステップの処理について、順次、説明する。
次に、本開示の画像処理装置が実行する処理のシーケンスについて説明する。
図8は、本開示の画像処理装置が実行する処理のシーケンスについて説明するフローチャートを示す図である。
なお、図8に示すフローチャートに従った処理は、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を有するCPU等を備えたデータ処理部の制御の下で実行可能である。
以下、図8に示すフローの各ステップの処理について、順次、説明する。
(ステップS101)
まず、ステップS101において、撮像部(カメラ)が画像を撮影する。例えば図1に示す車両10に搭載されたカメラ11~14が画像を撮影する。
まず、ステップS101において、撮像部(カメラ)が画像を撮影する。例えば図1に示す車両10に搭載されたカメラ11~14が画像を撮影する。
なお、撮像部(カメラ)は、魚眼レンズ等の広角レンズを備えたカメラであり、例えば図4(1)や図5(1)に示す撮影画像を撮影する。
(ステップS102)
次に、ステップS102において、ステップS101で撮像部(カメラ)が撮影した画像からのオブジェクト検出処理を実行し、オブジェクトを検出する。また、併せて画像中のオブジェクトの位置、オブジェクトの大きさが検出される。オブジェクト検出処理により、検出された未処理オブジェクト、すなわち、このフローに従った処理が実行されていない未処理オブジェクトIDが設定される。
各オブジェクトには個別のIDが設定され、記憶部に記録される。
次に、ステップS102において、ステップS101で撮像部(カメラ)が撮影した画像からのオブジェクト検出処理を実行し、オブジェクトを検出する。また、併せて画像中のオブジェクトの位置、オブジェクトの大きさが検出される。オブジェクト検出処理により、検出された未処理オブジェクト、すなわち、このフローに従った処理が実行されていない未処理オブジェクトIDが設定される。
各オブジェクトには個別のIDが設定され、記憶部に記録される。
(ステップS103)
次に、ステップS103において、各オブジェクトの距離、像高を算出する。この処理は、既存の手法で実行される。
なお、これらの値の算出は、撮影画像に基づいて実行されるので、像高ずれの大きな領域では高精度の算出処理が実行できないことになる。
次に、ステップS103において、各オブジェクトの距離、像高を算出する。この処理は、既存の手法で実行される。
なお、これらの値の算出は、撮影画像に基づいて実行されるので、像高ずれの大きな領域では高精度の算出処理が実行できないことになる。
(ステップS104)
次に、ステップS104において、画像を撮影したカメラ各々に備えられた温度センサから、各カメラの温度情報を取得する。
次に、ステップS104において、画像を撮影したカメラ各々に備えられた温度センサから、各カメラの温度情報を取得する。
(ステップS105)
次に、ステップS105において、温度センサから取得したカメラの温度が、予め規定したしきい値温度範囲内にあるか否かを判定する。
しきい値温度範囲は、予め設定したしきい値温度範囲である。
次に、ステップS105において、温度センサから取得したカメラの温度が、予め規定したしきい値温度範囲内にあるか否かを判定する。
しきい値温度範囲は、予め設定したしきい値温度範囲である。
例えばしきい値温度範囲=10℃~30°とする。このしきい値温度範囲は、レンズ歪みが少なく像高ずれ量も小さい温度範囲に設定される。
先に図7に示すグラフを参照して説明したように、25度近辺では、レンズ歪みが少なく像高ずれ量も小さく、この近辺の温度範囲をしきい値温度範囲とする。
なお、このしきい値温度範囲は、利用するカメラやレンズの特性に応じて最適範囲を設定して利用することが好ましい。
なお、このしきい値温度範囲は、利用するカメラやレンズの特性に応じて最適範囲を設定して利用することが好ましい。
ステップS105の判定がYes、すなわち、温度センサから取得したカメラの温度が予め規定したしきい値温度範囲内にあると判定した場合は、ステップS110に進む。
この場合は、カメラやレンズが常温状態にある場合であり、レンズ歪みが小さく、レンズ外周でも大きな像高ずれが発生していないと判定される場合である。
この場合は、カメラやレンズが常温状態にある場合であり、レンズ歪みが小さく、レンズ外周でも大きな像高ずれが発生していないと判定される場合である。
一方、ステップS105の判定がNo、すなわち、温度センサから取得したカメラの温度が予め規定したしきい値温度範囲内(所定の第1の閾値と所定の第2の閾値の間)にないと判定した場合は、ステップS106に進む。
この場合は、カメラやレンズが所定の第1の閾値よりも高温である高温状態、あるいは所定の第2の閾値よりも低温である低温状態にある場合であり、レンズ歪みが大きく、レンズ外周で大きな像高ずれが発生している可能性がある場合である。第1の閾値は第2の閾値より大きい。ただ、第1の閾値と第2の閾値を同じ値にしてもよい。
この場合は、カメラやレンズが所定の第1の閾値よりも高温である高温状態、あるいは所定の第2の閾値よりも低温である低温状態にある場合であり、レンズ歪みが大きく、レンズ外周で大きな像高ずれが発生している可能性がある場合である。第1の閾値は第2の閾値より大きい。ただ、第1の閾値と第2の閾値を同じ値にしてもよい。
(ステップS106)
ステップS105で、判定がNo、すなわち、温度センサから取得したカメラの温度が予め規定したしきい値温度範囲内にないと判定した場合は、ステップS106に進む。
ステップS105で、判定がNo、すなわち、温度センサから取得したカメラの温度が予め規定したしきい値温度範囲内にないと判定した場合は、ステップS106に進む。
前述したように、この場合は、カメラやレンズが高温状態、あるいは低温状態にある場合であり、レンズ歪みが大きく、レンズ外周で大きな像高ずれが発生している可能性がある場合である。
この場合は、ステップS106において、画像内のオブジェクト(未処理オブジェクト)を順次、選択して、オブジェクト像高と、予め規定された像高しきい値との比較処理を実行する。
なお、ステップS106~S110の処理は、画像内のオブジェクト(未処理オブジェクト)について、順次、繰り返し、あるいは並列に実行する。
なお、ステップS106~S110の処理は、画像内のオブジェクト(未処理オブジェクト)について、順次、繰り返し、あるいは並列に実行する。
像高しきい値は、例えば、図5や図6に示す領域区分ライン61に対応する像高として設定すればよい。
すなわち、図5に示す温度変化に伴うレンズ歪みや像高ずれが小さい内周領域51と、温度変化に伴うレンズ歪みや像高ずれが大きい外周領域52との境界である領域区分ライン61に対応する像高を像高しきい値とする。
例えば、図6に示す例では、
像高しきい値≒90(deg)
である。
すなわち、図5に示す温度変化に伴うレンズ歪みや像高ずれが小さい内周領域51と、温度変化に伴うレンズ歪みや像高ずれが大きい外周領域52との境界である領域区分ライン61に対応する像高を像高しきい値とする。
例えば、図6に示す例では、
像高しきい値≒90(deg)
である。
なお、この像高しきい値、すなわち、内周領域51と外周領域52との境界である領域区分ライン61に対応する像高は、カメラやレンズによって異なるものである。画像処理装置は、車両に備えられたカメラやレンズに対応する像高しきい値をあらかじめ取得し記憶部に格納しておく。画像処理装置は、この格納データを用いて、ステップS106の処理を実行する。
(ステップS107)
次に、画像処理装置は、ステップS107において、画像から選択したオブジェクトの像高が規定の像高しきい値以上であるか否かを判定する。
選択オブジェクトの像高が規定の像高しきい値以上である場合は、ステップS108に進む。
これは、選択オブジェクトが領域区分ライン61の外側のオブジェクトである場合の処理である。
次に、画像処理装置は、ステップS107において、画像から選択したオブジェクトの像高が規定の像高しきい値以上であるか否かを判定する。
選択オブジェクトの像高が規定の像高しきい値以上である場合は、ステップS108に進む。
これは、選択オブジェクトが領域区分ライン61の外側のオブジェクトである場合の処理である。
一方、オブジェクトの像高が規定の像高しきい値以上でない場合は、ステップS110に進む。
これは、選択オブジェクトが領域区分ライン61の内側のオブジェクトである場合の処理である。
これは、選択オブジェクトが領域区分ライン61の内側のオブジェクトである場合の処理である。
(ステップS108)
ステップS107において、選択オブジェクトの像高が規定の像高しきい値以上であると判定した場合、すなわち、選択オブジェクトが領域区分ライン61の外側のオブジェクトである場合は、ステップS108に進む。
ステップS107において、選択オブジェクトの像高が規定の像高しきい値以上であると判定した場合、すなわち、選択オブジェクトが領域区分ライン61の外側のオブジェクトである場合は、ステップS108に進む。
この場合、画像処理装置は、ステップS108において、選択オブジェクトの属性情報としての位置信頼度を低信頼度に設定する。
この位置信頼度が低信頼度とする属性情報は、記憶部にオブジォクトIDに対応付けて記録される。
この位置信頼度が低信頼度とする属性情報は、記憶部にオブジォクトIDに対応付けて記録される。
(ステップS109)
次に、画像処理装置はステップS109において、
位置信頼度が低信頼度とされたオブジェクトの大きさを拡大する処理、またはオブジェクトの周囲に信頼度に応じた幅/大きさの領域を注意領域として設定する処理を実行する。
次に、画像処理装置はステップS109において、
位置信頼度が低信頼度とされたオブジェクトの大きさを拡大する処理、またはオブジェクトの周囲に信頼度に応じた幅/大きさの領域を注意領域として設定する処理を実行する。
これは、具体的には、図9(2)に示す拡大表示オブジェクト71や、図10(3)に示す注意領域表示オブジェクト73の表示データの生成処理である。
この表示データについては後段で詳細に説明する。
この表示データについては後段で詳細に説明する。
(ステップS110)
一方、ステップS107において、選択オブジェクトの像高が規定の像高しきい値以上でないと判定した場合、すなわち、選択オブジェクトが領域区分ライン61の内側のオブジェクトである場合は、ステップS110に進む。
一方、ステップS107において、選択オブジェクトの像高が規定の像高しきい値以上でないと判定した場合、すなわち、選択オブジェクトが領域区分ライン61の内側のオブジェクトである場合は、ステップS110に進む。
また、ステップS105における判定がYes、すなわち、温度センサから取得したカメラの温度が予め規定したしきい値温度範囲内にあると判定した場合も、ステップS110に進む。この場合は、カメラやレンズが常温状態にある場合であり、レンズ歪みが小さく、レンズ外周でも大きな像高ずれが発生していないと判定される場合である。
これらの場合は、画像処理装置は、ステップS110において、選択オブジェクトの属性情報としての位置信頼度を高信頼度に設定する。
この位置信頼度が高信頼度とする属性情報は、記憶部にオブジォクトIDに対応付けて記録される。
ステップS108とステップS110の処理によって、すべてのオブジェクトに位置信頼度情報が設定される。
この位置信頼度が高信頼度とする属性情報は、記憶部にオブジォクトIDに対応付けて記録される。
ステップS108とステップS110の処理によって、すべてのオブジェクトに位置信頼度情報が設定される。
(ステップS111)
最後に、画像処理装置は、ステップS111において、各オブジェクトを配置した2次元マップ(/サラウンドビュー画像)を生成して表示する。
例えば、運転席のモニタに表示する。
なお、ステップS111の処理の後は、ステップS101に戻り、処理を繰り返す。
最後に、画像処理装置は、ステップS111において、各オブジェクトを配置した2次元マップ(/サラウンドビュー画像)を生成して表示する。
例えば、運転席のモニタに表示する。
なお、ステップS111の処理の後は、ステップS101に戻り、処理を繰り返す。
ステップS111において生成する表示画像の例について図9を参照して説明する。
図9には、以下の2つの画像表示例を示している。
(1)従来の2次元マップ(/サラウンドビュー画像)
(2)本開示の2次元マップ(/サラウンドビュー画像)
図9には、以下の2つの画像表示例を示している。
(1)従来の2次元マップ(/サラウンドビュー画像)
(2)本開示の2次元マップ(/サラウンドビュー画像)
(1)従来の2次元マップ(/サラウンドビュー画像)は、車両後方のポールがすべて実際の大きさを反映した画像として表示される。
なお、画像内に示す領域区分ライン61は、表示データではなく、参考のために示したラインである。
なお、画像内に示す領域区分ライン61は、表示データではなく、参考のために示したラインである。
領域区分ライン61は、先に図5を参照して説明した領域区分ライン61に相当する。すなわち、領域区分ライン61は、図5を参照して説明した内周領域51と外周領域52を区分する領域区分ライン61に相当するラインである。
領域区分ライン61の内側はレンズ中心部を介して撮影された画像領域に対応する。この領域にあるオブジェクトは、撮影画像位置の位置ずれが少なく、高精度の位置解析が可能となる。
一方、領域区分ライン61の外側は、レンズ外周領域を介して撮影された画像領域に対応する。この領域にあるオブジェクトは、撮影画像位置の位置ずれが大きくなり、高精度の位置解析が困難となる。
一方、領域区分ライン61の外側は、レンズ外周領域を介して撮影された画像領域に対応する。この領域にあるオブジェクトは、撮影画像位置の位置ずれが大きくなり、高精度の位置解析が困難となる。
すなわち、この外周領域のオブジェクトは、この図9(1)に示す俯瞰画像の表示位置に確実に存在するとは言えない信頼度が低いオブジェクトとなる。
このような位置信頼度の低いオブジェクトをこのまま表示し、運転者がこの表示画像を見ながら車両を運転する場合、運転者は、表示画像を踏まえてオブジェクト(ポール)に接触しないようにオブジェクト(ポール)に対して十分な間隔をあけて運転したつもりであっても、実際に、はオブジェクト(ポール)に接触したりオブジェクト(ポール)に接触しそうになるほど近くを通過したりという結果になる危険性がある。
このような位置信頼度の低いオブジェクトをこのまま表示し、運転者がこの表示画像を見ながら車両を運転する場合、運転者は、表示画像を踏まえてオブジェクト(ポール)に接触しないようにオブジェクト(ポール)に対して十分な間隔をあけて運転したつもりであっても、実際に、はオブジェクト(ポール)に接触したりオブジェクト(ポール)に接触しそうになるほど近くを通過したりという結果になる危険性がある。
このような危険を回避するための表示画像が、図9(2)に示す、
(2)本開示の2次元マップ(/サラウンドビュー画像)
である。
この画像は、図8に示すフローに従って生成される画像である。
(2)本開示の2次元マップ(/サラウンドビュー画像)
である。
この画像は、図8に示すフローに従って生成される画像である。
図9(2)に示す画像において、領域区分ライン61の内側領域、すなわち、レンズ中心部を介して撮影された画像領域に対応する内側領域のオブジェクト(ポール)は、(1)に示す従来画像と同様の表示処理がなされた通常表示オブジェクト72である。通常表示オブジェクト72は、実際のオブジェクトの大きさを反映した画像として表示される。
これらの通常表示オブジェクト72は、図8に示すフローのステップS110の処理が実行されたオブジェクトである。
すなわち、ステップS110において、オブジェクトの位置信頼度が高信頼度に設定されたオブジェクトである。
すなわち、ステップS110において、オブジェクトの位置信頼度が高信頼度に設定されたオブジェクトである。
ステップS110の処理、すなわち位置信頼度が高信頼度の設定がなされるオブジェクトは、ステップS107において、選択オブジェクトの像高が規定の像高しきい値以上でないと判定されたオブジェクトである。すなわち領域区分ライン61の内側のオブジエクトであり、これらのオブジェクトは、俯瞰画像に含まれるオブジェクトがそのまま表示される。
一方、図9(2)に示す画像において、領域区分ライン61の外側領域、すなわち、レンズ外周部を介して撮影された画像領域に対応する外側領域のオブジェクト(ポール)は、俯瞰画像に含まれるオブジェクトの実物大ではなく、撮影画像から得られるオブジェクトの大きさを拡大した拡大表示オブジェクト71として表示する。
これらのオブジェクトは、図8に示すフローのステップS108~S109の処理が実行されたオブジェクトである。
すなわち、ステップS108において、オブジェクトの位置信頼度が低信頼度に設定され、ステップS109において、オブジェクトの大きさを拡大する処理が実行されたオブジェクトである。
すなわち、ステップS108において、オブジェクトの位置信頼度が低信頼度に設定され、ステップS109において、オブジェクトの大きさを拡大する処理が実行されたオブジェクトである。
ステップS108~S109の処理、すなわち位置信頼度が低信頼度の設定がなされ、拡大処理が実行されるオブジェクトは、ステップS107において、選択オブジェクトの像高が規定の像高しきい値以上であると判定されたオブジェクト、すなわち領域区分ライン61の外側のオブジエクトである。これらのオブジェクトについては、撮影画像から取得されるオブジェクト大きさをそのままではなく、オブジェクトを拡大して表示する。
このように、位置信頼度が低いオブジェクトについては、拡大表示した画像を運転席のモニタに表示する。運転者は、拡大表示されたオブジェクト(ポール)に接触しないように車両を移動させる。結果として、実際のオブジェクト位置が俯瞰画像内の拡大されていないオブジェクト(ポール)の位置からずれていた場合でも、車両を実際のオブジェクト(ポール)に接触させることなく車両を安全に移動させることができる。
なお、図8に示すフローにおいて、ステップS105の判定がYes、すなわち、カメラ温度が温度しきい値範囲内である場合は、外周領域のオブジェクトについての拡大表示はなされず、図9(1)に示す従来画像と同様の画像が表示されることになる。
この場合は外周領域のオブジェクトも像高ずれの発生が少なく、正しい位置にオブジェクトを表示することが可能であるからである。
この場合は外周領域のオブジェクトも像高ずれの発生が少なく、正しい位置にオブジェクトを表示することが可能であるからである。
なお、低信頼度のオブジェクトの表示態様としては、図9(2)に示す拡大表示に限らない。例えば、図10に示すように、オブジェクトの周囲に注意領域を重ねて表示するといった様々な表示が可能である。
また、拡大表示等の対象となるオブジェクトは、位置信頼度が低信頼度と判定されたオブジェクトであるが、図9や図10に示す領域区分ライン61は、車両の進行に従って移動することになる。
従って、過去の撮影画像において領域区分ライン61の内側領域で検出されたオブジェクト(位置信頼度が高信頼度)は、その後の車両の進行に伴い領域区分ライン61の外側になったとしても、位置信頼度が高信頼度の設定を維持することが可能であり、このようなオブジェクトについては拡大表示や注意表示等を行う必要がない。
従って、過去の撮影画像において領域区分ライン61の内側領域で検出されたオブジェクト(位置信頼度が高信頼度)は、その後の車両の進行に伴い領域区分ライン61の外側になったとしても、位置信頼度が高信頼度の設定を維持することが可能であり、このようなオブジェクトについては拡大表示や注意表示等を行う必要がない。
図11を参照して具体例について説明する。
図11は、車両が緩やかに右方向にカーブして前進移動する状態を示している。時間t1~t2にかけて大きく右カーブしている。
図11は、車両が緩やかに右方向にカーブして前進移動する状態を示している。時間t1~t2にかけて大きく右カーブしている。
図11に示す通常表示オブジェクト81は、時間t2において領域区分ライン61(t2)の外側の外周領域にあるが、この通常表示オブジェクト81は、時間t1における車両のほぼ正面方向に存在する。
従って、通常表示オブジェクト81は、時間t1における車両の前方カメラの撮影画像の領域区分ライン61(t1)の内側領域に存在していたことになり、この時点で、すでに図8に示すフローのステップS110の処理が実行され、位置信頼度が高信頼度として判定済みのオブジェクトとして記憶部に登録されたオブジェクトとなる。
従って、通常表示オブジェクト81は、時間t1における車両の前方カメラの撮影画像の領域区分ライン61(t1)の内側領域に存在していたことになり、この時点で、すでに図8に示すフローのステップS110の処理が実行され、位置信頼度が高信頼度として判定済みのオブジェクトとして記憶部に登録されたオブジェクトとなる。
このようなオブジェクト、すなわち位置信頼度が高信頼度として判定済みのオブジェクトは、その後の車両の進行により、領域区分ライン61の外側の外周領域に位置することになっても位置解析済みのオブジェクトとして、拡大表示の対象とはしない。すなわち、ステップS108~S109の処理は実行されない。
[4.2次元マップを自動運転に利用する処理例について]
次に、2次元マップを自動運転に利用する処理例について説明する。
次に、2次元マップを自動運転に利用する処理例について説明する。
先に説明した図8に示すフローでは、最終のステップS111において、各オブジェクトを配置した2次元マップ(/サラウンドビュー画像)を生成して表示する処理を行っていた。
すなわち、例えば、2次元マップ(/サラウンドビュー画像)を運転席のモニタに表示し、運転者が2次元マップ(/サラウンドビュー画像)を見てオブジェクトに接触しないように運転を行うための表示画像を生成する処理シーケンスであった。
すなわち、例えば、2次元マップ(/サラウンドビュー画像)を運転席のモニタに表示し、運転者が2次元マップ(/サラウンドビュー画像)を見てオブジェクトに接触しないように運転を行うための表示画像を生成する処理シーケンスであった。
図8に示すフローのステップS101~S110の処理によって生成される2次元マップは、このように運転者の運転に利用可能であるのみならず、自動運転用のデータとしての利用も可能である。
図12に示すフローチャートは、2次元マップを自動運転に利用する処理シーケンスを説明するフローチャートである。
図12に示すフローについて説明する。
図12に示すフローについて説明する。
図12に示すフローにおけるステップS101~S110の処理は、先に図8を参照して説明したフローのステップS101~S110の処理と同じ処理である。
最終ステップS121のみが異なる。
すなわち、図12に示すフローは、図8に示すフローのステップS111を、図12のステップS121に置き換えたフローである。
ステップS121の処理について説明する。
最終ステップS121のみが異なる。
すなわち、図12に示すフローは、図8に示すフローのステップS111を、図12のステップS121に置き換えたフローである。
ステップS121の処理について説明する。
(ステップS121)
ステップS121では、各オブジェクトを配置した2次元マップ(走行制御用)に基づいて車両の走行制御を実行する。車両の走行制御には、自動運転走行が含まれる。高精細マップ等の自動運転制御用データが、走行制御用データとして用いられてもよい。この場合、高精細マップ等の自動運転制御用データは、各オブジェクトの3次元空間における位置やサイズ、距離の情報や、信頼度に基づいて設定された注意領域の情報を含む。
ステップS121では、各オブジェクトを配置した2次元マップ(走行制御用)に基づいて車両の走行制御を実行する。車両の走行制御には、自動運転走行が含まれる。高精細マップ等の自動運転制御用データが、走行制御用データとして用いられてもよい。この場合、高精細マップ等の自動運転制御用データは、各オブジェクトの3次元空間における位置やサイズ、距離の情報や、信頼度に基づいて設定された注意領域の情報を含む。
このとき利用する走行制御用の2次元マップは、図9(2)、図10、図11を参照して説明したような2次元マップである。
すなわち、位置信頼度が低信頼度のオブジェクトについては大きさの拡大や、周囲に信頼度に応じた幅/大きさの領域を注意領域として設定したオブジェクトに基づいた2次元マップである。
すなわち、位置信頼度が低信頼度のオブジェクトについては大きさの拡大や、周囲に信頼度に応じた幅/大きさの領域を注意領域として設定したオブジェクトに基づいた2次元マップである。
車両の自動走行を実行する車両制御部は、この走行制御用の2次元マップを利用して、拡大されたオブジェクト、あるいはオブジェクトと注意領域に接触しないルートを選択して走行する制御を実行する。
この結果、位置信頼度が低信頼度のオブジェクトの位置ずれが発生していたとしても、車両制御部は、オブジェクト拡大表示領域に侵入しないルートを走行する制御を実行する。この結果、位置信頼度が低信頼度のオブジェクトに接触する可能性を大きく低減させた走行ルート選択により、安全な自動走行を実現することができる。
この結果、位置信頼度が低信頼度のオブジェクトの位置ずれが発生していたとしても、車両制御部は、オブジェクト拡大表示領域に侵入しないルートを走行する制御を実行する。この結果、位置信頼度が低信頼度のオブジェクトに接触する可能性を大きく低減させた走行ルート選択により、安全な自動走行を実現することができる。
[5.その他の実施例について]
次に、その他の実施例について説明する。
先に図9(2)、図10を参照して説明したオブジェクト表示例では、領域区分ライン61を境界としてオブジェクトの表示態様を通常表示、または拡大表示の2種類の表示態様を切り替える構成としていた。
次に、その他の実施例について説明する。
先に図9(2)、図10を参照して説明したオブジェクト表示例では、領域区分ライン61を境界としてオブジェクトの表示態様を通常表示、または拡大表示の2種類の表示態様を切り替える構成としていた。
すなわち、領域区分ライン61の内側の内周領域に位置するオブジェクトを位置信頼度が高信頼度であるオブジェクト、外側の外周領域に位置するオブジェクトを位置信頼度が低信頼度であるオブジェクトと判定する。内周領域に位置している位置信頼度が高信頼度であるオブジェクトについては実際のオブジェクトサイズを反映した表示とし、外周領域に位置している位置信頼度が低信頼度であるオブジェクトについては実際のオブジェクトサイズを大きく拡大した拡大表示や注意領域表示を行う構成としていた。
位置信頼度が低信頼度であるオブジェクトの表示態様は、この他の表示態様も可能である。
例えば、レンズの温度特性で位置ずれの方向が決まっているのであれば、図13に示すように、そのずれ方向にのみ拡大するオブジェクト表示を行う構成としてもよい。
例えば、レンズの温度特性で位置ずれの方向が決まっているのであれば、図13に示すように、そのずれ方向にのみ拡大するオブジェクト表示を行う構成としてもよい。
例えば、高温時のレンズの温度特性は、レンズ光軸を中心に放射状に広がる変化を見せる傾向がある。温度特性によって被写体の撮像位置のずれる方向が事前に分かっている場合は、図13に示すようにずれる方向のみに拡大して表示してもよい。
さらに、通常表示と拡大表示の2種類の表示ではなく、例えば、図14に示すように、拡大率を順次変更する設定としたオブジェクト表示を行う設定としてもよい。
すなわち、位置信頼度の値に応じて拡大率を変更して表示する処理を行うものである。
すなわち、位置信頼度の値に応じて拡大率を変更して表示する処理を行うものである。
レンズ中心に近い撮影画像領域は位置信頼度が高いので、通常表示、すなわちオブジェクトの実物大をそのまま反映した表示を行う。
先に図7を参照して説明したように、像高ずれ量はレンズ中心から離間する距離に応じて徐々に拡大する。
図14に示す表示画像(2次元マップ(/サラウンドビュー画像))は、この像高ずれ量に応じて、オブジェクトの拡大率を変更してオブジェクトを表示した例である。
先に図7を参照して説明したように、像高ずれ量はレンズ中心から離間する距離に応じて徐々に拡大する。
図14に示す表示画像(2次元マップ(/サラウンドビュー画像))は、この像高ずれ量に応じて、オブジェクトの拡大率を変更してオブジェクトを表示した例である。
このように像高ずれ量、すなわち位置信頼度の変化に応じてオブジェクトの拡大率を変更してオブジェクトを表示する構成としてもよい。
その他、例えば位置信頼度に応じて異なる色でオブジェクトを表示する構成としてもよい。例えば、
位置信頼度が高信頼度のオブジェクトは、緑色で表示、
位置信頼度が中信頼度のオブジェクトは、黄色で表示、
位置信頼度が低信頼度のオブジェクトは、赤色で表示、
このような表示態様である。
位置信頼度が高信頼度のオブジェクトは、緑色で表示、
位置信頼度が中信頼度のオブジェクトは、黄色で表示、
位置信頼度が低信頼度のオブジェクトは、赤色で表示、
このような表示態様である。
また実際のオブジェクトの形状の外側に位置信頼度に応じて異なる大きさの枠を表示する構成としてもよい。
位置信頼度が高信頼度のオブジェクトは、小さい枠を表示、
位置信頼度が中信頼度のオブジェクトは、中程度の枠を表示、
位置信頼度が低信頼度のオブジェクトは、大きな枠を表示、
例えば、このような表示態様である。
位置信頼度が高信頼度のオブジェクトは、小さい枠を表示、
位置信頼度が中信頼度のオブジェクトは、中程度の枠を表示、
位置信頼度が低信頼度のオブジェクトは、大きな枠を表示、
例えば、このような表示態様である。
なお、上述した複数の表示態様を任意に組み合わせて表示データを生成してもよい。
[6.画像処理システム(車両制御システム)の構成例について]
次に、上述の処理を実行する本開示の画像処理システム(車両制御システム)100の構成例について、図15を参照して説明する。
本開示の画像処理装置100は、先に図8を参照して説明したフローに従って位置信頼度の低いオブジェクトに対して拡大等の画像処理を実行した2次元マップを生成して表示用の2次元マップ(/サラウンドビュー画像)として表示部に表示する処理を実行する。
次に、上述の処理を実行する本開示の画像処理システム(車両制御システム)100の構成例について、図15を参照して説明する。
本開示の画像処理装置100は、先に図8を参照して説明したフローに従って位置信頼度の低いオブジェクトに対して拡大等の画像処理を実行した2次元マップを生成して表示用の2次元マップ(/サラウンドビュー画像)として表示部に表示する処理を実行する。
さらに、このような2次元マップを生成する画像処理装置は車両制御システム100の一構成要素として利用される。
図15は、画像処理装置と車両制御装置の両機能を有する画像処理システム(車両制御システム)100の構成例を示すブロック図である。
図15は、画像処理装置と車両制御装置の両機能を有する画像処理システム(車両制御システム)100の構成例を示すブロック図である。
図15に示す画像処理システム(車両制御システム)100は、図1を参照して説明した車両10と同様、車両の前後左右の各方向を撮影する4つのカメラ、すなわちサラウンドビューカメラシステムを有する。
図15に示す画像処理システム(車両制御システム)100は、例えば車両の内部に設けられる装置である。図に示すように、画像処理システム(車両制御システム)100は、制御部101、車両制御装置102、表示装置103、入力部104、記憶部105、通信部106、車両情報取得部107、データ処理装置110、さらに、車両の前後左右に備えられた4台のカメラ121F~121Bと、各カメラに装着された温度センサ131F~Bを有する。
なお、表示装置103や、データ処理装置110、4台のカメラ121F~121B等の要素は、それぞれ個別の独立した筐体を持つ個別の装置として構成することも可能である。
なお、表示装置103や、データ処理装置110、4台のカメラ121F~121B等の要素は、それぞれ個別の独立した筐体を持つ個別の装置として構成することも可能である。
4台のカメラ121F~121Bは、図1を参照して説明した車両10と同様、車両の前後左右の各方向を撮影する4つのカメラであり、サラウンドビュー画像を生成するためのカメラである。カメラF,121Fは前方向撮影カメラであり、カメラL,121Lは左方向撮影カメラであり、カメラR,121Rは右方向撮影カメラであり、
カメラB,121Bは後方向方撮影カメラである。
これらの各カメラは、例えば、魚眼レンズ等の広角レンズを持つカメラであり、より広い領域、すなわち広角エリアを撮影できる。
これらの各カメラ121F~121Bには、個別に温度センサ131F~Bが備えられている。
カメラB,121Bは後方向方撮影カメラである。
これらの各カメラは、例えば、魚眼レンズ等の広角レンズを持つカメラであり、より広い領域、すなわち広角エリアを撮影できる。
これらの各カメラ121F~121Bには、個別に温度センサ131F~Bが備えられている。
データ処理装置110は、これら4台のカメラの撮影画像を入力して、先に図1を参照して説明した2次元マップや、あるいは、車両と車両の周囲を表す、車両の上方の視点からの画像(サラウンドビュー画像)を生成して、表示装置103に表示する。また、走行制御用データとして2次元マップを用いる場合は、2次元マップを車両制御装置102に提供する。
なお、データ処理装置110の生成する2次元マップ(/サラウンドビュー画像)は、先に説明した図8や図12に示すフローチャートに従った処理によって生成される2次元マップである。
すなわち、カメラに装着された温度センサの検出津温度が予め規定した温度範囲にない場合には、レンズ外周部のオブジェクト、すなわち位置信頼度が低信頼度のオブジェクトを拡大表示、または注意喚起する表示を実行する。
具体的には、例えば先に図9(2)、図10、図11、図13、図14を参照して説明した2次元マップ(/サラウンドビュー画像)を生成する。
すなわち、カメラに装着された温度センサの検出津温度が予め規定した温度範囲にない場合には、レンズ外周部のオブジェクト、すなわち位置信頼度が低信頼度のオブジェクトを拡大表示、または注意喚起する表示を実行する。
具体的には、例えば先に図9(2)、図10、図11、図13、図14を参照して説明した2次元マップ(/サラウンドビュー画像)を生成する。
表示装置103は運転席のドライバが観察できる位置に備えられた例えば液晶表示装置等のディスプレイを持つ表示部である。
この表示装置103に、データ処理装置110が生成した2次元マップ(/サラウンドビュー画像)が表示される。
この表示装置103に、データ処理装置110が生成した2次元マップ(/サラウンドビュー画像)が表示される。
例えば、位置信頼度が低いオブジェクトが拡大された画像が運転席のモニタに表示される。運転者は、拡大表示されたオブジェクト(ポール)に接触しないように車両を移動させる。結果として、実際のオブジェクト位置が俯瞰画像内の拡大されていないオブジェクト(ポール)の位置からずれていた場合でも、車両を実際のオブジェクト(ポール)に接触させることなく車両を安全に移動させることができる。
さらに、データ処理装置110が生成した2次元マップ(/サラウンドビュー画像)は、車両制御装置102にも入力される。
車両制御装置102は、ステアリング操作や車両の加減速等の車両の自動運転制御を実行する。
車両制御装置102は、ステアリング操作や車両の加減速等の車両の自動運転制御を実行する。
車両制御装置102は、データ処理装置110が生成した2次元マップ、すなわち、例えば位置信頼度が低いオブジェクトが拡大された、あるいは、注意領域が設定された2次元マップを制御用の2次元マップとして参照して走行ルートを決定して、車両を自動走行させる。
車両制御装置102は、2次元マップを用いて、2次元マップにおける拡大されたオブジェクトや、オブジェクトと設定された注意領域に接触しないルートを選択して走行する制御を実行する。
この結果、位置信頼度が低信頼度のオブジェクトの位置ずれが発生していたとしても、車両制御部は、オブジェクト拡大表示領域に侵入しないルートを走行する制御を実行する。この結果、位置信頼度が低信頼度のオブジェクトに接触する可能性を大きく低減させた走行ルート選択により、安全な自動走行を実現することができる。
この結果、位置信頼度が低信頼度のオブジェクトの位置ずれが発生していたとしても、車両制御部は、オブジェクト拡大表示領域に侵入しないルートを走行する制御を実行する。この結果、位置信頼度が低信頼度のオブジェクトに接触する可能性を大きく低減させた走行ルート選択により、安全な自動走行を実現することができる。
入力部104は、例えば、ユーザの操作可能なスイッチや操作部によって構成される。なお、表示装置103上に表示されるUI(ユーザインタフェース)画面のタッチパネル等も入力部104として機能する。
記憶部105は、例えばハードディスク等の大容量記憶装置の他、リムーバブルメディア、RAM、ROM等の様々な構成からなるデータ記憶手段である。
記憶部105は、例えばハードディスク等の大容量記憶装置の他、リムーバブルメディア、RAM、ROM等の様々な構成からなるデータ記憶手段である。
通信部106は、例えばWi-Fi、4G,LTE,ブルートゥース(登録商標)等の様々な通信手段の少なくともいずれかの手段を適用して外部の装置、例えば、サーバや、ユーザのスマホ等のユーザ端末等の外部装置との通信を行う。
車両情報取得部107は、例えばハンドル、アクセル、ブレーキ等、車両走行時にドライバによって操作される操作部の操作情報を取得する。さらに、センサ等の検出情報を取得する構成としてもよい。
車両情報取得部107は、例えばハンドル、アクセル、ブレーキ等、車両走行時にドライバによって操作される操作部の操作情報を取得する。さらに、センサ等の検出情報を取得する構成としてもよい。
制御部101は、画像処理システム(車両制御システム)100内で実行される様々な処理の制御を行う。なお、制御部101は、例えばCPU等のプログラム実行機能を持つデータ処理部を有し、例えば記憶部105に格納されたプログラムに従って画像処理システム(車両制御システム)100内で実行される様々な処理の制御を行う。
なお、図15に示す各装置、各構成部は、複数の装置や構成部を1つの装置や構成部として構成してもよい。また、図15に示す各装置、各構成部は、車両等の移動体に構成される。
なお、図15に示す各装置、各構成部は、複数の装置や構成部を1つの装置や構成部として構成してもよい。また、図15に示す各装置、各構成部は、車両等の移動体に構成される。
データ処理装置110の詳細構成例を図16に示す。
図16に示すように、データ処理装置110は、物体認識部201、物体距離算出部202、信頼度算出部203、表示データ作成部204、走行制御用データ作成部205を有する。
図16に示すように、データ処理装置110は、物体認識部201、物体距離算出部202、信頼度算出部203、表示データ作成部204、走行制御用データ作成部205を有する。
物体認識部201は、撮像部(カメラ)が撮影した画像からオブジェクト検出を実行し、認識結果としてのオブジェクトの位置情報(画像上の座標)とオブジェクトのサイズ(大きさ)情報を生成する。
物体距離算出部202は、撮像部(カメラ)や撮像部が搭載されている自車両から検出オブジェクトまでの距離を算出する。
信頼度算出部203は、温度センサからカメラの温度と物体距離算出部からオブジェクトの情報(位置、距離)を取得する。併せて、オブジェクトのサイズ情報を取得してもよい。カメラの温度と予め規定したしきい値との比較結果に応じて、物体距離算出部202の算出したオブジェクトの情報(位置、距離、サイズ等)の信頼度を算出する。
物体距離算出部202は、撮像部(カメラ)や撮像部が搭載されている自車両から検出オブジェクトまでの距離を算出する。
信頼度算出部203は、温度センサからカメラの温度と物体距離算出部からオブジェクトの情報(位置、距離)を取得する。併せて、オブジェクトのサイズ情報を取得してもよい。カメラの温度と予め規定したしきい値との比較結果に応じて、物体距離算出部202の算出したオブジェクトの情報(位置、距離、サイズ等)の信頼度を算出する。
表示データ作成部204は、物体認識部201が生成したオブジェクト位置情報(画像上座標)と、物体距離算出部202の生成した検出オブジェクトの距離と、信頼度算出部203の生成したオブジェクトの情報(位置、距離、サイズ等)の信頼度に基づいて、表示用データを作成する。表示用データは、オブジェクトの位置、距離、サイズを示すとともに、信頼度に基づいて設定される注意領域の情報を有する2次元マップでもよい。
また、表示用データとしては、オブジェクトの情報(位置、距離、サイズ)と、信頼度に基づいて、撮像画像中の物体領域が拡大した拡大処理後の画像データでもよい。また、2次元マップを撮像画像に重畳させたものでもよい。また、表示用データは、信頼度に基づいて修正したオブジェクトの情報(位置、距離、サイズ等)を示すマークを撮像画像に重畳して生成された画像データでもよい。
また、表示用データとしては、オブジェクトの情報(位置、距離、サイズ)と、信頼度に基づいて、撮像画像中の物体領域が拡大した拡大処理後の画像データでもよい。また、2次元マップを撮像画像に重畳させたものでもよい。また、表示用データは、信頼度に基づいて修正したオブジェクトの情報(位置、距離、サイズ等)を示すマークを撮像画像に重畳して生成された画像データでもよい。
走行制御用データ作成部205は、物体認識部201が生成したオブジェクト位置情報(画像上座標)と、物体距離算出部202の生成した検出オブジェクトの距離と、信頼度算出部203の生成したオブジェクトの情報(位置、距離、サイズ等)の信頼度を取得する。走行制御用データ作成部205は、物体認識部201が生成したオブジェクト位置情報(画像上座標)と、物体距離算出部202の生成した検出オブジェクトの距離と、信頼度算出部203の生成したオブジェクトの情報(位置、距離、サイズ等)の信頼度に基づいて、走行制御用データを作成する。走行制御用データは、オブジェクトの位置、距離、サイズを示すとともに、信頼度に基づいた注意領域の情報を有する2次元マップでもよい。また、走行制御用データは、各オブジェクトの3次元空間における位置やサイズ、距離の情報や、信頼度に基づいて設定された注意領域の情報を含む3次元空間の情報である高精細マップでもよい。走行制御用データは、高精細マップと異なる種類の自動運転制御用データでもよい。
また、走行制御用データ作成部205は、走行制御用データ(高精細マップ含む)を作成する際に、カメラで撮像された撮像画像を用いてもよいし、また、レーダ―、超音波、LiDAR等のカメラ以外のセンサからのデータを用いて走行制御用データを作成してもよい。
また、走行制御用データ作成部205は、走行制御用データ(高精細マップ含む)を作成する際に、カメラで撮像された撮像画像を用いてもよいし、また、レーダ―、超音波、LiDAR等のカメラ以外のセンサからのデータを用いて走行制御用データを作成してもよい。
上述の例では、表示データ作成部204、走行制御用データ作成部205は、それぞれのブロックにおいて2次元マップを作成するように説明した。しかし、表示データ作成部204で作成した2次元マップを、走行制御用データ作成部205で用いるようにしてもよい、また、走行制御用データ作成部205で作成した2次元マップを、表示データ作成部204で用いるようにしてもよい。
走行制御用データ作成部205で2次元マップを作成する際には、先に高精細マップを生成し、その後で、ある平面に高精細マップを投影することで、2次元マップを作成してもよい。
走行制御用データ作成部205で2次元マップを作成する際には、先に高精細マップを生成し、その後で、ある平面に高精細マップを投影することで、2次元マップを作成してもよい。
[7.画像処理システム(車両制御システム)のハードウェア構成例について]
次に、上述した処理を実行する画像処理システム(車両制御システム)100のハードウェア構成例について図17を参照して説明する。
次に、上述した処理を実行する画像処理システム(車両制御システム)100のハードウェア構成例について図17を参照して説明する。
図17は、画像処理システム(車両制御システム)100として適用可能なハードウェアの一構成例を示す図である。
図17に示す構成について説明する。
CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
図17に示す構成について説明する。
CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、タッチパネル、マウス、マイクロフォン、さらに、センサ、カメラ、GPS等の状況データ取得部などよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。
なお、図には、撮像部(カメラ)321と、温度センサ322を入力部306の構成要素として示している。さらに、表示部323を出力部307の構成要素として示している。
CPU301は、入力部306から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部307に出力する。
入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
[8.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理装置。
(1) 車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理装置。
(2) 前記2次元マップは、車両上部から観察した画像であるサラウンドビュー画像である(1)に記載の画像処理装置。
(3) 前記データ処理部は、
オブジェクトの像高に基づいて、オブジェクトの位置信頼度を判定する(1)または(2)に記載の画像処理装置。
オブジェクトの像高に基づいて、オブジェクトの位置信頼度を判定する(1)または(2)に記載の画像処理装置。
(4) 前記データ処理部は、
予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定する(1)~(3)いずれかに記載の画像処理装置。
予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定する(1)~(3)いずれかに記載の画像処理装置。
(5) 前記データ処理部は、
予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定して、オブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトとして前記2次元マップ上に配置し、
前記像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定して、オブジェクト周囲に広がる拡大領域を設定しない通常表示オブジェクトとして前記2次元マップ上に配置する(1)~(4)いずれかに記載の画像処理装置。
予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定して、オブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトとして前記2次元マップ上に配置し、
前記像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定して、オブジェクト周囲に広がる拡大領域を設定しない通常表示オブジェクトとして前記2次元マップ上に配置する(1)~(4)いずれかに記載の画像処理装置。
(6) 前記データ処理部は、
前記2次元マップからなるサラウンドビュー画像を表示部に出力する(1)~(5)いずれかに記載の画像処理装置。
前記2次元マップからなるサラウンドビュー画像を表示部に出力する(1)~(5)いずれかに記載の画像処理装置。
(7) 前記データ処理部は、
前記2次元マップを、自動運転を実行する車両制御部に出力する(1)~(6)いずれかに記載の画像処理装置。
前記2次元マップを、自動運転を実行する車両制御部に出力する(1)~(6)いずれかに記載の画像処理装置。
(8) 前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する(1)~(7)いずれかに記載の画像処理装置。
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する(1)~(7)いずれかに記載の画像処理装置。
(9) 前記データ処理部は、
位置信頼度が低いオブジェクトについて、オブジェクト周囲に広がる注意領域を設定した注意領域設定オブジェクトを含む2次元マップを生成する(1)~(8)いずれかに記載の画像処理装置。
位置信頼度が低いオブジェクトについて、オブジェクト周囲に広がる注意領域を設定した注意領域設定オブジェクトを含む2次元マップを生成する(1)~(8)いずれかに記載の画像処理装置。
(10) 前記データ処理部は、
位置信頼度に応じて異なる拡大率を持つ拡大表示オブジェクトを含む2次元マップを生成する(1)~(9)いずれかに記載の画像処理装置。
位置信頼度に応じて異なる拡大率を持つ拡大表示オブジェクトを含む2次元マップを生成する(1)~(9)いずれかに記載の画像処理装置。
(11) 前記データ処理部は、
位置信頼度に応じて異なる色で表示されたオブジェクトを含む2次元マップを生成する(1)~(10)いずれかに記載の画像処理装置。
位置信頼度に応じて異なる色で表示されたオブジェクトを含む2次元マップを生成する(1)~(10)いずれかに記載の画像処理装置。
(12) 前記データ処理部は、
位置信頼度に応じて異なる大きさの枠で囲まれたオブジェクトを含む2次元マップを生成する(1)~(11)いずれかに記載の画像処理装置。
位置信頼度に応じて異なる大きさの枠で囲まれたオブジェクトを含む2次元マップを生成する(1)~(11)いずれかに記載の画像処理装置。
(13) 車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御装置。
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御装置。
(14) 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理方法。
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理方法。
(15) 車両制御装置において実行する車両制御方法であり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部が、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御方法。
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部が、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御方法。
(16) 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させるプログラム。
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させるプログラム。
(17) 車両制御装置において車両制御処理を実行させるプログラムであり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記プロクラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させ、
前記車両制御部に、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行させるプログラム。
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記プロクラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させ、
前記車両制御部に、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法が実現される。
具体的には、例えば、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有する。データ処理部は、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップやサラウンドビュー画像を生成する。データ処理部は、予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定し、像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定する。
これらの構成により、位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法が実現される。
具体的には、例えば、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有する。データ処理部は、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップやサラウンドビュー画像を生成する。データ処理部は、予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定し、像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定する。
これらの構成により、位置信頼度が低いオブジェクトを拡大表示オブジェクトとした2次元マップやサラウンドビュー画像を生成する装置、方法が実現される。
10 車両
11~14 カメラ
20 路面
30 垂直ポール
61 領域区分ライン
71 拡大表示オブジェクト
72 通常表示オブジェクト
73 注意領域表示オブジェクト
81 通常表示オブジェクト
100 画像処理システム(車両制御システム)
101 制御部
102 車両制御装置
103 表示装置
104 入力部
105 記憶部
106 通信部
107 車両情報取得部
110 データ処理装置
111 表示画像生成部
121L~B カメラ
131L~B 温度センサ
301 CPU
302 ROM
303 RAM
304 バス
305 入出力インタフェース
306 入力部
307 出力部
308 記憶部
309 通信部
310 ドライブ
311 リムーバブルメディア
321 撮像部
322 温度センサ
323 表示部
11~14 カメラ
20 路面
30 垂直ポール
61 領域区分ライン
71 拡大表示オブジェクト
72 通常表示オブジェクト
73 注意領域表示オブジェクト
81 通常表示オブジェクト
100 画像処理システム(車両制御システム)
101 制御部
102 車両制御装置
103 表示装置
104 入力部
105 記憶部
106 通信部
107 車両情報取得部
110 データ処理装置
111 表示画像生成部
121L~B カメラ
131L~B 温度センサ
301 CPU
302 ROM
303 RAM
304 バス
305 入出力インタフェース
306 入力部
307 出力部
308 記憶部
309 通信部
310 ドライブ
311 リムーバブルメディア
321 撮像部
322 温度センサ
323 表示部
Claims (17)
- 車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理装置。 - 前記2次元マップは、車両上部から観察した画像であるサラウンドビュー画像である請求項1に記載の画像処理装置。
- 前記データ処理部は、
オブジェクトの像高に基づいて、オブジェクトの位置信頼度を判定する請求項1に記載の画像処理装置。 - 前記データ処理部は、
予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定する請求項1に記載の画像処理装置。 - 前記データ処理部は、
予め規定した像高しきい値以上の像高を有するオブジェクトを位置信頼度が低いオブジェクトと判定して、オブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトとして前記2次元マップ上に配置し、
前記像高しきい値以上の像高を有さないオブジェクトを位置信頼度が高いオブジェクトと判定して、オブジェクト周囲に広がる拡大領域を設定しない通常表示オブジェクトとして前記2次元マップ上に配置する請求項1に記載の画像処理装置。 - 前記データ処理部は、
前記2次元マップからなるサラウンドビュー画像を表示部に出力する請求項1に記載の画像処理装置。 - 前記データ処理部は、
前記2次元マップを、自動運転を実行する車両制御部に出力する請求項1に記載の画像処理装置。 - 前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する請求項1に記載の画像処理装置。 - 前記データ処理部は、
位置信頼度が低いオブジェクトについて、オブジェクト周囲に広がる注意領域を設定した注意領域設定オブジェクトを含む2次元マップを生成する請求項1に記載の画像処理装置。 - 前記データ処理部は、
位置信頼度に応じて異なる拡大率を持つ拡大表示オブジェクトを含む2次元マップを生成する請求項1に記載の画像処理装置。 - 前記データ処理部は、
位置信頼度に応じて異なる色で表示されたオブジェクトを含む2次元マップを生成する請求項1に記載の画像処理装置。 - 前記データ処理部は、
位置信頼度に応じて異なる大きさの枠で囲まれたオブジェクトを含む2次元マップを生成する請求項1に記載の画像処理装置。 - 車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部は、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部は、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御装置。 - 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成する画像処理方法。 - 車両制御装置において実行する車両制御方法であり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記データ処理部が、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成し、
前記車両制御部が、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行する車両制御方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させるプログラム。 - 車両制御装置において車両制御処理を実行させるプログラムであり、
前記車両制御装置は、
車両の周囲を撮影するカメラの撮影画像を入力して、車両周囲のオブジェクトを含む2次元マップを生成するデータ処理部と、
前記データ処理部の生成した2次元マップを参照して走行ルートを決定して車両を走行させる制御を実行する車両制御部を有し、
前記プロクラムは、前記データ処理部に、
前記2次元マップ内のオブジェクト中、位置信頼度が低いオブジェクトについてオブジェクト周囲に広がる拡大領域を設定した拡大表示オブジェクトを含む2次元マップを生成させ、
前記車両制御部に、
前記2次元マップに配置された拡大表示オブジェクトに接触しない走行ルートを選択して車両を走行させる制御を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202080022532.9A CN113614810B (zh) | 2019-03-26 | 2020-03-25 | 图像处理装置、车辆控制装置、方法和程序 |
US17/440,690 US20220172490A1 (en) | 2019-03-26 | 2020-03-25 | Image processing apparatus, vehicle control apparatus, method, and program |
EP20777349.0A EP3951744A4 (en) | 2019-03-26 | 2020-03-25 | IMAGE PROCESSING DEVICE, VEHICLE CONTROL DEVICE, METHOD AND PROGRAM |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019057648 | 2019-03-26 | ||
JP2019-057648 | 2019-03-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020196676A1 true WO2020196676A1 (ja) | 2020-10-01 |
Family
ID=72611509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/013471 WO2020196676A1 (ja) | 2019-03-26 | 2020-03-25 | 画像処理装置、車両制御装置、および方法、並びにプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220172490A1 (ja) |
EP (1) | EP3951744A4 (ja) |
CN (1) | CN113614810B (ja) |
WO (1) | WO2020196676A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018214875A1 (de) * | 2018-08-31 | 2020-03-05 | Audi Ag | Verfahren und Anordnung zum Erzeugen einer Umgebungsrepräsentation eines Fahrzeugs und Fahrzeug mit einer solchen Anordnung |
CN118877002A (zh) * | 2024-03-15 | 2024-11-01 | 浙江极氪智能科技有限公司 | 车位显示方法、装置、车辆和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009250785A (ja) | 2008-04-07 | 2009-10-29 | Panasonic Corp | 撮像装置 |
JP2010079561A (ja) * | 2008-09-25 | 2010-04-08 | Nissan Motor Co Ltd | 警告装置及び警告方法 |
JP2013053962A (ja) * | 2011-09-05 | 2013-03-21 | Sharp Corp | カメラシステム、衝突予測システム、駐車ガイドシステム |
US20170297488A1 (en) * | 2016-04-19 | 2017-10-19 | GM Global Technology Operations LLC | Surround view camera system for object detection and tracking |
JP2017215940A (ja) * | 2016-05-30 | 2017-12-07 | 株式会社東芝 | 情報処理装置、車両、情報処理方法およびプログラム |
WO2018078732A1 (ja) * | 2016-10-26 | 2018-05-03 | 三菱電機株式会社 | 表示制御装置、表示装置および表示制御方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5162928B2 (ja) * | 2007-03-12 | 2013-03-13 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理システム |
JP4975592B2 (ja) * | 2007-11-19 | 2012-07-11 | アルプス電気株式会社 | 撮像装置 |
US9327693B2 (en) * | 2013-04-10 | 2016-05-03 | Magna Electronics Inc. | Rear collision avoidance system for vehicle |
JP6184877B2 (ja) * | 2014-01-09 | 2017-08-23 | クラリオン株式会社 | 車両用外界認識装置 |
JP6608148B2 (ja) * | 2015-02-24 | 2019-11-20 | キヤノン株式会社 | 距離情報生成装置、撮像装置、距離情報生成方法および距離情報生成プログラム |
JP6547495B2 (ja) * | 2015-07-31 | 2019-07-24 | アイシン精機株式会社 | 駐車支援装置 |
KR101860610B1 (ko) * | 2015-08-20 | 2018-07-02 | 엘지전자 주식회사 | 디스플레이 장치 및 이를 포함하는 차량 |
EP3358551B1 (en) * | 2015-09-30 | 2021-10-27 | Sony Group Corporation | Information processing device, information processing method, and program |
WO2017163606A1 (ja) * | 2016-03-23 | 2017-09-28 | 日立オートモティブシステムズ株式会社 | 物体認識装置 |
US10943141B2 (en) * | 2016-09-15 | 2021-03-09 | Mitsubishi Electric Corporation | Object detection device and object detection method |
JP6877115B2 (ja) * | 2016-09-27 | 2021-05-26 | 株式会社東海理化電機製作所 | 車両用視認装置 |
US10195992B2 (en) * | 2017-04-03 | 2019-02-05 | Ford Global Technologies, Llc | Obstacle detection systems and methods |
DE102017210266A1 (de) * | 2017-06-20 | 2018-12-20 | Zf Friedrichshafen Ag | Umfeldüberwachung eines Ego-Fahrzeugs |
US11048927B2 (en) * | 2017-10-24 | 2021-06-29 | Waymo Llc | Pedestrian behavior predictions for autonomous vehicles |
JP7353747B2 (ja) * | 2018-01-12 | 2023-10-02 | キヤノン株式会社 | 情報処理装置、システム、方法、およびプログラム |
JP7137346B2 (ja) * | 2018-04-20 | 2022-09-14 | 株式会社キーエンス | 画像観察装置、画像観察方法及び画像観察プログラム並びにコンピュータで読み取り可能な記録媒体 |
JP7140580B2 (ja) * | 2018-07-13 | 2022-09-21 | マクセル株式会社 | ステレオ撮像装置 |
-
2020
- 2020-03-25 EP EP20777349.0A patent/EP3951744A4/en active Pending
- 2020-03-25 CN CN202080022532.9A patent/CN113614810B/zh active Active
- 2020-03-25 WO PCT/JP2020/013471 patent/WO2020196676A1/ja unknown
- 2020-03-25 US US17/440,690 patent/US20220172490A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009250785A (ja) | 2008-04-07 | 2009-10-29 | Panasonic Corp | 撮像装置 |
JP2010079561A (ja) * | 2008-09-25 | 2010-04-08 | Nissan Motor Co Ltd | 警告装置及び警告方法 |
JP2013053962A (ja) * | 2011-09-05 | 2013-03-21 | Sharp Corp | カメラシステム、衝突予測システム、駐車ガイドシステム |
US20170297488A1 (en) * | 2016-04-19 | 2017-10-19 | GM Global Technology Operations LLC | Surround view camera system for object detection and tracking |
JP2017215940A (ja) * | 2016-05-30 | 2017-12-07 | 株式会社東芝 | 情報処理装置、車両、情報処理方法およびプログラム |
WO2018078732A1 (ja) * | 2016-10-26 | 2018-05-03 | 三菱電機株式会社 | 表示制御装置、表示装置および表示制御方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3951744A4 |
Also Published As
Publication number | Publication date |
---|---|
US20220172490A1 (en) | 2022-06-02 |
CN113614810B (zh) | 2024-04-09 |
EP3951744A1 (en) | 2022-02-09 |
EP3951744A4 (en) | 2022-05-25 |
CN113614810A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2429877B1 (en) | Camera system for use in vehicle parking | |
EP2192552B1 (en) | Image processing apparatus, image processing method, and recording medium | |
EP1961613B1 (en) | Driving support method and driving support device | |
JP5421072B2 (ja) | 接近物体検知システム | |
EP3942794B1 (en) | Depth-guided video inpainting for autonomous driving | |
US20150042799A1 (en) | Object highlighting and sensing in vehicle image display systems | |
CN111674389B (zh) | 停车支援装置及停车支援方法 | |
WO2015145543A1 (ja) | 物体検出装置、物体検出方法、および移動ロボット | |
WO2002080557A1 (en) | Drive supporting device | |
JP2004240480A (ja) | 運転支援装置 | |
KR102045088B1 (ko) | 영상 표시 방법 및 이를 위한 위한 장치 | |
JP4872769B2 (ja) | 路面判別装置および路面判別方法 | |
JP6471522B2 (ja) | カメラパラメータ調整装置 | |
JP7000383B2 (ja) | 画像処理装置および画像処理方法 | |
JP5083443B2 (ja) | 運転支援装置および方法、ならびに演算装置 | |
WO2020196676A1 (ja) | 画像処理装置、車両制御装置、および方法、並びにプログラム | |
KR102031635B1 (ko) | 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법 | |
JP4475015B2 (ja) | 車両周辺監視装置及び車両周辺監視方法 | |
CN112912895B (zh) | 一种检测方法、装置和车辆 | |
JP5557036B2 (ja) | 退出判定装置、退出判定プログラム及び退出判定方法 | |
JP2010148058A (ja) | 運転支援装置及び運転支援方法 | |
KR20100060528A (ko) | 차량 운전 지원 표시 시스템 | |
JP5580062B2 (ja) | 障害物検知警報装置 | |
WO2024157367A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
KR20140088779A (ko) | 차량의 후방 모니터링 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20777349 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2020777349 Country of ref document: EP Effective date: 20211026 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |