[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018037061A - 自律走行車両のためのビジョンセンサの制御方法及び装置 - Google Patents

自律走行車両のためのビジョンセンサの制御方法及び装置 Download PDF

Info

Publication number
JP2018037061A
JP2018037061A JP2017100676A JP2017100676A JP2018037061A JP 2018037061 A JP2018037061 A JP 2018037061A JP 2017100676 A JP2017100676 A JP 2017100676A JP 2017100676 A JP2017100676 A JP 2017100676A JP 2018037061 A JP2018037061 A JP 2018037061A
Authority
JP
Japan
Prior art keywords
host vehicle
vision sensor
point
tunnel
expected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017100676A
Other languages
English (en)
Inventor
大 ▲ひょん▼ 池
Daehyun Ji
大 ▲ひょん▼ 池
度 官 呉
Dokwan Oh
度 官 呉
東 ▲うく▼ 李
Dongwook Lee
東 ▲うく▼ 李
宰 雨 李
Jaewoo Lee
宰 雨 李
鐵 薫 張
Cheolhun JANG
鐵 薫 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018037061A publication Critical patent/JP2018037061A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 ビジョンセンサの制御方法及び装置を提供する。【解決手段】 一実施形態に係るビジョンセンサの制御装置は、ホスト車両の走行経路上で、閾値以上の照度変化が発生するものと予想される地点を決定し、前記予想される地点からホスト車両が閾値距離内に位置するか否かを判断し、ホスト車両が閾値距離内に位置するとの判断に応じて、予想される照度変化に基づいてホスト車両にあるビジョンセンサを制御する。【選択図】 図2

Description

下記の実施形態は、自律走行車両のためのビジョンセンサの制御方法及び装置に関する。
自律走行(Automatic Driving)は、ホスト車両走行のうち要求される各種の操作を自動で行うものであって、例えば、自律走行車両は運転者がハンドルと加速ペダル、ブレーキなどを操作しなくても自ら道路で走ることができる。車両の自律走行のためには車間距離を自動で維持する技術、車線離脱及び車線維持の有無を知らせる技術、後方及び側方の検出物を知らせる技術などを用いる。自律走行のための様々な技術は、車両で把握される周辺映像情報によって実行される。
日本特許登録第4262566号公報 日本特許公開第2005−167842号公報 韓国特許公開第2014−075504号公報 日本特許登録第4757932号公報
一側面によれば、自律走行車両がトンネルに進入したり、トンネルで進出するとき急激な照度変化によって発生し得る映像認識の問題を解消する。
一側面によれば、太陽などによる逆光状況を認知して、逆光状況で発生し得る映像認識の問題を解消する。
一側面によれば、ビジョンセンサの制御方法は、ホスト車両の走行経路上で、閾値以上の照度変化が発生するものと予想される地点を決定するステップと、前記ホスト車両が前記予想される地点から閾値距離内に位置するか否かを判断するステップと、前記ホスト車両が前記予想される地点から前記閾値距離内に位置するとの判断に応じて、予想される照度変化に基づいて前記ホスト車両にあるビジョンセンサを制御するステップとを含む。
前記照度変化が予想される地点を予測するステップは、前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、前記ホスト車両の走行位置のGPS座標、及び前記ホスト車両の走行速度のいずれか1つ又は2以上の組合せに基づいて、前記閾値以上の照度変化が予想される地点を予測するステップを含み得る。
前記照度変化が予想される地点を予測するステップは、前記ビジョンセンサによって撮影された映像と前記閾値以上の照度変化が予想される地点に対する予め学習された映像との間の類似度に基づいて、前記閾値以上の照度変化が予想される地点を予測するステップを含み得る。
前記照度変化が予想される地点を予測するステップは、前記ホスト車両の走行経路上に位置するトンネルの進入地点及び前記トンネルの進出地点の双方又は一方を認識するステップと、前記トンネルの進入地点及び前記トンネルの進出地点の双方又は一方を前記照度変化が予想される地点として予測するステップとを含み得る。
前記トンネルの進入地点及び前記トンネルの進出地点の双方又は一方を認識するステップは、前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、及び前記ホスト車両の走行位置のGPS座標のいずれか1つ又は2以上に基づいて、前記トンネルの進入地点を認識するステップと、前記ビジョンセンサによって撮影された映像、前記地図データ及び前記ホスト車両の走行速度のうち少なくとも1つに基づいて前記トンネルの進出地点を認識するステップとのいずれか1つ又は2以上の組合せを含み得る。
前記トンネルの進入地点を認識するステップは、前記ビジョンセンサによって撮影された映像が前記トンネルの入口の特定形状を含むか否かに基づいて前記トンネルの進入地点を認識するステップと、前記ホスト車両の走行経路の地図データ、及び前記ホスト車両の走行位置に該当するGPS座標に基づいて前記トンネルの進入地点を認識するステップとのいずれか1つ又は2つを含み得る。
前記トンネルの進出地点を認識するステップは、前記ビジョンセンサによって撮影された映像が前記トンネルの出口の特定形状を含むか否かに基づいて前記トンネルの進出地点を認識するステップと、前記トンネルの進入地点を基準としてマッチングされた地図データ及び前記ホスト車両の走行速度に基づいて前記トンネルの進出地点を認識するステップとのいずれか1つ又は2つを含み得る。
前記ホスト車両が前記閾値距離内に位置するか否かを判断するステップは、前記ホスト車両のビジョンセンサによって撮影された映像に基づいて、前記照度変化が予想される地点の深さ値を算出するステップと、前記深さ値に基づいて前記ホスト車両が前記閾値距離内に位置するか否かを判断するステップとを含み得る。
前記ホスト車両が前記閾値距離内に位置するか否かは、前記ホスト車両の走行の速度及び前記ホスト車両と前記照度変化が予想される地点間の残余距離に基づいて判断され得る。
前記ホスト車両のビジョンセンサを制御するステップは、前記ビジョンセンサの検出パラメータを制御するステップと、前記ビジョンセンサによって撮影された映像に対する映像処理を行うステップと、前記ビジョンセンサのためのフィルタを使用するか否かを決定するステップとのいずれか1つ又は2以上の組合せを含み得る。
前記ビジョンセンサの検出パラメータを制御するステップは、前記照度変化が予想される地点がトンネルの進入地点である場合、前記ホスト車両と前記進入地点との間の距離に応じて前記ビジョンセンサの感光度値を段階的に増加させるステップと、前記照度変化が予想される地点がトンネルの進出地点である場合、前記ホスト車両と前記進出地点との間の距離に応じて前記ビジョンセンサの感光度値を段階的に減少させるステップとを含み得る。
前記ビジョンセンサによって撮影された映像に対する映像処理を行うステップは、前記ビジョンセンサによって撮影された映像にトーンマッピングを通したハイダイナミックレンジイメージング(High Dynamic Range Imaging:HDRI)処理を行うステップを含み得る。
前記ビジョンセンサのためのフィルタを使用するか否かを制御するステップは、前記照度変化が予想される地点がトンネルの進入地点である場合、前記ビジョンセンサに前記フィルタを脱着するステップと、前記照度変化が予想される地点がトンネルの進出地点である場合、前記フィルタを装着するステップとを含み得る。
前記照度変化が予想される地点を予測するステップは、前記ホスト車両が逆光環境に露出されているか否かを判断するステップと、判断結果に応じて、前記ホスト車両の位置を前記照度変化が予想される地点に決定するステップとを含み得る。
前記ホスト車両が前記逆光環境に露出されているか否かを判断するステップは、照度センサによって測定された照度が前記逆光環境の閾値以上である場合、前記ホスト車両が前記逆光環境に露出されていると判断するステップと、前記ビジョンセンサによって撮影された映像から昼間の間にオブジェクトが認識される場合、前記ホスト車両が前記逆光環境に露出されていると判断するステップとのいずれか1つ又は2つを含み得る。
一実施形態に係るビジョンセンサの制御装置は、プロセッサを含み、前記プロセッサは、ホスト車両の走行経路上で、閾値以上の照度変化が発生するものと予想される地点を決定し、前記ホスト車両が前記予想される地点から閾値距離内に位置するか否かを判断し、前記ホスト車両が前記予想される地点から前記閾値距離内に位置するとの判断に応じて、予想される照度変化に基づいて前記ホスト車両にあるビジョンセンサを制御する。
前記ビジョンセンサの制御装置は、前記ホスト車両の走行経路の地図データを格納するメモリと、前記ホスト車両の走行位置のGPS座標を測定するGPSセンサと、前記ホスト車両の走行速度を検出する速度センサとをさらに含み、前記プロセッサは、前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、前記ホスト車両の走行位置に該当するGPS座標、及び前記ホスト車両の走行速度のいずれか1つ又は2以上の組合せに基づいて前記閾値以上の照度変化が予想される地点を予測し得る。
前記プロセッサは、前記ビジョンセンサによって撮影された映像と前記閾値以上の照度変化が予想される地点に対する予め学習された映像との間の類似度に基づいて、前記閾値以上の照度変化が予想される地点を予測し得る。
前記プロセッサは、前記ホスト車両の走行経路上に位置するトンネルの進入地点及び前記トンネルの進出地点の双方又は一方を認識し、前記トンネルの進入地点及び前記トンネルの進出地点の双方又は一方を前記照度変化が予想される地点として予測し得る。
前記プロセッサは、前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、及び前記ホスト車両の走行位置に該当するGPS座標のいずれか1つ又は2以上の組合せに基づいて前記トンネルの進入地点を認識する動作と、前記ビジョンセンサによって撮影された映像、前記地図データ、及び前記ホスト車両の走行速度のいずれか1つ又は2以上の組合せに基づいて前記トンネルの進出地点を認識する動作とのいずれか1つ又は2つを行う。
前記プロセッサは、前記ビジョンセンサによって撮影された映像が前記トンネルの入口の特定形状を含むか否かに基づいて前記トンネルの進入地点を認識する動作と、前記ホスト車両の走行経路の地図データ及び前記ホスト車両の走行位置に該当するGPS座標に基づいて前記トンネルの進入地点を認識する動作と、のいずれか1つ又は2つを行う。
前記プロセッサは、前記ビジョンセンサによって撮影された映像が前記トンネルの出口の特定形状を含むか否かに基づいて前記トンネルの進出地点を認識する動作と、前記トンネルの進入地点を基準としてマッチングされた地図データ及び前記ホスト車両の走行速度に基づいて前記トンネルの進出地点を認識する動作とのいずれか1つ又は2つを含み得る。
前記プロセッサは、前記ホスト車両のビジョンセンサによって撮影された映像に基づいて前記照度変化が予想される地点の深さ値を算出し、前記深さ値に基づいて前記ホスト車両が前記閾値距離内に位置するか否かを判断し得る。
前記プロセッサは、前記ホスト車両の走行の速度及び前記ホスト車両と前記照度変化が予想される地点間の残余距離に基づいて、前記ホスト車両が前記閾値距離内に位置するか否かを判断し得る。
前記プロセッサは、前記ビジョンセンサの検出パラメータを制御する動作と、前記ビジョンセンサによって撮影された映像に対する映像処理を行う動作と、前記ビジョンセンサのためのフィルタを使用するか否かを決定する動作とのいずれか1つ又は2以上の組合せを行う。
前記プロセッサは、前記照度変化が予想される地点がトンネルの進入地点である場合、前記ホスト車両と前記進入地点の間の距離に応じて前記ビジョンセンサの感光度値を段階的に増加させ、前記照度変化が予想される地点がトンネルの進出地点である場合、前記ホスト車両と前記進出地点との間の距離に応じて前記ビジョンセンサの感光度値を段階的に減少させ得る。
前記プロセッサは、前記ビジョンセンサによって撮影された映像にトーンマッピングを通したハイダイナミックレンジイメージング(HDRI)処理を行う。
前記プロセッサは、前記照度変化が予想される地点がトンネルの進入地点である場合、前記ビジョンセンサに前記フィルタを脱着し、前記照度変化が予想される地点がトンネルの進出地点である場合、前記フィルタを装着し得る。
前記プロセッサは、前記ホスト車両が逆光環境に露出されているか否かを判断し、判断結果に応じて前記ホスト車両の位置を前記照度変化が予想される地点に決定し得る。
前記ビジョンセンサの制御装置は、
照度を検出する照度センサをさらに含み、前記プロセッサは、前記照度センサによって測定された照度が前記逆光環境の閾値以上である場合、前記ホスト車両が前記逆光環境に露出されていると判断する動作と、前記ビジョンセンサによって撮影された映像から昼間の間にオブジェクトが認識される場合、前記ホスト車両が前記逆光環境に露出されていると判断する動作とのいずれか1つ又は2つを行う。
一実施形態に係るホスト車両の制御装置は、ホスト車両の走行経路上に示された映像を撮影するビジョンセンサと、プロセッサとを含み、前記プロセッサは、(a)撮影された映像、(b)前記ホスト車両の走行経路に関するマップデータ及び(c)前記ホスト車両の現在位置を示すGPS座標のいずれか1つ又は2以上の組合せを用いて前記ホスト車両の走行経路に沿って閾値以上の照度変化が発生する予想地点を決定し、前記ホスト車両が前記予想地点から前記ビジョンセンサを制御するための閾値距離内に位置するか否かを判断し、前記ホスト車両が前記閾値距離内に位置するという前記プロセッサの判断に基づいて予想される照度変化に基づいて前記ビジョンセンサを制御する。
前記プロセッサは、前記ビジョンセンサによって撮影された映像を逆光状態で映像に対する予め学習された映像と比較し、照明センサを使用せずに前記ホスト車両が逆光環境に露出されたかを判断し得る。
前記ホスト車両が逆光環境に露出されたというプロセッサの判断に応答して、前記プロセッサは、前記ビジョンセンサにフィルタを適用したり、又は、前記ビジョンセンサの感光度値を調整して逆光補正を行う。
前記プロセッサは、前記ホスト車両と前記予想地点との間の距離に基づいて前記ビジョンセンサの感光度値を調整し得る。
前記プロセッサは、前記ビジョンセンサのパラメータを調整する制御信号を生成し、前記ビジョンセンサを制御するパラメータ調整部と、前記ビジョンセンサにフィルタを付着又は脱着するか否かを制御し、前記ビジョンセンサを制御する信号を生成するフィルタ調整部とを含むコントローラを含み得る。
前記閾値は、気象条件、昼間又は夜間に基づいて設定され得る。
本発明によると、照度の急激な変化状況を予測して撮影装置を予め制御することで、撮影装置の急激な認識率の低下を防止することができる。
様々な時間帯及び様々な照度環境における閾値以上の照度変化が予想される地点(例えば、トンネル進入地点及びトンネル進出地点)に対する形状を学習したモデルを用いることによって、別途の照度センサがなしでビジョンセンサだけで照度変化が予想される地点を予測し、ビジョンセンサの照度変化レベルを調整することができる。
照度センサがなくとも、逆光状態のイメージを学習したモデルとビジョンセンサによって撮影された映像とを比較して逆光環境に露出されていると判断し、照度変化に基づいてビジョンセンサを制御することができる。
一実施形態に係るビジョンセンサを制御する実施形態を説明するための図である。 一実施形態に係るビジョンセンサの制御方法を示したフローチャートである。 一実施形態に係るトンネルの進入地点及びトンネルの進出地点を認識する方法を説明するための図である。 一実施形態に係る互いに異なる時間帯及び照度環境におけるトンネルの進入地点の形状を示す図である。 一実施形態に係る互いに異なる時間帯及び照度環境におけるトンネルの進出地点の形状を示す図である。 一実施形態に係るホスト車両が逆光環境に露出した状況を説明するための図である。 一実施形態に係る逆光環境の例示を示す図である。 一実施形態によりホスト車両が閾値距離内に位置するか否かを判断する方法を説明するための図である。 他の実施形態によりホスト車両が閾値距離内に位置するか否かを判断する方法を説明するための図である。 一実施形態により照度変化に基づいてビジョンセンサを制御する方法を説明するための図である。 一実施形態に係るビジョンセンサの制御装置のブロック図である。
本明細書に開示されている本発明の概念による実施形態に対して特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明するための目的として例示されたものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明された実施形態に限定されることはない。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結されて」いると言及された場合、その次の構成要素に直接的に連結されてもよく、又は中間に他の構成要素が存在することもあり得ると理解されなければならない。一方いずれかの構成要素が他の構成要素に「直接連結されて」いるか「直接接続されて」いと言及される場合には、中間に他の構成要素が存在しないものとして理解されなければならない。構成要素間の関係を説明する表現、例えば「〜間に」と「すぐ〜の間に」、又は「〜に隣接する」と「〜に直接に隣接する」などのように解釈されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
図1は、一実施形態に係るビジョンセンサを制御する実施形態を説明するための図である。図1を参照すると、自律走行中であるホスト車両がトンネル内で走行方向の前方に位置するトンネルの出口に向かって走行するとき、ホスト車両の内部又は上部に位置するイメージセンサ又はカメラによって撮影(capture)された映像110、及びホスト車両が逆光環境に露出した場合を撮影した映像130が示されている。逆光環境とは、撮影されたオブジェクト又はオブジェクトから反射した光以外に、ホスト車両のビジョンセンサ上に太陽からの直接的な入射光によりオブジェクトのイメージがぼやける環境をいう。
例えば、図1に示す映像110のように、ホスト車両がトンネルから進出する状況で暗いトンネル内と明るいトンネル外との間の急激な照度変化が発生する可能性がある。また、図1に示す映像130のように、ホスト車両が太陽光に向かって進行することにより被写体の後面で太陽光が投射される逆光が発生する可能性がある。
実施形態において、用語「感光度(light intensity)」及び「照度(illumination)」は互いに代替でき、したがって感光度の変化は照度変化を意味する。
トンネルの両端でこのような急激な照度変化が発生する場合、ホスト車両内部又は車両に備えられた撮影装置(例えば、ビジョンセンサ又はカメラなど)を用いて前方を撮影しても、トンネル両端のすぐに外側又は近接する距離(例えば、50フィート以内)の走行経路上に位置する車線、相手車両、信号機及び歩行者などのようなオブジェクトの認識が困難である場合がある。この場合、事故危険が大きく増加する。結果的に、ホスト車両の安全な動作及び走行ができなくなるのである。
一実施形態では、照度の急激な変化を予測して撮影装置を予め制御するように構成されたホスト車両内で、撮影装置と一体又は別個のプロセッサ又はコントローラを含むことによりホスト車両又はホスト車両内の撮影装置の認識率が急激に低下することを防止することができる。
図2は、一実施形態に係るビジョンセンサの制御方法を示したフローチャートである。図2を参照すると、一実施形態に係るビジョンセンサの制御装置(以下、「制御装置」)は、ホスト車両の走行経路上、閾値以上の照度変化が予想される地点を予測する(S210)。制御装置は、例えば、ビジョンセンサによって撮影された映像、ホスト車両の走行経路の地図データ、ホスト車両の走行位置に該当するGPS座標、及びホスト車両の走行速度のうち少なくとも1つに基づいて、閾値以上の照度変化が予想される地点を予測する。
「閾値以上の照度変化が予想される地点(予想地点)」は、ホスト車両が急激な照度変化によって撮影された映像でオブジェクトを認識できない地点である。予想地点は、例えば、トンネルの出口によって定義された位置又は場所のような暗い環境から明るい環境(又は、暗い環境よりもさらに多い量の光又は明るさを含む周辺環境)に車両が移動する地点、トンネルの入口によって定義される位置又は地点のような明るい環境から暗い環境(又は暗い環境より多い量の光又は明るさを含む周辺環境)に車両が移動する地点、又は撮影されたオブジェクトから反射した光以外にホスト車両のビジョンセンサ上に太陽からの直接的な入射光によりオブジェクトの映像がぼやける逆光効果をもたらす地点、周辺又は環境などを含んでよいが、これらに限定されない。
ホスト車両が実際のトンネルの出口に到達する前から逆光環境に露出するため、「閾値以上の照度変化が予想される地点」はトンネルの出口と正確に一致しないことがある。以下、トンネルの出口近辺で閾値以上の照度変化が予想される地点(point)、位置(position)又は場所(location)は、「トンネルの進出地点」といい、トンネルの入口近辺で閾値以上の照度変化が予想される地点、位置、又は場所を「トンネルの進入地点」という。
「閾値」は、ビジョンセンサにおけるオブジェクト認識が難しい程度の照度変化を示す値である。閾値は、例えば、天気、夜又は昼間のような時間帯などにより互いに相違に設定される。
制御装置は、例えば、ホスト車両の走行経路上に位置するトンネルの進入地点及びトンネルの進出地点のうち少なくとも1つを認識し、トンネルの進入地点及びトンネルの進出地点のうち少なくとも1つを照度変化が予想される地点として予測する。制御装置がトンネルの進入地点及びトンネルの進出地点を認識する方法については図3〜図5を参照して説明する。
実施形態に係る制御装置は、閾値以上の照度変化が予想される地点に対する予め学習されたモデルに基づいてビジョンセンサによって撮影された映像を分析することで、閾値以上の照度変化が予想される地点を予測する。モデルは、例えば、図4〜図5に示された形状を含む様々な映像に基づいて学習されたディープニューラルネットワーク(deep neural network)を含む。
又は、制御装置は、ホスト車両が逆光環境に露出されているか否かを判断し、判断結果に応じて、ホスト車両の位置を照度変化が予想される地点に決定する。ホスト車両が逆光環境に露出する状況については図6〜図7を参照して説明する。
映像認識に基づく自律走行方式で認識されるオブジェクトは、車線クラス、車両クラス、歩行者クラスなどに分類される。一実施形態によれば、ビジョンセンサによって撮影された映像から認識されたオブジェクトを分類するクラスとして、トンネル入口クラス、トンネル出口クラス、太陽クラス、又は、これらの様々な組合せが加えられてもよい。
制御装置は、ホスト車両が、照度変化の予想される地点から閾値距離内に位置するか否かを判断する(S230)。「閾値距離」は、ホスト車両のビジョンセンサを制御するために要求される最小限の距離である。ホスト車両が閾値距離内に位置するか否かについては図8〜図9を参照して説明する。
ステップS230でホスト車両が閾値距離内に位置するとの判断に応じて、制御装置は予想される照度変化に基づいてビジョンセンサを制御する(S250)。制御装置は、予想される照度変化に基づいてホスト車両のビジョンセンサを制御するためにコントローラにプログラムされたソフトウェア方式を含む構造的又はハードウェア装置である。制御装置がビジョンセンサを制御する方法は図10を参照して説明する。
図3は、一実施形態によりトンネルの進入地点又はトンネルの進出地点を認識する方法を説明するための図である。図3を参照すると、自律走行中であるホスト車両310の移動によりトンネルと関連して位置可能な各地点、位置A、B、C、Dが示されている。
地点Aはトンネルの入口を示し、地点Bはトンネル内部を示し、地点Cはトンネルの出口を示し、地点Dはトンネル外部を示す。言い換えれば、トンネルは地点A及びCによって定義される。各地点におけるホスト車両310の動作は次の通りである。以下でホスト車両310は、制御装置を含むホスト装置310のように理解される。
地点Aに進入する前にホスト車両310はホスト車両310にあるビジョンセンサによって撮影された映像、ホスト車両の走行経路の地図データ、及び/又はホスト車両の走行位置に該当するGPS座標を用いてトンネルの入口を認識する。例えば、ホスト車両310は、ビジョンセンサによって撮影された映像がトンネルの入口の特定形状(例えば、半円形)を含むか否かに基づいてトンネルの進入地点を認識する。又は、ホスト車両はビジョンセンサによって撮影された映像が夜又は昼の時間帯に互いに異なる照度変化が発生するトンネルの進入地点の形状を含むか否かに基づいてトンネルの進入地点を認識する。夜又は昼の時間帯に互いに異なる照度変化が発生するトンネルの進入地点の形状については図4を参照して説明することにする。
その他にも、ホスト車両310は、ホスト車両310の走行経路の地図データ、及びホスト車両310の走行位置に該当するGPS座標に基づいてトンネルの入口を認識する。ホスト車両310は、地図データで走行位置に該当するGPS座標に隣接するトンネルの入口のGPS座標を取得することによって、トンネルの入口を認識できる。ホスト車両310はトンネルの入口が認識されれば、地点Aを照度変化が予想される地点として予測する。ホスト車両310は、予めソフトウェア方式又はハードウェア方式によりビジョンセンサを制御することでトンネル内におけるビジョンセンサの認識性能を向上させることができる。
ホスト車両310は、例えば、トンネルの入口に到達する前にビジョンセンサの感光度(International Organization for Standardization:ISO)値を予め増加してトンネル進入により照度が突然暗くなる状況でも車線及び物体を確実に(robest)認識するようにする。又は、ホスト車両310は、ホスト車両310とトンネルの入口の間の距離に応じてビジョンセンサの感光度値を増加する過程で、地点、期間、又は、段階に対して段階的に増加させてもよい。ホスト車両310は、ビジョンセンサの感光度値を調整する代わりに、ハードウェアフィルタを脱着してもよい。ビジョンセンサの制御方法については後述する。
ホスト車両310がトンネル内の地点Bに位置する場合、トンネル内ではGPS座標を受信できない。この場合、ホスト車両310はビジョンセンサによって撮影された映像、地図データ及びホスト車両の走行速度などに基づいてトンネルの出口を認識する。
ホスト車両310がトンネル内の地点Bでトンネルの出口に向かって走行する場合、ホスト車両310はビジョンセンサを用いて前方を撮影した映像データから前方のトンネルの出口を認識する。ホスト車両310は、例えば、地点Bでビジョンセンサによって撮影された映像がトンネルの出口に関する特定形状(例えば、半円形)を含むか否かに基づいてトンネルの出口を認識する。
又は、ホスト車両310は、ビジョンセンサによって撮影された映像が夜又は昼の時間帯に互いに異なる照度変化が発生するトンネルの進出地点の形状を含むか否かに基づいてトンネルの進出地点を認識する。夜又は昼の時間帯に互いに異なる照度変化が発生するトンネルの進出地点の形状については図5を参照して説明する。
その他にも、ホスト車両310は、トンネルの入口を基準にしてマッチングされた地図データ及びホスト車両の走行速度に基づいてトンネルの出口を認識することもできる。例えば、ホスト車両310は、トンネルの入口に対する地図データからトンネル内の道路の全長さなどを把握する。ホスト車両310は、速度センサ、加速度センサなどを用いて検出したホスト車両310の走行速度により、トンネルの入口からの移動距離を算出してトンネル内車両の位置を把握することができ、トンネル内車両の位置に基づいてトンネルの出口を認識し得る。
ホスト車両310はトンネルの進出地点で映像を撮影する場合、他の車両、トンネル内部の照明、トンネル環境内の照明、及びトンネル外部の太陽又はトンネル外部の闇によって生成されたホスト車両の後方から照度差による逆光効果によって、トンネルの出口付近で走行中である相手車両330を正確に認識できな8いか、又は、車線間の境界を示す車線(例えば、黄色点線)350を正確に認識できないことがある。そのため、トンネル外部に太陽がある場合、ホスト車両310は、トンネルの出口又はトンネルの進出地点に到達する前に、ビジョンセンサの感光度値を予め減少させてトンネルの進出により照度が突然明るくなる状況でも車線350及び相手車両330を確実に認識するようにする。又は、ホスト車両310は、ホスト車両310とトンネルの出口又はトンネルの進出地点の間の距離に応じてビジョンセンサの感光度値を段階的に減少させ得る。
一方、夜間にトンネルの外側が暗い場合、ホスト車両310は相手車両330及び車線350を確実に認識するため、トンネルの出口に到達すれば光の強度が突然減少するにも関わらず、トンネルの出口又はトンネルの進出地点に到達する前にビジョンセンサの感光度値を増加させる。また、ホスト車両310は、ホスト車両310とトンネルの出口又はトンネルの進出地点間の距離に応じて感光度値を段階的に増加させることができる。
図4は、一実施形態に係る互いに異なる時間帯及び照度環境におけるトンネルの進入地点の形状を示す図である。図4を参照すると、夜又は昼の時間帯に互いに異なる照度変化が発生するトンネルの進入地点の形状410、420、430、440を示す。
形状410は、トンネル外部に位置するホスト車両が明るい昼間に真っ暗なトンネルの中に向かって進行する場合のトンネルの進入地点の形状を示す。形状410が認識される状況は、トンネルの外部と内部間の急激な照度変化が発生する可能性がある。この場合、制御装置は、予想される照度変化に応じてビジョンセンサを制御してトンネル内の事物及び車線などを確実に認識する。制御装置は、トンネル内の照明の明るさに応じてビジョンセンサの照度変化レベルを調整する。
形状420は、トンネル外部に位置するホスト車両が明るい昼間に明るいトンネルの中に向かって進行する場合のトンネルの進入地点の形状を示す。形状420が認識される状況は、トンネルの外部と内部間の照度変化が大きくないので制御装置は特別な照度制御動作を必要としないことがある。
形状430は、トンネル外部に位置するホスト車両が暗い夜に真っ暗なトンネルの中に向かって進行する場合のトンネルの進入地点の形状を示す。形状430が認識される状況は、トンネルの外部と内部間の照度変化が大きくないので制御装置は特別な照度制御動作を必要としないことがある。
形状440は、トンネル外部に位置するホスト車両が暗い夜に明るいトンネルの中に向かって進行する場合のトンネルの進入地点の形状を示す。形状440が認識される状況は、トンネルの外部と内部間の急激な照度変化が発生する可能性があるので、制御装置は、予想される照度変化に応じてビジョンセンサを制御してトンネル内の事物及び車線などを認識する。また、ホスト車両は、トンネル内の照明の明るさに応じてビジョンセンサの照度変化レベルを調整することができる。
図5は、一実施形態に係る互いに異なる時間帯及び照度環境におけるトンネルの進出地点の形状を示す図である。図5を参照すると、夜又は昼の時間帯に互いに異なる照度変化が発生するトンネルの進出地点の形状510、520、530、540が示されている。
形状510は、暗いトンネル内部に位置するホスト車両が明るい昼間にトンネルの外側に向かって進行する場合のトンネルの進出地点の形状を示す。形状510が認識される状況は、トンネルの外部と内部間の急激な照度変化が発生する可能性がある。この場合、制御装置は、予想される照度変化に応じてビジョンセンサを制御してトンネルの外側の事物及び車線を確実に認識することができる。制御装置は、トンネルの進出地点の付近における照度変化に応じてビジョンセンサの照度変化レベルを調整することもできる。
形状520は、暗いトンネル内部に位置するホスト車両が暗い夜にトンネルの外側に向かって進行する場合のトンネルの進出地点の形状を示す。形状520が認識される状況は、トンネルの外部と内部間の照度変化が大きくないので制御装置は特別な照度制御動作を必要としない。
形状530は、明るいトンネル内部に位置するホスト車両が明るい昼間にトンネルの外側に向かって進行する場合のトンネルの進出地点の形状を示す。形状530が認識される状況は、トンネルの外部と内部間の照度変化が大きくないので制御装置は特別な照度制御動作を必要としない。
形状540は、明るいトンネル内部に位置するホスト車両が暗い夜にトンネルの外側に向かって進行する場合のトンネルの進入地点の形状を示す。形状540が認識される状況は、トンネルの外部と内部間の急激な照度変化が発生する可能性があるので、制御装置は予想される照度変化に応じてビジョンセンサを制御してトンネル内の事物及び車線などを認識することができる。
実施形態に係る制御装置は、様々な時間帯及び様々な照度環境におけるトンネル進入地点及びトンネル進出地点に対する形状を学習したモデルを用いることによって、別途の照度センサがなしでビジョンセンサだけで照度変化が予想される地点を予測してビジョンセンサの照度変化レベルを調整することができる。
図6は、一実施形態に係るホスト車両が逆光環境に露出した状況を説明するための図である。図6を参照すると、ホスト車両610の進行方向の前方に太陽670が位置して、道路上にある相手車両630及び車線650が正確に認識されていない逆光状況が示されている。
被写体から反射する光の他に被写体の後方から直接ビジョンセンサに入射される太陽光によって発生する逆光は、物体の像をぼやけるため、撮影されたオブジェクトに対する正確な認識が困難になる。
一実施形態に係る制御装置は、ホスト車両が逆光環境に露出されているか否かを判断し、判断結果に応じて、ホスト車両の位置を照度変化が予想される地点に決定することができる。
制御装置は、例えば、照度センサによって測定された照度が逆光環境に関する閾値以上である場合、ホスト車両が逆光環境に露出されていると判断する。制御装置は、ホスト車両が逆光環境に露出されていると判断されれば、ホスト車両の現在位置を照度変化が予想される地点として決定してビジョンセンサを制御する。
又は、例えば、太陽の入射角をAとし、ビジョンセンサの方向をCであるとすれば、制御装置は、ビジョンセンサの方向Cと太陽の入射角Aとの差が予め決定した角度(例えば、90°)よりも小さければ、ビジョンセンサの方向Cは現在の逆光領域に含まれるものと判断する。一例として、太陽の入射角Aがビジョンセンサの方向Cとの関係で、C−90°<A<C+90°、又は|A−C|<90°を満足する場合、撮影方向に逆光が存在すると判断する。制御装置は、ホスト車両が逆光環境に露出されていると判断すれば、ホスト車両の現在位置を照度変化が予想される地点として決定してビジョンセンサを制御することができる。
その他にも、制御装置は、ビジョンセンサによって撮影された映像から昼間の間に検出されたオブジェクトが認識される場合、ホスト車両が逆光環境に露出されていると判断する。昼間の間に検出されたオブジェクトは、例えば、図7に示す710に示された太陽そのもの、又は、720に示された太陽の反射体であり得る。
図7は、一実施形態に係る逆光環境の例示を示す図である。図7を参照すると、太陽そのものによって逆光が発生する環境710、及び太陽の反射体によって逆光が発生する環境720を図示している。
太陽の反射体によって発生する逆光は、例えば、建物のガラス壁面などに反射した太陽光によって発生する可能性がある。
一実施形態に係る制御装置は照度センサがなくとも、逆光状態のイメージを学習したモデルとビジョンセンサによって撮影された映像とを比較して、ホスト車両が逆光環境に露出されていると判断する。逆光環境に露出されていると判断されれば、制御装置は、ビジョンセンサに対するフィルタ適用又はビジョンセンサの感光度(ISO)値の調整などのような逆光補正アルゴリズムを行う。ホスト車両は、逆光補正アルゴリズムを実行した後、自律走行モードのモデルに適用する。
制御装置は、逆光環境に露出されているか否かを判断するために、例えば、逆光状態のイメージデータで学習させたモデルを作るディップラーニング(deep learning)方式やヒストグラム(histogram)分析などのイメージ処理方式などを用いることができる。
このように、制御装置はビジョンセンサの露出を調整したり、ビジョンセンサのためのフィルタを制御することによって撮影されたオブジェクトがより明確に認識されるようにする。
図8は、一実施形態に係るホスト車両が閾値距離内に位置するか否かを判断する方法を説明するための図である。図8を参照すると、ホスト車両がトンネルの入口である地点Aに近接する場合と、トンネルの出口である地点Cに近接する場合が示されている。
制御装置は、GPSセンサとトンネルの入口を示す地図データを用いてホスト車両とトンネルの入口の間の距離を予測する。制御装置は、ホスト車両のビジョンセンサを制御するために、ホスト車両とトンネルの入口との間の距離、又は、照度変化が発生するものと予想される少なくとも1つの進入地点又は進出地点とホスト車両との間の距離が閾値距離内であるか否かを判断する。制御装置は、ホスト車両がトンネルの入口又は照度変化が予想される地点から閾値距離内に位置する判断に応じて、ビジョンセンサを制御し得る。
一実施形態によれば、閾値距離はホスト車両の走行速度によって変わり得る。例えば、ホスト車両の走行速度が速いほど、照度変化が予想される地点に到達するまで費やされる時間が減少するため、閾値距離は増加する。
制御装置は、トンネルの入口を基準としてマッチングされた地図データ及びホスト車両の走行速度に基づいてトンネル内のホスト車両の位置を予測し、トンネルの出口までの残余距離を算出してホスト車両が閾値距離内に位置するかを判断する。
図9は、他の実施形態によりホスト車両が閾値距離内に位置するか否かを判断する方法を説明するための図である。図9を参照すると、ホスト車両がトンネルの進入地点に向かって運行する場合、進入地点までの距離に応じてそれぞれ相異に撮影される映像910、920が示されている。
映像910は、ホスト車両が照度変化が予想される地点(例えば、トンネルの進入地点)から遠く離れた場合に撮影した映像であり、映像920は、ホスト車両が一定の走行速度で移動して照度変化が予想される地点に近接した場合に撮影した映像である。
映像910と映像920において、ホスト車両と照度変化が予想される地点間の距離に応じて撮影された映像での深さ値(又は深度)が相異していることが確認される。
制御装置はホスト車両のビジョンセンサによって撮影された映像に基づいて、照度変化が予想される地点に対応する深さ値を算出し、深さ値に基づいてホスト車両が閾値距離内に位置するか否かを判断する。制御装置は、例えば、昼間に暗いトンネルに向かって進行する場合、撮影された映像におけるトンネルの進入地点に対する深さ値が次第に小さくなり、一定値に該当するとホスト車両がトンネルの進入地点に対する閾値距離に進入したものと判断する。
図面には示されていないが、ホスト車両がトンネル内部でトンネルの出口に向かって走行する場合、制御装置は、ビジョンセンサによって撮影された映像に基づいてトンネルの進出地点に対応する深さ値を算出することができる。
図10は、一実施形態により照度変化に基づいてビジョンセンサを制御する方法を説明するための図である。図10を参照すると、制御装置に含まれたカメラ調整部1010及びカメラモジュール1030が示されている。カメラモジュール1030はカメラ1040及びフィルタ1050を含む。カメラ1040は、ビジョンセンサなどの様々な撮影装置に該当する。
上述したように、制御装置は、予想される照度変化に基づいてビジョンセンサをソフトウェア方式及び/又はハードウェア方式で制御する。ソフトウェア方式の制御方法として、制御装置は、カメラ1040の検出パラメータ(例えば、感光度(ISO)値など)を制御したり、又は、ビジョンセンサによって撮影された映像に対する映像処理を行う。
カメラ調整部1010は、ホスト車両が照度変化が予想される地点から閾値距離内に位置するか否かに対する判断に応じて、カメラ1040に対するパラメータ制御信号をカメラ1040に送信する。例えば、照度変化が予想される地点がトンネルの進入地点である場合、カメラ調整部1010はカメラ1040の感光度値を増加させる制御信号を送信する。また、ホスト車両がトンネルの進出地点から閾値距離内に位置する場合、カメラ調整部1010は、カメラ1040の感光度値を減少させる制御信号を送信する。
制御装置は、例えば、カメラ1040によって撮影された映像で表示程度が異なる複数のイメージを合成して逆光を補正処理する、トーンマッピングを通したハイダイナミックレンジイメージング(High Dynamic Range Imaging:HDRI)処理を行うことで、撮影された映像に対する映像処理を行う。又は、制御装置は、例えば、ヒストグラム平均化(histogram equalization)のようなイメージ処理アルゴリズムを適用して映像処理を行ってもよい。
また、ハードウェア的な制御方法として、カメラ調整部1010は、ビジョンセンサのためのフィルタ1050の使用有無を制御する。フィルタ1050は、例えば、CPLフィルタ、NDフィルタ(ND3、ND8)など複数のフィルタを含む。カメラ調整部1010は、カメラ1040の表示程度を調整するために複数のフィルタのうち照度変化に応じて適切なフィルタを装着又は脱着するための選択信号をフィルタ1050に送信する。
制御装置は、照度変化が予想される地点がトンネルの進入地点である場合、カメラ調整部1010にカメラ1040に既存に装着されているフィルタを脱着する信号を送信する。制御装置は、照度変化が予想される地点がトンネルの進出地点である場合、カメラ調整部1010にカメラ1040に新しいフィルタを装着する信号を送信する。
制御装置は急激な照度変化が検出される場合、カメラ調整部1010によってフィルタ1050を自動交替して急激な照度変化に整備することができる。
一実施形態に係る制御装置は、センサ情報あるいは認識によって照度変化に応じる閾値以上の照度変化が予想される地点(又は、認識できない地点)を予め予測し、一次的にソフトウェア的な制御方法でカメラ1040を調整し、ソフトウェア方式の制御で対応できない照度変化が予測される場合は、ハードウェア方式によりフィルタを用いてカメラ1040のレンズの露出を減少させて照度を調整することができる。
図11は、一実施形態に係るビジョンセンサの制御装置のブロック図である。図11を参照すると、一実施形態に係るビジョンセンサの制御装置1100は、ビジョンセンサ1110及びプロセッサ1120を含み、実施形態により照度センサ1130、メモリ1140、速度センサ1150、及びGPSセンサ1160をさらに含む。ビジョンセンサ1110、プロセッサ1120、照度センサ1130、メモリ1140、速度センサ1150、及びGPSセンサ1160は通信バス(bus)1105を用いて接続される。
ビジョンセンサ1110は、ホスト車両の走行経路上に示されるオブジェクトを撮影する。
プロセッサ1120は、ホスト車両の走行経路上、閾値以上の照度変化が予想される地点を予測する。プロセッサ1120は、ホスト車両が、照度変化の予想される地点からホスト車両のビジョンセンサ1110を制御するための閾値距離内に位置するか否かを判断する。プロセッサ1120は、ホスト車両が閾値距離内に位置するとの判断に応じて、予想される照度変化に基づいてビジョンセンサ1110を制御する。
プロセッサ1120は、オブジェクト認識及び照度判断部1121及び調整部1125を含む。オブジェクト認識及び照度判断部1121は、照度判断結果に応じて調整部1125によるビジョンセンサ1110の制御の有無を決定する。調整部1125は、パラメータ調整部1123及びフィルタ調整部1124を含む。
パラメータ調整部1123は、ビジョンセンサ1110のパラメータを調整するための制御信号を生成する。パラメータ調整部1123は、ビジョンセンサ1110に対するソフトウェア方式の制御を提供する。フィルタ調整部1124は、ビジョンセンサ1110のためのフィルタの脱着の有無を制御する信号を生成する。フィルタ調整部1124は、ビジョンセンサ1110に対するハードウェア方式の制御を提供する。
他の例によれば、パラメータ調整部1124はソフトウェア方式を用いてビジョンセンサ1110を制御し、フィルタ調整部1124はハードウェア方式を用いてビジョンセンサ1110を制御する。プロセッサ1120は、その他にも、図1〜図10を参照して前述した少なくとも1つの方法を行うように構成された構造的なハードウェア装置である。プロセッサ1120はプログラムを実行し、ビジョンセンサの制御装置1100を制御する。プロセッサ1120によって実行されるプログラムコードはメモリ1140に格納される。
照度センサ1130は、現在の状態における照度を検出する。プロセッサ1120は、照度センサ1130によって測定された照度が逆光環境に関する閾値以上である場合、ホスト車両が逆光環境に露出されていると判断する。また、プロセッサ1120は、ビジョンセンサ1110によって撮影された映像から太陽に関するオブジェクトが認識される場合、ホスト車両が逆光環境に露出されていると判断する。又は、プロセッサ1120は、照度センサ1130によって測定された照度が逆光環境に関する閾値以上であり、ビジョンセンサ1110によって撮影された映像から太陽に関するオブジェクトが認識される場合、ホスト車両が逆光環境に露出されていると判断する。
メモリ1140は、ホスト車両の走行経路の地図データを格納する。メモリ1140は、上述したプロセッサ1120における処理過程で生成される様々な情報を格納する。また、メモリ1140は、送受信インターフェース(図示せず)を介して受信された情報を格納する。
その他にも、メモリ1140は、各種データとプログラムなどを格納してもよい。メモリ1140は、揮発性メモリ又は不揮発性メモリを含む。メモリ1140は、ハードディスクなどのような大容量格納媒体を備えて各種のデータを格納する。例えば、メモリ1140は、1つ以上のハードディスクを用いて地図データを格納し得る。
速度センサ1150は、ホスト車両の走行速度を検出する。GPSセンサ1160は、ホスト車両の走行位置に該当するGPS座標を測定する。
プロセッサ1120は、ビジョンセンサ1110によって撮影された映像、メモリ1140に格納された地図データ、GPSセンサ1160で測定されたGPS座標、及び速度センサ1150に検出された走行速度のうち少なくとも1つに基づいて閾値以上の照度変化が予想される地点を予測する。
一実施形態に係るビジョンセンサの制御装置1100は自律走行車両であってもよく、自律走行車両に含まれた別途の装置であってもよい。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。
1010:カメラ調整部
1030:カメラモジュール
1040:カメラ
1050:フィルタ

Claims (37)

  1. ホスト車両の走行経路上で、閾値以上の照度変化が発生するものと予想される地点を決定するステップと、
    前記ホスト車両が前記予想される地点から閾値距離内に位置するか否かを判断するステップと、
    前記ホスト車両が前記予想される地点から前記閾値距離内に位置するとの判断に応じて、予想される照度変化に基づいて前記ホスト車両にあるビジョンセンサを制御するステップと、
    を含むビジョンセンサの制御方法。
  2. 前記照度変化が予想される地点を予測するステップは、前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、前記ホスト車両の走行位置のGPS座標、及び前記ホスト車両の走行速度のいずれか1つ又は2以上の組合せに基づいて、前記閾値以上の照度変化が予想される地点を予測するステップを含む、請求項1に記載のビジョンセンサの制御方法。
  3. 前記照度変化が予想される地点を予測するステップは、前記ビジョンセンサによって撮影された映像と前記閾値以上の照度変化が予想される地点に対する予め学習された映像との間の類似度に基づいて、前記閾値以上の照度変化が予想される地点を予測するステップを含む、請求項1又は2に記載のビジョンセンサの制御方法。
  4. 前記照度変化が予想される地点を予測するステップは、前記ホスト車両の走行経路上に位置するトンネルの進入地点及び前記トンネルの進出地点の双方又は一方を認識するステップと、
    前記トンネルの進入地点及び前記トンネルの進出地点の双方又は一方を前記照度変化が予想される地点として予測するステップと、
    を含む、請求項1ないし3のうち何れか一項に記載のビジョンセンサの制御方法。
  5. 前記トンネルの進入地点及び前記トンネルの進出地点の双方又は一方を認識するステップは、
    前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、及び前記ホスト車両の走行位置のGPS座標のいずれか1つ又は2以上に基づいて、前記トンネルの進入地点を認識するステップと、
    前記ビジョンセンサによって撮影された映像、前記地図データ及び前記ホスト車両の走行速度のうち少なくとも1つに基づいて前記トンネルの進出地点を認識するステップと、
    のうちの1つ以上を含む、請求項4に記載のビジョンセンサの制御方法。
  6. 前記トンネルの進入地点を認識するステップは、
    前記ビジョンセンサによって撮影された映像が前記トンネルの入口の特定形状を含むか否かに基づいて前記トンネルの進入地点を認識するステップと、
    前記ホスト車両の走行経路の地図データ、及び前記ホスト車両の走行位置に該当するGPS座標に基づいて前記トンネルの進入地点を認識するステップと、
    のうちの1つ以上を含む、請求項5に記載のビジョンセンサの制御方法。
  7. 前記トンネルの進出地点を認識するステップは、
    前記ビジョンセンサによって撮影された映像が前記トンネルの出口の特定形状を含むか否かに基づいて前記トンネルの進出地点を認識するステップと、
    前記トンネルの進入地点を基準としてマッチングされた地図データ及び前記ホスト車両の走行速度に基づいて前記トンネルの進出地点を認識するステップと、
    のうちの1つ以上を含む、請求項5に記載のビジョンセンサの制御方法。
  8. 前記ホスト車両が前記閾値距離内に位置するか否かを判断するステップは、
    前記ホスト車両のビジョンセンサによって撮影された映像に基づいて、前記照度変化が予想される地点の深さ値を算出するステップと、
    前記深さ値に基づいて、前記ホスト車両が前記閾値距離内に位置するか否かを判断するステップと、
    を含む、請求項1ないし7のうち何れか一項に記載のビジョンセンサの制御方法。
  9. 前記ホスト車両が前記閾値距離内に位置するか否かは、前記ホスト車両の走行の速度及び前記ホスト車両と前記照度変化が予想される地点間の残余距離に基づいて判断される、請求項1ないし7のうち何れか一項に記載のビジョンセンサの制御方法。
  10. 前記ホスト車両のビジョンセンサを制御するステップは、
    前記ビジョンセンサの検出パラメータを制御するステップと、
    前記ビジョンセンサによって撮影された映像に対する映像処理を行うステップと、
    前記ビジョンセンサのためのフィルタを使用するか否かを決定するステップと、
    のうちの1つ以上を含む、請求項1ないし9のうち何れか一項に記載のビジョンセンサの制御方法。
  11. 前記ビジョンセンサの検出パラメータを制御するステップは、
    前記照度変化が予想される地点がトンネルの進入地点である場合、前記ホスト車両と前記進入地点との間の距離に応じて前記ビジョンセンサの感光度値を段階的に増加させるステップと、
    前記照度変化が予想される地点がトンネルの進出地点である場合、前記ホスト車両と前記進出地点との間の距離に応じて前記ビジョンセンサの感光度値を段階的に減少させるステップと、
    を含む、請求項10に記載のビジョンセンサの制御方法。
  12. 前記ビジョンセンサによって撮影された映像に対する映像処理を行うステップは、前記ビジョンセンサによって撮影された映像にトーンマッピングを通したハイダイナミックレンジイメージング(High Dynamic Range Imaging:HDRI)処理を行うステップを含む、請求項10に記載のビジョンセンサの制御方法。
  13. 前記ビジョンセンサのためのフィルタを使用するか否かを決定するステップは、
    前記照度変化が予想される地点がトンネルの進入地点である場合、前記ビジョンセンサに前記フィルタを脱着するステップと、
    前記照度変化が予想される地点がトンネルの進出地点である場合、前記フィルタを装着するステップと、
    を含む、請求項10に記載のビジョンセンサの制御方法。
  14. 前記照度変化が予想される地点を予測するステップは、
    前記ホスト車両が逆光環境に露出されているか否かを判断するステップと、
    判断結果に応じて、前記ホスト車両の位置を前記照度変化が予想される地点に決定するステップと、
    を含む、請求項1に記載のビジョンセンサの制御方法。
  15. 前記ホスト車両が前記逆光環境に露出されているか否かを判断するステップは、
    照度センサによって測定された照度が前記逆光環境の閾値以上である場合、前記ホスト車両が前記逆光環境に露出されていると判断するステップと、
    前記ビジョンセンサによって撮影された映像から昼間の間にオブジェクトが認識される場合、前記ホスト車両が前記逆光環境に露出されていると判断するステップと、
    のうちの1つ以上を含む、請求項14に記載のビジョンセンサの制御方法。
  16. ハードウェアと結合して請求項1乃至15のいずれか一項に記載の方法を実行させるために媒体に格納されたコンピュータプログラム。
  17. プロセッサを含む制御装置であって、
    前記プロセッサは、
    ホスト車両の走行経路上で、閾値以上の照度変化が発生するものと予想される地点を決定し、前記ホスト車両が前記予想される地点から閾値距離内に位置するか否かを判断し、前記ホスト車両が前記予想される地点から前記閾値距離内に位置するとの判断に応じて、予想される照度変化に基づいて前記ホスト車両にあるビジョンセンサを制御する、ビジョンセンサの制御装置。
  18. 前記ホスト車両の走行経路の地図データを格納するメモリと、
    前記ホスト車両の走行位置のGPS座標を測定するGPSセンサと、
    前記ホスト車両の走行速度を検出する速度センサと、
    をさらに含み、
    前記プロセッサは、前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、前記ホスト車両の走行位置に該当するGPS座標、及び前記ホスト車両の走行速度のいずれか1つ又は2以上の組合せに基づいて前記閾値以上の照度変化が予想される地点を予測する、請求項17に記載のビジョンセンサの制御装置。
  19. 前記プロセッサは、前記ビジョンセンサによって撮影された映像と前記閾値以上の照度変化が予想される地点に対する予め学習された映像との間の類似度に基づいて、前記閾値以上の照度変化が予想される地点を予測する、請求項17又は18に記載のビジョンセンサの制御装置。
  20. 前記プロセッサは、前記ホスト車両の走行経路上に位置するトンネルの進入地点及び前記トンネルの進出地点の双方又は一方を認識し、前記トンネルの進入地点及び前記トンネルの進出地点の双方又は一方を前記照度変化が予想される地点として予測する、請求項17ないし19のうち何れか一項に記載のビジョンセンサの制御装置。
  21. 前記プロセッサは、
    前記ビジョンセンサによって撮影された映像、前記ホスト車両の走行経路の地図データ、及び前記ホスト車両の走行位置に該当するGPS座標のいずれか1つ又は2以上の組合せに基づいて前記トンネルの進入地点を認識する動作と、
    前記ビジョンセンサによって撮影された映像、前記地図データ、及び前記ホスト車両の走行速度のいずれか1つ又は2以上の組合せに基づいて前記トンネルの進出地点を認識する動作と、
    のうちの1つ以上を行う、請求項20に記載のビジョンセンサの制御装置。
  22. 前記プロセッサは、
    前記ビジョンセンサによって撮影された映像が前記トンネルの入口の特定形状を含むか否かに基づいて前記トンネルの進入地点を認識する動作と、
    前記ホスト車両の走行経路の地図データ及び前記ホスト車両の走行位置に該当するGPS座標に基づいて前記トンネルの進入地点を認識する動作と、
    のうちの1つ以上を行う、請求項21に記載のビジョンセンサの制御装置。
  23. 前記プロセッサは、
    前記ビジョンセンサによって撮影された映像が前記トンネルの出口の特定形状を含むか否かに基づいて前記トンネルの進出地点を認識する動作と、
    前記トンネルの進入地点を基準としてマッチングされた地図データ及び前記ホスト車両の走行速度に基づいて前記トンネルの進出地点を認識する動作と、
    のうちの1つ以上を含む、請求項21に記載のビジョンセンサの制御装置。
  24. 前記プロセッサは、前記ホスト車両のビジョンセンサによって撮影された映像に基づいて前記照度変化が予想される地点の深さ値を算出し、前記深さ値に基づいて前記ホスト車両が前記閾値距離内に位置するか否かを判断する、請求項17ないし23のうち何れか一項に記載のビジョンセンサの制御装置。
  25. 前記プロセッサは、前記ホスト車両の走行の速度及び前記ホスト車両と前記照度変化が予想される地点間の残余距離に基づいて、前記ホスト車両が前記閾値距離内に位置するか否かを判断する、請求項17ないし23のうち何れか一項に記載のビジョンセンサの制御装置。
  26. 前記プロセッサは、
    前記ビジョンセンサの検出パラメータを制御する動作と、
    前記ビジョンセンサによって撮影された映像に対する映像処理を行う動作と、
    前記ビジョンセンサのためのフィルタを使用するか否かを決定する動作と、
    のうちの1つ以上を行う、請求項17ないし25のうち何れか一項に記載のビジョンセンサの制御装置。
  27. 前記プロセッサは、
    前記照度変化が予想される地点がトンネルの進入地点である場合、前記ホスト車両と前記進入地点の間の距離に応じて前記ビジョンセンサの感光度値を段階的に増加させ、
    前記照度変化が予想される地点がトンネルの進出地点である場合、前記ホスト車両と前記進出地点との間の距離に応じて前記ビジョンセンサの感光度値を段階的に減少させる、請求項26に記載のビジョンセンサの制御装置。
  28. 前記プロセッサは、前記ビジョンセンサによって撮影された映像にトーンマッピングを通したハイダイナミックレンジイメージング(HDRI)処理を行う、請求項26に記載のビジョンセンサの制御装置。
  29. 前記プロセッサは、
    前記照度変化が予想される地点がトンネルの進入地点である場合、前記ビジョンセンサに前記フィルタを脱着し、
    前記照度変化が予想される地点がトンネルの進出地点である場合、前記フィルタを装着する、請求項26に記載のビジョンセンサの制御装置。
  30. 前記プロセッサは、前記ホスト車両が逆光環境に露出されているか否かを判断し、判断結果に応じて前記ホスト車両の位置を前記照度変化が予想される地点に決定する、請求項17に記載のビジョンセンサの制御装置。
  31. 照度を検出する照度センサをさらに含み、
    前記プロセッサは、
    前記照度センサによって測定された照度が前記逆光環境の閾値以上である場合、前記ホスト車両が前記逆光環境に露出されていると判断する動作と、
    前記ビジョンセンサによって撮影された映像から昼間の間にオブジェクトが認識される場合、前記ホスト車両が前記逆光環境に露出されていると判断する動作と、
    のいずれか1つ又は2つを行う、請求項30に記載のビジョンセンサの制御装置。
  32. ホスト車両の制御装置であって、
    前記ホスト車両の走行経路上に示された映像を撮影するビジョンセンサと、
    プロセッサと、
    を含み、
    前記プロセッサは、
    (a)撮影された映像、(b)前記ホスト車両の走行経路に関するマップデータ及び(c)前記ホスト車両の現在位置を示すGPS座標のいずれか1つ又は2以上の組合せを用いて前記ホスト車両の走行経路に沿って閾値以上の照度変化が発生する予想地点を決定し、
    前記ホスト車両が、前記予想地点から、前記ビジョンセンサを制御するための閾値距離内に位置するか否かを判断し、
    前記ホスト車両が前記閾値距離内に位置するという前記プロセッサの判断に基づいて予想される照度変化に基づいて前記ビジョンセンサを制御する、
    ホスト車両の制御装置。
  33. 前記プロセッサは、前記ビジョンセンサによって撮影された映像を逆光状態で映像に対する予め学習された映像と比較し、照明センサを使用せずに前記ホスト車両が逆光環境に露出されたかを判断する、請求項32に記載のホスト車両の制御装置。
  34. 前記ホスト車両が前記逆光環境に露出されたというプロセッサの判断に応答して、
    前記プロセッサは、前記ビジョンセンサにフィルタを適用し、又は、前記ビジョンセンサの感光度値を調整して逆光補正を行う、請求項33に記載のホスト車両の制御装置。
  35. 前記プロセッサは、前記ホスト車両と前記予想地点との間の距離に基づいて前記ビジョンセンサの感光度値を調整する、請求項32ないし34のうちの何れか一項に記載のホスト車両の制御装置。
  36. 前記プロセッサは、
    前記ビジョンセンサのパラメータを調整する制御信号を生成し、前記ビジョンセンサを制御するパラメータ調整部と、
    前記ビジョンセンサにフィルタを付着又は脱着するか否かを制御し、前記ビジョンセンサを制御する信号を生成するフィルタ調整部と、
    を含むコントローラを含む、請求項32ないし35のうち何れか一項に記載のホスト車両の制御装置。
  37. 前記閾値は、気象条件、昼間又は夜間に基づいて設定される、請求項32ないし36のうちの何れか一項に記載のホスト車両の制御装置。
JP2017100676A 2016-09-01 2017-05-22 自律走行車両のためのビジョンセンサの制御方法及び装置 Pending JP2018037061A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160112452A KR20180025591A (ko) 2016-09-01 2016-09-01 자율 주행 차량을 위한 비전 센서의 제어 방법 및 장치
KR10-2016-0112452 2016-09-01

Publications (1)

Publication Number Publication Date
JP2018037061A true JP2018037061A (ja) 2018-03-08

Family

ID=58464199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017100676A Pending JP2018037061A (ja) 2016-09-01 2017-05-22 自律走行車両のためのビジョンセンサの制御方法及び装置

Country Status (5)

Country Link
US (1) US10657387B2 (ja)
EP (1) EP3291134A1 (ja)
JP (1) JP2018037061A (ja)
KR (1) KR20180025591A (ja)
CN (1) CN107797549A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020196092A1 (ja) * 2019-03-27 2020-10-01 ソニー株式会社 撮像システム及び撮像システムの制御方法、並びに、物体認識システム
JPWO2019116784A1 (ja) * 2017-12-12 2020-12-17 ソニー株式会社 情報処理装置、移動体、制御システム、情報処理方法及びプログラム
WO2022009506A1 (ja) 2020-07-07 2022-01-13 株式会社 東芝 撮影装置
WO2023162561A1 (ja) * 2022-02-25 2023-08-31 古野電気株式会社 物標監視装置、操船システム、物標監視方法、及びプログラム
JP7476628B2 (ja) 2020-04-02 2024-05-01 株式会社Jvcケンウッド 車両用撮像装置、画像処理方法、及び画像処理プログラム
JP7537262B2 (ja) 2020-12-15 2024-08-21 株式会社デンソー 車載用カメラ

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10802450B2 (en) 2016-09-08 2020-10-13 Mentor Graphics Corporation Sensor event detection and fusion
CN111684455B (zh) * 2018-02-09 2024-11-08 索尼公司 识别装置、识别方法和程序产品
CN108449550A (zh) * 2018-03-23 2018-08-24 元橡科技(北京)有限公司 一种自适应的相机曝光方法和装置
DE102018112518B4 (de) 2018-05-24 2023-05-04 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Notfallassistent "Bremsung bei plötzlich erkanntem zu niedrigem Reibwert"
DE102018112517B4 (de) 2018-05-24 2023-05-04 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Notfallassistent "Kurvenfahrt bei plötzlich erkanntem zu niedrigem Reibwert"
US11215999B2 (en) * 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11144775B2 (en) * 2018-06-25 2021-10-12 Cnh Industrial Canada, Ltd. System and method for illuminating the field of view of a vision-based sensor mounted on an agricultural machine
KR102584501B1 (ko) * 2018-10-05 2023-10-04 삼성전자주식회사 자율 주행 장치의 객체 인식 방법 및 자율 주행 장치
WO2020075147A1 (en) * 2018-10-13 2020-04-16 Fovea Technology Intelligent vision system and methods
CN109246364B (zh) * 2018-10-26 2021-10-01 华为技术有限公司 摄像装置调整方法及相关设备
US20200167573A1 (en) * 2018-11-27 2020-05-28 GM Global Technology Operations LLC Method and apparatus for object detection in camera blind zones
TWI726274B (zh) * 2019-01-19 2021-05-01 宏碁股份有限公司 影像感測系統及其調控方法
WO2020218655A1 (ko) * 2019-04-26 2020-10-29 엘지전자 주식회사 자율주행 차량의 영상 처리 방법
US11265480B2 (en) * 2019-06-11 2022-03-01 Qualcomm Incorporated Systems and methods for controlling exposure settings based on motion characteristics associated with an image sensor
DE102019214445A1 (de) * 2019-09-23 2021-03-25 Robert Bosch Gmbh Verfahren zum Assistieren eines Kraftfahrzeugs
EP3822123B1 (en) 2019-11-13 2023-01-25 Ningbo Geely Automobile Research & Development Co. Ltd. Method and arrangement for light adaptation of a vehicle driver when exiting a tunnel
KR102309949B1 (ko) * 2019-11-26 2021-10-08 (주)비트리 영상 처리 장치 및 그 방법
WO2021111891A1 (ja) * 2019-12-05 2021-06-10 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN110986966B (zh) * 2019-12-17 2021-06-22 苏州智加科技有限公司 一种用于长距离隧道的自动驾驶定位方法及系统
DE112019007983T5 (de) * 2019-12-20 2022-12-15 Honda Motor Co., Ltd. Arbeitsmaschine und Verarbeitungsvorrichtung
US11769412B2 (en) * 2020-06-10 2023-09-26 Hyundai Mobis Co., Ltd. Rear side warning system and method for vehicle
CN113016175A (zh) * 2020-07-20 2021-06-22 深圳市大疆创新科技有限公司 确定主摄像装置曝光参数的方法、系统、可移动平台及存储介质
KR20220039022A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 비전 센서를 포함하는 이미지 처리 장치 및 그 동작 방법
CN112488054B (zh) * 2020-12-17 2023-10-27 深圳市优必选科技股份有限公司 一种人脸识别方法、装置、终端设备及存储介质
CN112631311A (zh) * 2021-03-05 2021-04-09 上海擎朗智能科技有限公司 移动机器人的定位方法、装置、移动机器人和存储介质
US20220358627A1 (en) * 2021-05-05 2022-11-10 Nvidia Corporation High dynamic range image processing with fixed calibration settings
US11887375B2 (en) * 2021-06-18 2024-01-30 Getac Technology Corporation Techniques for capturing enhanced images for pattern identifications
KR102717906B1 (ko) * 2021-10-27 2024-10-16 한국자동차연구원 자동차의 카메라 노출 제어장치 및 그 방법
US11722789B1 (en) 2022-02-01 2023-08-08 Ford Global Technologies, Llc Multi-camera imaging system selecting between visible and infrared views in a vehicle
KR20240015317A (ko) * 2022-07-27 2024-02-05 현대자동차주식회사 차량의 영상 처리 방법 및 시스템
US20240171864A1 (en) * 2022-11-21 2024-05-23 Apollo Autonomous Driving USA LLC On-board tuning of image signal processor for cameras of autonomous vehicles
DE102023004450B3 (de) 2023-11-04 2024-11-07 Mercedes-Benz Group AG Verfahren zur Vorsteuerung eines Fahrerassistenzsystems

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205645A (ja) * 1996-01-29 1997-08-05 Fujitsu Ten Ltd 前方環境認識装置
JPH1142972A (ja) * 1997-07-29 1999-02-16 Fujitsu Ten Ltd 画像処理装置
JPH11139225A (ja) * 1997-11-07 1999-05-25 Nissan Motor Co Ltd トンネル検出装置及びそれを用いた車両制御装置
JP2005049955A (ja) * 2003-07-30 2005-02-24 Seiko Epson Corp 逆光画像の判定
JP2006030713A (ja) * 2004-07-16 2006-02-02 Alpine Electronics Inc 表示装置
WO2006098360A1 (ja) * 2005-03-15 2006-09-21 Omron Corporation 画像処理装置および画像処理方法、画像処理システム、プログラム、並びに、記録媒体
JP2008126905A (ja) * 2006-11-22 2008-06-05 Toyota Motor Corp 車窓透過率制御装置
JP2012073927A (ja) * 2010-09-29 2012-04-12 Fuji Heavy Ind Ltd 運転支援装置
WO2015086200A1 (en) * 2013-12-12 2015-06-18 Valeo Schalter Und Sensoren Gmbh Method for tracking a target object upon brightness change, camera system and motor vehicle
JP2015127170A (ja) * 2013-12-27 2015-07-09 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP2015148887A (ja) * 2014-02-05 2015-08-20 株式会社リコー 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP2015219569A (ja) * 2014-05-14 2015-12-07 株式会社デンソー 境界線認識装置および境界線認識プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100488728B1 (ko) 2003-05-15 2005-05-11 현대자동차주식회사 자동차의 2중 노출 카메라 시스템 및 영상 취득방법
JP4262566B2 (ja) 2003-10-16 2009-05-13 株式会社日立製作所 車載用撮像装置及びカメラ
JP2005167842A (ja) 2003-12-04 2005-06-23 Denso Corp 車載監視カメラの露出制御装置
US7394051B2 (en) * 2004-12-28 2008-07-01 P.I. Engineering, Inc. Image-based tracking system for model train control
JP4776295B2 (ja) * 2005-07-28 2011-09-21 富士通株式会社 走行路判定方法
JP4325642B2 (ja) 2006-05-31 2009-09-02 ソニー株式会社 移動体カメラシステム
US20080043099A1 (en) * 2006-08-10 2008-02-21 Mobileye Technologies Ltd. Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications
DE102007061658A1 (de) * 2007-12-18 2009-06-25 Adc Automotive Distance Control Systems Gmbh Klassifikation der Fahrzeugumgebung
JP2011070150A (ja) * 2009-04-14 2011-04-07 Nippon Hoso Kyokai <Nhk> Ndフィルタ及びテレビカメラ並びにndフィルタの製造方法
JP4757932B2 (ja) 2009-06-23 2011-08-24 アキュートロジック株式会社 車両用撮像装置の露出制御装置及び露出制御方法
KR101154552B1 (ko) 2009-12-04 2012-06-08 서강대학교산학협력단 전방 카메라를 이용한 차량의 기후 상황 감지 방법
JP5696927B2 (ja) 2009-12-25 2015-04-08 株式会社リコー 物体識別装置、並びに、これを備えた移動体制御装置及び情報提供装置
CN102196182A (zh) * 2010-03-09 2011-09-21 株式会社理光 逆光检测设备及逆光检测方法
KR20120071192A (ko) 2010-12-22 2012-07-02 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP5935432B2 (ja) * 2012-03-22 2016-06-15 株式会社リコー 画像処理装置、画像処理方法及び撮像装置
US8526677B1 (en) * 2012-07-16 2013-09-03 Google Inc. Stereoscopic camera with haptic feedback for object and location detection
KR20140075504A (ko) 2012-12-11 2014-06-19 현대자동차주식회사 차선 인식 시스템 및 방법
KR101355076B1 (ko) 2013-02-18 2014-01-27 주식회사 만도 차량 조도 환경 인식 장치 및 그 방법
KR101414572B1 (ko) 2013-02-18 2014-08-06 주식회사 만도 차선 인식 보조 장치 및 그 보조 방법
KR101511586B1 (ko) 2013-03-04 2015-04-13 현대오트론 주식회사 터널 인식에 의한 차량 제어장치 및 제어방법
US10279742B2 (en) * 2014-05-29 2019-05-07 Nikon Corporation Image capture device and vehicle
US9840256B1 (en) * 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205645A (ja) * 1996-01-29 1997-08-05 Fujitsu Ten Ltd 前方環境認識装置
JPH1142972A (ja) * 1997-07-29 1999-02-16 Fujitsu Ten Ltd 画像処理装置
JPH11139225A (ja) * 1997-11-07 1999-05-25 Nissan Motor Co Ltd トンネル検出装置及びそれを用いた車両制御装置
JP2005049955A (ja) * 2003-07-30 2005-02-24 Seiko Epson Corp 逆光画像の判定
JP2006030713A (ja) * 2004-07-16 2006-02-02 Alpine Electronics Inc 表示装置
WO2006098360A1 (ja) * 2005-03-15 2006-09-21 Omron Corporation 画像処理装置および画像処理方法、画像処理システム、プログラム、並びに、記録媒体
JP2008126905A (ja) * 2006-11-22 2008-06-05 Toyota Motor Corp 車窓透過率制御装置
JP2012073927A (ja) * 2010-09-29 2012-04-12 Fuji Heavy Ind Ltd 運転支援装置
WO2015086200A1 (en) * 2013-12-12 2015-06-18 Valeo Schalter Und Sensoren Gmbh Method for tracking a target object upon brightness change, camera system and motor vehicle
JP2015127170A (ja) * 2013-12-27 2015-07-09 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP2015148887A (ja) * 2014-02-05 2015-08-20 株式会社リコー 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP2015219569A (ja) * 2014-05-14 2015-12-07 株式会社デンソー 境界線認識装置および境界線認識プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019116784A1 (ja) * 2017-12-12 2020-12-17 ソニー株式会社 情報処理装置、移動体、制御システム、情報処理方法及びプログラム
JP7200946B2 (ja) 2017-12-12 2023-01-10 ソニーグループ株式会社 情報処理装置、制御システム、情報処理方法及びプログラム
US11698642B2 (en) 2017-12-12 2023-07-11 Sony Corporation Information processing apparatus, mobile object, control system, and information processing method
WO2020196092A1 (ja) * 2019-03-27 2020-10-01 ソニー株式会社 撮像システム及び撮像システムの制御方法、並びに、物体認識システム
US12131552B2 (en) 2019-03-27 2024-10-29 Sony Group Corporation Imaging system, method for controlling imaging system, and object recognition system
JP7476628B2 (ja) 2020-04-02 2024-05-01 株式会社Jvcケンウッド 車両用撮像装置、画像処理方法、及び画像処理プログラム
WO2022009506A1 (ja) 2020-07-07 2022-01-13 株式会社 東芝 撮影装置
JP7537262B2 (ja) 2020-12-15 2024-08-21 株式会社デンソー 車載用カメラ
WO2023162561A1 (ja) * 2022-02-25 2023-08-31 古野電気株式会社 物標監視装置、操船システム、物標監視方法、及びプログラム

Also Published As

Publication number Publication date
EP3291134A1 (en) 2018-03-07
US10657387B2 (en) 2020-05-19
KR20180025591A (ko) 2018-03-09
CN107797549A (zh) 2018-03-13
US20180060675A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP2018037061A (ja) 自律走行車両のためのビジョンセンサの制御方法及び装置
US11409303B2 (en) Image processing method for autonomous driving and apparatus thereof
US10489664B2 (en) Image processing device, device control system, and computer-readable storage medium
US9840256B1 (en) Predictive sensor array configuration system for an autonomous vehicle
JP5843898B2 (ja) 車両照度環境認識装置及びその方法
JP5207146B2 (ja) 遠距離灯の自動制御方法
CN103874931B (zh) 用于求取车辆的环境中的对象的位置的方法和设备
US8643723B2 (en) Lane-marker recognition system with improved recognition-performance
CN110087951B (zh) 用于机车倾斜的图像补偿
KR102519662B1 (ko) 영상 획득 방법 및 영상 획득 장치
JP2014024410A (ja) 車両光源検出装置、ライト制御装置、および車両光源検出プログラム
KR20140056510A (ko) 자동 노출 제어 장치 및 자동 노출 제어 방법
JP2016171509A (ja) キャリブレーション装置
WO2022244356A1 (en) Light interference detection during vehicle navigation
CN110774975B (zh) 一种基于图像识别的智能灯光控制方法及装置
JP2014024411A (ja) 自発光光源検出装置、ライト制御装置、および自発光光源検出プログラム
KR102448164B1 (ko) 차량용 레이더 제어 장치 및 방법
KR20160015734A (ko) 차량용 블랙박스의 초점 제어 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102