JP7359735B2 - 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 - Google Patents
物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 Download PDFInfo
- Publication number
- JP7359735B2 JP7359735B2 JP2020068674A JP2020068674A JP7359735B2 JP 7359735 B2 JP7359735 B2 JP 7359735B2 JP 2020068674 A JP2020068674 A JP 2020068674A JP 2020068674 A JP2020068674 A JP 2020068674A JP 7359735 B2 JP7359735 B2 JP 7359735B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- predicted
- vehicle
- next image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000004590 computer program Methods 0.000 title claims description 8
- 238000001514 detection method Methods 0.000 claims description 209
- 238000003384 imaging method Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 description 67
- 230000008569 process Effects 0.000 description 41
- 238000004364 calculation method Methods 0.000 description 34
- 230000015654 memory Effects 0.000 description 20
- 230000006399 behavior Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000002123 temporal effect Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000004397 blinking Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
- G06V30/19013—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、画像に表された物体の状態を識別する物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラム、ならびに、そのような物体状態識別装置を利用した、車両の走行を制御する制御装置に関する。
車両を自動運転するよう、車両を制御する技術が研究されている。車両を自動運転するためには、車両の周囲に存在する他の物体と車両とが衝突しないように、他の物体の挙動を予測した上で、車両の走行予定経路を設定することが求められる。そのために、車両の周囲に存在する他の物体の挙動を予測する技術が提案されている(例えば、特許文献1を参照)。
例えば、特許文献1に開示された移動体挙動予測装置は、車両から認識可能な移動体の挙動の予測結果と、予測時間経過後の移動体の挙動の認識結果に基づいて、移動体の第一予測挙動を出力するとともに、車両の挙動に基づいて、車両から認識可能な移動体の第二予測挙動を出力する。そしてこの移動体挙動予測装置は、移動体の挙動の予測結果と、予測時間経過後の移動体の挙動の認識結果との誤差を最小化するように第一予測挙動を学習し、自車両が不安全な運転を行わないように自車両の周辺の移動体の将来の第二予測挙動を学習する。さらに、この移動体挙動予測装置は、教師有り学習に基づいて第一予測挙動を出力する第一ニューラルネットワークと、強化学習に基づいて第二予測挙動を出力する第二ニューラルネットワークとを有する。
上記の技術のように、他の物体の挙動を予測する処理を、ニューラルネットワークを用いて実行する場合、演算量が非常に多くなることがある。そのため、他の物体の挙動を予測する処理を実行するハードウェアに対する要求が過大となり、あるいは、他の物体の挙動を予測する処理が所望の時間までに終了しないことがある。
そこで、本発明は、処理負荷を時間的に分散させることが可能な物体状態識別装置を提供することを目的とする。
一つの実施形態によれば、物体状態識別装置が提供される。この物体状態識別装置は、撮像部から画像を取得する度に、画像を第1の識別器に入力することで、画像に表された少なくとも一つの所定の物体のそれぞれについて、画像上でその物体を含む物体領域を検出する物体検出部と、少なくとも一つの所定の物体のそれぞれについて、撮像部から取得された画像の次に撮像部から得られる次画像におけるその物体の位置を予測可能か否か判定し、その物体の位置を予測可能な場合、次画像上の予測されるその物体の位置を含む予測物体領域を設定する予測部と、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されている物体について、次画像から物体領域が検出されるよりも前に、次画像上の予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで、時系列の外観変化を伴うその物体の状態を識別し、一方、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されていない物体について、次画像から検出された物体領域内の画素値から求められる特徴を第2の識別器に入力することで、時系列の外観変化を伴うその物体の状態を識別する状態識別部とを有する。
この物体状態識別装置において、第1の識別器よる物体領域の検出と、第2の識別器による少なくとも一つの所定の物体のそれぞれの状態の識別とは互いに異なる演算回路により実行されることが好ましい。
この場合において、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されている物体についての第2の識別器による状態の識別は、第1の識別器による次画像からの物体領域の検出と並列に実行されることが好ましい。
また、この物体状態識別装置において、予測部は、少なくとも一つの所定の物体のうち、画像上の物体領域の少なくとも一端が画像の何れか一端と接している物体について、次画像におけるその物体の位置を予測不能と判定し、その物体について次画像における予測物体領域を設定しないことが好ましい。
あるいはまた、この物体状態識別装置において、撮像部は、車両に搭載され、予測部は、少なくとも一つの所定の物体のそれぞれについて、車両が走行中の車線と隣接する車線を走行しているか否か判定し、かつ、車両からの距離を求め、少なくとも一つの所定の物体のうち、隣接する車線を走行しており、かつ、車両からの距離が所定距離以下となる物体について、次画像におけるその物体の位置を予測不能と判定し、その物体について次画像における予測物体領域を設定しないことが好ましい。
本発明の他の形態によれば、車両の走行を制御する制御装置が提供される。この制御装置は、車両に搭載された撮像部から画像を取得する度に、画像を第1の識別器に入力することで、画像に表された車両周囲の少なくとも一つの所定の物体のそれぞれについて、画像上でその物体を含む物体領域を検出する物体検出部と、少なくとも一つの所定の物体のそれぞれについて、撮像部から取得された画像の次に撮像部から得られる次画像におけるその物体の位置を予測可能か否か判定し、その物体の位置を予測可能な場合、次画像上の予測されるその物体の位置を含む予測物体領域を設定する予測部と、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されている物体について、次画像から物体領域が検出されるよりも前に、次画像上の予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで、時系列の外観変化を伴うその物体の状態を識別し、一方、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されていない物体について、次画像から検出された物体領域内の画素値から求められる特徴を第2の識別器に入力することで、時系列の外観変化を伴うその物体の状態を識別する状態識別部と、少なくとも一つの所定の物体のそれぞれについて、その物体の状態に基づいて、その物体が移動する軌跡を予測し、予測した軌跡に基づいて、車両が少なくとも一つの所定の物体の何れとも所定距離以上離れるように車両の走行予定経路を設定する運転計画部と、走行予定経路に沿って車両が走行するように車両を制御する車両制御部とを有する、
本発明のさらに他の形態によれば、物体状態識別方法が提供される。この物体状態識別方法は、撮像部から画像を取得する度に、画像を第1の識別器に入力することで、画像に表された少なくとも一つの所定の物体のそれぞれについて、画像上でその物体を含む物体領域を検出し、少なくとも一つの所定の物体のそれぞれについて、撮像部から取得された画像の次に撮像部から得られる次画像におけるその物体の位置を予測可能か否か判定し、その物体の位置を予測可能な場合、次画像上の予測されるその物体の位置を含む予測物体領域を設定し、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されている物体について、次画像から物体領域が検出されるよりも前に、次画像上の予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで、時系列の外観変化を伴うその物体の状態を識別し、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されていない物体について、次画像から検出された物体領域内の画素値から求められる特徴を第2の識別器に入力することで時系列の外観変化を伴うその物体の状態を識別する、ことを含む。
本発明のさらに他の形態によれば、物体状態識別用コンピュータプログラムが提供される。この物体状態識別用コンピュータプログラムは、撮像部から画像を取得する度に、画像を第1の識別器に入力することで、画像に表された少なくとも一つの所定の物体のそれぞれについて、画像上でその物体を含む物体領域を検出し、少なくとも一つの所定の物体のそれぞれについて、撮像部から取得された画像の次に撮像部から得られる次画像におけるその物体の位置を予測可能か否か判定し、その物体の位置を予測可能な場合、次画像上の予測されるその物体の位置を含む予測物体領域を設定し、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されている物体について、次画像から物体領域が検出されるよりも前に、次画像上の予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで、時系列の外観変化を伴うその物体の状態を識別し、少なくとも一つの所定の物体のうち、次画像について予測物体領域が設定されていない物体について、次画像から検出された物体領域内の画素値から求められる特徴を第2の識別器に入力することで時系列の外観変化を伴うその物体の状態を識別することをコンピュータに実行させるための命令を含む。
本発明に係る物体状態識別装置は、処理負荷を時間的に分散させることができるという効果を奏する。
以下、図を参照しつつ、物体状態識別装置、及び、物体状態識別装置において実行される物体状態識別方法ならびに物体状態識別用コンピュータプログラムについて説明する。この物体状態識別装置は、例えば、車両に搭載され、車両周囲の他の車両といった、検出対象となる物体(以下、検出対象物体と呼ぶことがある)に関して、時系列の外観変化を伴う状態を識別する。そのために、この物体状態識別装置は、車両に搭載されたカメラにより画像が得られる度に、その画像を、検出対象物体を検出するように予め学習された第1の識別器に入力することで、その画像上で検出対象物体を含む領域(以下、物体領域と呼ぶことがある)を検出する。また、この物体状態識別装置は、検出された検出対象物体を追跡することで、各画像において同じ検出対象物体が表された物体領域同士を対応付ける。一方、この物体状態識別装置は、追跡中の検出対象物体を含む物体領域の位置などに基づいて、次に得られる画像におけるその検出対象物体の位置を予測可能か否か判定し、その位置を予測可能な場合には、その検出対象物体の予測位置を含む予測物体領域を求める。そしてこの物体状態識別装置は、次に画像が得られたときに、検出対象物体の位置が予測可能と判定されている場合には、次の画像から第1の識別器により物体領域が検出されるよりも前に、予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで検出対象物体の状態を識別する。一方、次に画像が得られたときに、検出対象物体の位置が予測不能と判定されている場合には、この物体状態識別装置は、次の画像に対して第1の識別器により検出された物体領域内の画素値から求められる特徴を第2の識別器に入力することで検出対象物体の状態を識別する。これにより、同時に追跡中の複数の検出対象物体が存在しても、この物体状態識別装置は、第2の識別器による処理が実行されるタイミングを、検出対象物体ごとに異ならせることができる。そのため、この物体状態識別装置は、処理負荷を時間的に分散させることができる。さらに、この物体状態識別装置が複数の演算回路を有している場合、その複数の演算回路のうち、第2の識別器による処理を実行する演算回路の待ち時間が減少し、その結果として物体状態識別処理全体のスループットが向上する。
例えば、検出対象物体が車両であるとする。車両は、左折または右折する場合、ターンシグナルを点滅させる。また、車両は、減速する際にブレーキランプを点灯させ、停車する際などにハザードランプを点滅させる。これらターンシグナルまたはブレーキランプといった、車両の信号灯の点灯または点滅は、時系列の車両の外観の変化を伴うものであり、かつ、車両の挙動に関する状態を表している。しかし、ターンシグナル、ブレーキランプまたはハザードランプが表された個々の画像では、それらのランプの明滅の時系列変化が分からないため、ターンシグナルまたはハザードランプが点滅しているか否か、ブレーキランプが点灯しているか消灯しているかを、ターンシグナル、ブレーキランプまたはハザードランプが表された個々の画像から精度良く識別することは困難である。そこで、この物体状態識別装置は、上記のように、時系列の一連の画像のそれぞれの物体領域内の画素値から求められる特徴を、再帰構造を持つ第2の識別器に入力することで、ターンシグナルまたはハザードランプの点滅の有無、ブレーキランプの点灯及び消灯を精度良く識別することができる。
以下では、物体状態識別装置を、車両制御システムに適用した例について説明する。この例では、物体状態識別装置は、車両に搭載されたカメラにより得られた時系列の一連の画像に対して物体状態識別処理を実行することで、検出対象物体として、車両の周囲に存在する他の車両を検出する。そしてこの物体状態識別装置は、検出した他の車両の、外観変化を伴う状態として、左右何れかのターンシグナルまたはハザードランプの点滅状態か否か、ブレーキランプが点灯している状態あるいは消灯している状態かを識別する。
図1は、物体状態識別装置が実装される車両制御システムの概略構成図である。また図2は、物体状態識別装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体状態識別装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワーク4を介して通信可能に接続される。なお、車両制御システム1は、車両10の自動運転制御に用いられる地図を記憶するストレージ装置をさらに有していてもよい。さらに、車両制御システム1は、LiDARあるいはレーダといった測距センサ、GPS受信機といった、衛星測位システムに準拠して車両10の自己位置を測位するための受信機、他の機器と無線通信するための無線端末、及び、車両10の走行予定ルートを探索するためのナビゲーション装置などを有していてもよい。
カメラ2は、所定の検知範囲内に存在する物体を検出するためのセンサである撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であることが好ましい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。
カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワーク4を介してECU3へ出力する。
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワーク4に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク4を介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。なお、メモリ22は、後述するようにプロセッサ23が複数の演算ユニットを有する場合に、演算ユニットごとに専用のメモリ回路を有していてもよい。そしてメモリ22は、ECU3のプロセッサ23により実行される物体状態識別処理において使用される各種のデータ及びパラメータ、例えば、カメラ2から受信した画像、物体状態識別処理で利用される各識別器を特定するための各種パラメータ、及び、物体の種類ごとの確信度閾値などを記憶する。さらに、メモリ22は、検出された物体に関する情報を表す検出物体リストといった、物体状態識別処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。
プロセッサ23は、制御部の一例である。本実施形態では、プロセッサ23は、第1演算回路231と、第2演算回路232と、第3演算回路233とを有する。第1演算回路231は、例えば、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。また、第2演算回路232は、1個または複数個のグラフィック処理ユニット(Graphics Processing Unit, GPU)を有する。さらに、第3演算回路233は、いわゆるニューラルネットワークアクセラレータといった、第2の識別器で実行される所定の演算(例えば、畳み込み演算)に特化した1個または複数個の数値演算回路を有する。第1演算回路231と、第2演算回路232と、第3演算回路233とは、例えば、互いに参照可能な共有メモリ(図示せず)などを介して協働して所定の演算処理を実行することが可能となっている。また、第1演算回路231、第2演算回路232及び第3演算回路233のうち、第1演算回路231の汎用性が最も高いものの、第1演算回路231の演算速度は、第2演算回路232及び第3演算回路233の演算速度よりも遅い。これに対して、第2演算回路232が実行可能な演算の種類は、第1演算回路231が実行可能な演算の種類よりも制限されるものの、第2演算回路232の演算速度は第1演算回路231の演算速度よりも速い。そして第3演算回路233が実行可能な演算の種類は、第2演算回路232が実行可能な演算の種類よりもさらに制限されるものの、第3演算回路233の演算速度は、第1演算回路231の演算速度及び第2演算回路232の演算速度よりもさらに速い。なお、変形例によれば、第3演算回路233も、第2演算回路232が有するGPUと同じGPUを有してもよい。
プロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体状態識別処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
図3は、物体状態識別処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、追跡部32と、予測部33と、状態識別部34と、運転計画部35と、車両制御部36とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、追跡部32、予測部33及び状態識別部34が、物体状態識別処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて物体状態識別処理を実行してもよい。
物体検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を物体検出用の第1の識別器に入力することで、その画像に表されている検出対象物体を含む物体領域を検出するとともに、その検出対象物体の種類を特定する。なお、物体検出部31による物体検出処理のうち、第1の識別器による演算処理は、例えば、第2演算回路232により実行され、それ以外の処理は、例えば、第1演算回路231により実行される。
本実施形態では、物体検出部31は、第1の識別器として、画像に表された検出対象物体を含む物体領域を検出し、かつ、検出対象物体の種類を識別するように予め学習されたDNNを利用する。物体検出部31が利用するDNNは、例えば、Single Shot MultiBox Detector(SSD)、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク(以下、単にCNNと呼ぶ)型のアーキテクチャを持つ、いわゆるディープニューラルネットワーク(以下、単にDNNと呼ぶ)とすることができる。
図4は、第1の識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402及び種類推定部403とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上に表された検出対象物体の外接矩形を物体領域として出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された物体領域に表された検出対象物体の種類ごとの確信度を算出する。なお、位置検出部402及び種類推定部403は一体的に形成されてもよい。
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。さらにまた、主幹部401が有する複数の層には、1以上の全結合層が含まれてもよい。例えば、主幹部401は、SSDのベースレイヤーと同様の構成とすることができる。あるいは、主幹部401は、VGG-19、AlexNetあるいはNetwork-In-Networkといった他のCNNアーキテクチャに従って構成されてもよい。
主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。なお、主幹部401は、解像度の異なる複数のfeature mapを出力してもよい。例えば、主幹部401は、入力された画像の解像度と同じ解像度を持つfeature mapと、入力された画像の解像度よりも低い解像度の1以上のfeature mapを出力してもよい。
位置検出部402及び種類推定部403には、それぞれ、主幹部401から出力されたfeature mapが入力される。そして位置検出部402及び種類推定部403は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402及び種類推定部403のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402及び種類推定部403について共通化されてもよい。さらに、位置検出部402及び種類推定部403のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。
位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力する。そして位置検出部402及び種類推定部403は、何れかの種類の検出対象物体についての確信度が所定の確信度閾値以上となる領域を、その種類の検出対象物体が表された物体領域として検出する。
識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象物体の種類(例えば、普通乗用車、バス、トラック、二輪車など)と、検出対象物体が表された物体領域である、その検出対象物体の外接矩形とがタグ付けされる。
識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体を精度良く検出できる。
なお、物体検出部31は、車両10の周囲の他の車両以外の、車両10の走行制御に影響する物体を検出してもよい。そのような物体には、例えば、人、道路標識、信号機、車線区画線などの道路標示、及び、道路上のその他の物体などが含まれる。この場合、第1の識別器は、これらの物体も検出するように予め学習されればよい。そして物体検出部31は、画像をその第1の識別器に入力することで、これらの物体も検出することができる。
物体検出部31は、さらに、Non-maximum suppression(NMS)処理を実行することで、少なくとも部分的に重複する2以上の物体領域のうち、同一の物体が表されていると推定される物体領域から一つを選択してもよい。
物体検出部31は、各物体領域の画像上での位置及び範囲と、その物体領域に含まれる物体の種類とを、検出物体リストに登録する。そして物体検出部31は、検出物体リストをメモリ22に記憶する。
追跡部32は、最新の画像から検出された物体領域のそれぞれについて、その物体領域に表された検出対象物体を、検出物体リストを参照して過去の画像から検出された検出対象物体と対応付けることで、その物体領域に表された検出対象物体を追跡する。なお、追跡部32による追跡処理は、例えば、第1演算回路231により実行される。
追跡部32は、例えば、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された検出対象物体を追跡する。そのため、追跡部32は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして追跡部32は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、追跡部32は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された検出対象物体を追跡してもよい。
追跡部32は、最新の画像から検出された検出対象物体のうち、過去の画像に表された検出対象物体と対応付けられなかった検出対象物体に対して、新たな追跡対象として、他の追跡中の検出対象物体と異なる識別番号を割り当て、その割り当てた識別番号を検出物体リストに登録する。一方、追跡部32は、最新の画像から検出された検出対象物体のうち、過去の画像に表された検出対象物体と対応付けられた検出対象物体、すなわち、追跡中の検出対象物体について、その追跡中の検出対象物体に割り当てられた識別番号と同じ識別番号を対応付ける。
なお、追跡部32は、追跡中の検出対象物体が所定数よりも多く存在する場合、追跡中の検出対象物体の中から、所定数の検出対象物体を状態識別の対象となる物体として選択してもよい。例えば、車両10に近い検出対象物体ほど、車両10の運転制御に対する影響が大きいので、追跡部32は、追跡中の検出対象物体のうち、車両10に近い方から順に所定数の検出対象物体を選択してもよい。例えば、画像上で検出対象物体が表された物体領域が大きいほど、車両10からその検出対象物体までの距離が近いと推定される。そこで、追跡部32は、例えば、最新の画像上での物体領域のサイズが大きい方から順に所定数の検出対象物体を選択してもよい。あるいは、車両制御システム1がLiDARあるいはレーダといった測距センサ(図示せず)を有している場合、その測距センサにより、追跡中の各検出対象物体までの距離が測定されてもよい。この場合、例えば、画像上での検出対象物体が表された物体領域の重心に対応する、カメラ2からの方位に相当する測距センサからの方位における距離が、車両10からその検出対象物体までの距離として測定される。そして追跡部32は、推定または測定された車両10からの距離が近い方から順に、所定数の検出対象物体を選択すればよい。あるいはまた、追跡部32は、追跡中の検出対象物体のなかから、車線ごとに決められた数の検出対象物体を選択してもよい。
予測部33は、カメラ2から得られた最新の画像(以下、現画像と呼ぶことがある)から物体検出部31が検出対象物体を検出し、かつ、追跡部32により追跡処理が行われると、追跡中の検出対象物体のそれぞれについて、次に得られる画像(以下、単に次画像と呼ぶことがある)上でのその検出対象物体の位置を予測可能か否か判定する。そして予測部33は、次画像上での位置を予測可能な検出対象物体について、その予測位置を含む、予測物体領域を設定する。なお、予測部33による予測処理は、例えば、第1演算回路231により実行される。
例えば、予測部33は、物体領域の少なくとも一端が現画像の何れか一端と接している場合、その物体領域に含まれる検出対象物体について、次画像上での位置を予測不能と判定する。これは、その検出対象物体全体が現画像上に表されておらず、現画像の取得時と次画像の取得時との間の車両10とその検出対象物体間の相対的な位置関係の変化を正確に予測できない可能性が有るためである。
図5は、次画像上での位置が予測可能な検出対象物体と次画像上での位置が予測不能な検出対象物体の一例を示す図である。図5に示される画像500において、車両10が走行する車線と同じ車線を走行する車両501を含む物体領域511は、画像500の何れの端部とも接していない。そのため、車両501については、次画像上の位置は予測可能と判定される。一方、車両10が走行する車線に隣接する車線を走行する車両502を含む物体領域512の右端は、画像500の右端と接している。そのため、車両502については、次画像上の位置は予測不能と判定される。
あるいは、予測部33は、現画像において、着目する検出対象物体が、車両10が走行中の車線と隣接する車線を走行しており、かつ、その検出対象物体と車両10間の距離が所定距離以下またはその検出対象物体を含む物体領域のサイズが所定サイズ以上である場合、その検出対象物体について、次画像上での位置を予測不能と判定する。これは、その検出対象物体が、車両10が走行中の車線へ進入し、車両10を追い越し、あるいは車両10に追い越されるなどにより、現画像でのその検出対象物体の位置に対して次画像でのその検出対象物体の位置が大きく移動する可能性が有るためである。
例えば、物体検出部31が現画像から車線区画線を検出している場合、あるいは、ローカライズ処理部(図示せず)が、現画像から車線区画線を検出している場合には、予測部33は、車線区画線と物体領域との位置関係に基づいて、各検出対象物体が走行中の車線を特定すればよい。例えば、予測部33は、着目する検出対象物体について、その検出対象物体を含む物体領域の下端の両側に位置する二つの車線区画線で挟まれた車線上にその検出対象物体が位置していると判定すればよい。これにより、予測部33は、着目する検出対象物体が、車両10が走行中の車線と隣接する車線を走行しているか否かを判定できる。
また、車両10が走行中の道路と同じ道路を着目する検出対象物体が走行している場合、画像上でのその検出対象物体を含む物体領域の下端の位置は、その検出対象物体の路面上の位置を表していると推定される。また、画像上での各画素の位置は、カメラ2からその画素に相当する方位と1対1に対応している。したがって、予測部33は、画像上での着目する検出対象物体を含む物体領域の下端の位置に基づいて、カメラ2からその検出対象物体の路面上の位置への方位を特定することができる。したがって、予測部33は、メモリ22に記憶されているカメラ2の取り付け位置(路面からの高さを含む)と、カメラ2からその検出対象物体の路面上の位置への位置までの特定された方位とに基づいて、車両10からその検出対象物体までの距離を推定できる。
あるいは、予測部33は、着目する検出対象物体について、その検出対象物体が表された物体領域のサイズ(例えば、横幅)と、その検出対象物体と同一種類の基準物体が車両10から所定距離に位置していると仮定した場合の基準サイズとの比に基づいて、車両10からその検出対象物体までの距離を推定してもよい。あるいはまた、車両制御システム1がLiDARあるいはレーダといった測距センサ(図示せず)を有している場合、その測距センサにより、着目する検出対象物体までの距離が測定されてもよい。この場合、例えば、画像上での着目する検出対象物体が表された物体領域の重心に対応する、カメラ2からの方位に相当する測距センサからの方位における距離が、車両10からその検出対象物体までの距離として測定される。予測部33は、上記のようにして推定された車両10から着目する検出対象物体までの距離を上記の所定距離と比較して、その検出対象物体について、次画像上での位置を予測可能か否か判定すればよい。
あるいはまた、予測部33は、着目する検出対象物体よりも先行する他の検出対象物体の挙動に基づいて、着目する検出対象物体について、次画像上での位置を予測可能か否か判定してもよい。例えば、予測部33は、所定時間前の第1の時点において、着目する検出対象物体が走行する車線と同じ車線を走行していた、先行する他の検出対象物体が、その第1の時点以降に車線変更した場合、着目する検出対象物体について、次画像上での位置を予測不能と判定してもよい。これは、例えば、何らかの障害物、例えば、駐車車両などがその先行する他の検出対象物体よりも前に存在するために、後続する着目する検出対象物体も車線変更する可能性が有るためである。なお、予測部33は、各検出対象物体について、画像ごとに、上記の方法と同様に走行する車線を特定することで、その検出対象物体が車線変更したか否かを判定できる。
予測部33は、次画像上での位置を予測可能と判定した検出対象物体について、次画像上での予測位置を含む予測物体領域を求める。一般に、車両10と、次画像上での位置を予測可能な、車両周囲の検出対象物体との相対的な位置関係は急激に変化しない。そこで、予測部33は、現画像上での検出対象物体の位置と次画像上での検出対象物体の予測位置は同じと推定することができる。そこで、予測部33は、現画像上での検出対象物体を含む物体領域と同一の次画像上の領域を、予測物体領域として設定する。
あるいは、予測部33は、直近の所定期間に含まれる一連の画像のそれぞれにおける物体領域の重心位置の時系列順の並びを直線または多項式にて近似することで得られる、次画像上での物体領域の重心の予測位置を、検出対象物体の予測位置としてもよい。同様に、予測部33は、直近の所定期間に含まれる一連の画像のそれぞれにおける物体領域のサイズ(幅及び高さを含む)の時系列順の並びを直線または多項式にて近似することで得られる、次画像上での物体領域の予測サイズを、予測物体領域のサイズとしてもよい。そして予測部33は、次画像上での検出対象物体の予測位置を重心位置とし、かつ、予測されたサイズの領域を、予測物体領域として設定する。
予測部33は、次画像上での位置を予測不能と判定した検出対象物体について、検出物体リストに含まれる、次画像上での位置が予測可能か否かを表すフラグの値を、次画像上での位置が予測不能であることを表す値に更新する。さらに、予測部33は、次画像上での位置を予測不能と判定した検出対象物体について、次画像上での予測物体領域の位置及び範囲を示す情報(例えば、予測物体領域の左上端及び右下端の座標)を、検出物体リストに登録する。
なお、変形例によれば、予測部33は、物体検出部31による物体検出処理の後に、現画像に対して上記の処理を行う代わりに、物体検出部31による物体検出処理の前、あるいは、物体検出処理と並列に上記の処理を実行してもよい。この場合には、予測部33は、現画像における検出対象物体の位置またはその検出対象物体を含む物体領域の位置の代わりに、直前の画像におけるその検出対象物体の位置またはその検出対象物体を含む物体領域の位置に対して上記の実施形態と同様の処理を実行することで、現画像上での位置を予測可能か否か判定すればよい。また、この変形例によれば、予測部33は、直前の画像と現画像との比較に基づいて、検出対象物体の現画像上での位置を予測可能か否か判定してもよい。例えば、予測部33は、直前の画像における各画素の輝度値の統計的代表値(例えば、平均値、中央値または最頻値)と、現画像における各画素の輝度値の統計的代表値の差の絶対値が所定の輝度閾値以上である場合、検出対象物体の現画像上での位置を予測不能と判定してもよい。これにより、例えば、車両10がトンネル内に進入する前後、あるいはトンネルから出る前後といった、車両10の周囲の明るさが急激に変化する場合において、予測部33は、検出対象物体の現画像上での位置を予測不能と判定することができる。その結果として、物体検出部31が現画像から実際に検出した物体領域の情報が、検出対象物体の状態の識別に利用されることとなる。なお、車両10の周囲の明るさが急激に変化する場合には、変化前、すなわち直前の画像における検出対象物体の位置から予測した、変化後、すなわち現画像における検出対象物体の位置の方が、物体検出部31が現画像から実際に検出した検出対象物体の位置よりも正確なことがある。そこで、上記の例とは逆に、予測部33は、直前の画像における各画素の輝度値の統計的代表値と、現画像における各画素の輝度値の統計的代表値の差の絶対値が所定の閾値以上である場合、直前の画像におけるその検出対象物体の位置及びその検出対象物体を含む物体領域の位置によらずに、検出対象物体の現画像上での位置を予測可能と判定してもよい。
また、予測部33は、直前の画像に基づいて、次画像上での位置が予測不能と判定された検出対象物体について、物体検出部31による物体検出処理の前、あるいは、物体検出処理と並列に、予測物体領域を設定してもよい。なお、直前の画像を基準としたときの次画像は、現画像となるので、予測部33は、現画像に対して予測物体領域を設定すればよい。この場合、予測部33は、上記の予測物体領域の設定処理と同様の処理を、直前の画像またはそれ以前の画像における物体領域に対して実行することで、現画像上に予測物体領域を設定すればよい。
あるいは、予測部33は、Kanade-Lucas-Tomasi法といった、オプティカルフローに基づく追跡処理を、直前の画像上の物体領域と現画像に対して適用することで、現画像上に予測物体領域を設定してもよい。この場合、予測部33は、例えば、直前の画像上の物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。予測部33は、複数の特徴点のそれぞれについて、現画像における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。そして予測部33は、求めたオプティカルフロー及び直前の画像上の物体領域に基づいて、現画像上でその物体領域に対応する領域を推定し、推定した領域を予測物体領域として設定すればよい。
状態識別部34は、カメラ2から画像が得られる度に、すなわち、カメラ2により得られる時系列の一連の画像のそれぞれについて、追跡中の検出対象物体の状態を識別する。
本実施形態では、状態識別部34は、検出物体リストを参照して、追跡中の検出対象物体のうち、直前に得られた画像において予測部33により予測物体領域が設定されている検出対象物体を特定する。そして状態識別部34は、予測物体領域が設定されている検出対象物体については、物体検出部31による物体検出処理の結果を待たず、すなわち、第1の識別器による現画像上での物体領域の検出よりも前に、現画像上の予測物体領域内の画素値から求められる特徴を第2の識別器に入力することで、時系列の外観変化を伴う、その検出対象物体の状態を識別する。一方、予測物体領域が設定されていない検出対象物体については、状態識別部34は、物体検出部31により検出された物体検出領域内の画素値から求められる特徴を、第2の識別器に入力することで、時系列の外観変化を伴う、その検出対象物体の状態を識別する。なお、状態識別部34による状態識別処理のうち、第2の識別器による演算処理は、例えば、第3演算回路233により実行され、その他の処理は、例えば、第1演算回路231または第2演算回路232により実行される。
状態識別部34は、予測物体領域または物体領域内の画素値から求められる特徴を、例えば、その予測物体領域または物体領域内の各画素の値そのものとする。あるいは、状態識別部34は、予測物体領域または物体領域内の画素値から求められる特徴を、その予測物体領域または物体領域内の各画素に対して、畳み込み演算といった所定のフィルタ処理を行って得られた値としてもよい。
状態識別部34は、各予測物体領域または各物体領域について、抽出した特徴をダウンサンプリング、アップサンプリング、bi-linear補間またはbi-cubic補間などのサイズ変換処理を実行することで所定のサイズ(例えば、32×32)にリサイズする。これにより、検出対象物体の追跡の途中で車両10と検出対象物体間の相対距離が変化して、画像上での検出対象物体のサイズが変化しても、第2の識別器は、入力される特徴を一定のサイズとして扱えるので、第2の識別器の構成が簡単化される。
状態識別部34は、第2の識別器として、例えば、Recurrent Neural Network(RNN)、Long Short Term Memory(LSTM)またはGated Recurrent Unit(GRU)といった、再帰的な構造を持つニューラルネットワークを用いることができる。第2の識別器は、物体領域または予測物体領域に含まれる特徴を処理すればよいため、第1の識別器と比較して、入力層及び中間層のサイズが小さくて済み、かつ、重み係数といった第2の識別器を規定するためのパラメータ数が少なくて済む。そのため、第2の識別器は、第1の識別器と比較して演算量が少なく、プロセッサ23に対する演算負荷を小さくすることができる。さらに、第2の識別器の学習に要する演算量も削減される。なお、第1の識別器及び第2の識別器がそれぞれニューラルネットワークとして構成されている場合、共通の教師データを用いて、誤差逆伝搬法によりそれらニューラルネットワークが一体的に学習されてもよい。
第2の識別器は、再帰構造を有しているため、時系列に順次特徴が入力される度に、内部で再帰的に利用される内部状態(中間状態または隠れ状態とも呼ばれる)を更新する。これにより、第2の識別器は、着目する追跡中の検出対象物体の外観の時系列の変化に基づいて、その検出対象物体の状態を識別することができる。この内部状態は、メモリ22に記憶される。そして第2の識別器は、着目する追跡中の検出対象物体についての特徴が入力される度に、メモリ22から、その検出対象物体に関する最新の内部状態を読み込んで第2の識別器の演算に適用する。
本実施形態では、状態識別部34は、上記のように、検出対象物体(すなわち、車両10の周囲の他の車両)の状態として、左右何れかのターンシグナルまたはハザードランプの点滅状態か否か、ブレーキランプが点灯している状態あるいは消灯している状態かを識別する。そのために、第2の識別器の出力層の活性化関数として、例えば、シグモイド関数が用いられる。これにより、第2の識別器は、各状態の確信度を出力することができる。そして状態識別部34は、各状態の確信度を対応する閾値と比較し、検出対象物体の状態は、確信度が対応する閾値以上となる状態であると判定する。例えば、検出対象物体の左のターンシグナルが点滅している状態についての確信度が0.8であり、一方、左のターンシグナルが点滅していない状態についての確信度が0.2であるとする。そして閾値が0.5であるとすると、状態識別部34は、検出対象物体の状態は、左のターンシグナルが点滅している状態であると判定する。
あるいは、第2の識別器の出力層の活性化関数として、ソフトマックス関数が用いられてもよい。この場合には、第2の識別器は、検出対象物体の状態として、左のターンシグナルが点滅、右のターンシグナルが点滅、ハザードランプが点滅、ブレーキランプが点灯、あるいはその何れでもないとの判定結果を出力する。したがって、状態識別部34は、第2の識別器から出力された判定結果で表される状態を、検出対象物体の状態とすればよい。
変形例によれば、状態識別部34は、第2の識別器として、時間軸方向の畳み込み演算を実行する、CNN型のアーキテクチャを有するニューラルネットワークを用いてもよい。この場合、第2の識別器は、例えば、直前の層から出力されたfeature mapに対して、時間軸方向に沿って畳み込み演算を実行する畳み込み層(以下、時間特徴畳み込み層と呼ぶ)を一つ以上有する。個々の時間特徴畳み込み層の時間軸方向のカーネルサイズは、例えば、全ての時間特徴畳み込み層を経由することで、一度に入力される複数の特徴が含まれる期間全体にわたって畳み込み演算が行われるように設定される。時間特徴畳み込み層は、例えば、時間軸方向及び空間方向の何れについても畳み込み演算(以下、3次元畳み込み演算と呼ぶ)を実行してもよく、あるいは、時間軸方向についてのみの畳み込み演算(以下、時間次元畳み込み演算と呼ぶ)を実行してもよい。さらに、時間特徴畳み込み層は、チャネル方向に関しても畳み込み演算または全結合演算を実行してもよい。また、第2の識別器が複数の時間特徴畳み込み層を有する場合には、その複数の時間特徴畳み込み層の何れかの層が3次元畳み込み演算を実行し、その複数の時間特徴畳み込み層の他の層が時間次元畳み込み演算を実行してもよい。さらに、第2の識別器は、時間軸方向には畳み込み演算を実行せず、空間方向について畳み込み演算を実行する畳み込み層(以下、空間特徴畳み込み層と呼ぶ)を一つ以上有してもよい。この空間特徴畳み込み層も、チャネル方向に関して畳み込み演算または全結合演算を実行してもよい。第2の識別器が1以上の空間特徴畳み込み層を有する場合、空間特徴畳み込み層と時間特徴畳み込み層の順序はどのような順序でもよい。例えば、入力側から出力側へ順に、空間特徴畳み込み層、時間特徴畳み込み層の順に各畳み込み層が設けられてもよく、あるいはその逆の順序であってもよい。さらに、空間特徴畳み込み層と時間特徴畳み込み層とが交互に設けられてもよい。さらに、第2の識別器は、1以上のプーリング層を有してもよい。さらにまた、第2の識別器は、1以上の活性化層及び1以上の全結合層を有してもよい。第2の識別器の出力層は、例えば、活性化関数としてシグモイド関数またはソフトマックス関数を使用する。
状態識別部34は、状態識別の対象となる検出対象物体のそれぞれについて、第2の識別器による状態識別結果及び更新された内部状態をメモリ22に書き込んで、メモリ22に記憶されている、状態識別結果及び内部状態を更新するとともに、状態識別結果を運転計画部35へ通知する。
図6は、状態識別処理に関連する各部の処理のタイミングチャートである。プロセッサ23の各部の処理は、例えば、プロセッサ23の第1演算回路231上で動作するスケジューラ(図示せず)により管理され、図6に示されるタイミングチャートに従って実行される。図6において、横軸は時間を表す。また、図6において、個々のブロックは、そのブロック内に示された処理が実行されることを表し、個々の矢印は、各処理間でのデータ(画像、特徴等)の受け渡しを表す。例えば、時刻t1にてECU3がカメラ2から現画像を受け取ると、プロセッサ23が有する第2演算回路232にて、その現画像に対する、物体検出部31の第1の識別器による検出対象物体の物体検出処理が実行される。なお、物体検出処理が行われる前に、現画像に対してコントラスト補正または色変換といった前処理が行われてもよい。
物体検出処理が行われると、プロセッサ23が有する第1演算回路231にて、検出された物体の種類及び物体領域の検出物体リストへの登録などの物体検出の後処理が行われ、その後に、追跡部32による追跡処理が実行される。そして、追跡処理の後に、追跡中の各検出対象物体について、次画像における位置の予測が可能か否かの判定、及び、次画像上での予測物体領域の設定を含む予測処理が実行される。なお、上記のように、予測処理は、第1の識別器による物体検出処理の前、あるいは、その物体検出処理の実行中に予測処理が実行されてもよい。この場合には、予測部33は、時刻t1にて取得された画像の直前に取得された画像に対する物体検出処理の結果に基づいて予測処理を実行することで、時刻t1にて取得された画像に対して予測物体領域を設定すればよい。
また、追跡処理の後に、第2演算回路232にて、直前の画像に基づいて現画像上に予測物体領域が設定されなかった検出対象物体について、現画像から検出された物体領域からの特徴の抽出、抽出した特徴のリサイズが行われる。そして第3演算回路233にて、第2の識別器を用いた状態識別処理が実行される。なお、プロセッサ23のスループットを向上するために、第3演算回路233による、各検出対象物体に対する状態識別処理はバッチ処理としてまとめて実行されることが好ましい。
一方、直前の画像に基づいて現画像上に予測物体領域が設定された検出対象物体について、第2演算回路232による現画像に対する物体検出処理と並列に、第1演算回路231による、現画像上の予測物体領域からの特徴の抽出及び抽出した特徴のリサイズが行われ、第3演算回路233にて、第2の識別器を用いた状態識別処理が実行される。得られた検出対象物体の状態識別の結果は、運転計画部35及び車両制御部36の処理に利用される。なお、プロセッサ23のスループットを向上するために、第3演算回路233による、各検出対象物体に対する状態識別処理はバッチ処理としてまとめて実行されることが好ましい。
このように、同じ画像に表された複数の検出対象物体のうちの何れかについては、第3演算回路233による状態識別処理と第2演算回路232による物体検出処理とが並列に実行される。また、その複数の検出対象物体のうちのそれ以外のものについては、第2演算回路232による物体検出処理が終了した後に、第3演算回路233による状態識別処理が実行される。特に、次画像上での位置の予測が不能と判定される条件を満たすような、車両10と検出対象物体の相対的な位置関係は限られる。そのため、次画像上での位置の予測が不能と判定される、すなわち、物体検出処理の終了後に状態識別処理が実行される検出対象物体の数は、物体検出処理の実行中に状態識別処理が実行される検出対象物体の数よりも少なくなることが想定される。そのため、車両制御処理全体のスループットが向上する。
図7は、検出物体リストの一例を示す図である。検出物体リスト700には、追跡中の検出対象物体のそれぞれについて、その物体が状態識別対象か否かを表すインデックス、その物体に割り当てられた識別番号、その物体に関する情報が記憶されているメモリ22のアドレスを表すポインタ及び状態識別部34により状態識別された回数(すなわち、第2の識別器に、対応する物体領域から求められた特徴が入力された回数)が格納される。さらに、検出物体リスト700には、追跡中の検出対象物体のそれぞれについて、物体領域の位置及び範囲を表す情報(図示せず)及び検出対象物体の種類を表す情報(図示せず)などが格納される。さらにまた、検出物体リスト700には、追跡中の検出対象物体のそれぞれについて、次画像上の位置について予測可能か否かを表すフラグ(図示せず)、及び、次画像上での予測物体領域の位置及び範囲を表す情報(図示せず)が格納される。また、各検出対象物体についてのポインタで示されるメモリ22上の格納領域701には、最新の画像における、第2の識別器に入力される特徴、最後に更新された第2の識別器の内部状態、及び、最後に更新された第2の識別器からの出力結果などが記憶される。
運転計画部35は、検出物体リストを参照して、車両10の周囲に存在する物体と車両10とが衝突しないように車両10の走行予定経路(トラジェクトリ)を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。例えば、運転計画部35は、検出物体リストを参照して、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、検出物体リストにおける物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。そして運転計画部35は、一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いたトラッキング処理を実行することで、検出物体リストに登録されている物体を追跡し、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。その際、運転計画部35は、検出対象物体の状態識別結果を予測軌跡の推定に利用する。例えば、着目する検出対象物体の状態が、左のターンシグナルが点滅している状態である場合、その検出対象物体は左側へ車線変更し、あるいは、左折する可能性が高い。そこで、運転計画部35は、その検出対象物体について、左側へ車線変更し、あるいは、左折する予測軌跡を推定する。また、着目する検出対象物体の状態が、ブレーキランプが点灯している状態である場合、あるいは、ハザードランプが点滅している状態である場合、その検出対象物体は減速する可能性が高い。そこで、運転計画部35は、その検出対象物体について、現時点よりも減速するような予測軌跡を推定する。さらに、着目する検出対象物体の状態が、左右のターンシグナル及びハザードランプの何れも点滅しておらず、かつ、ブレーキランプが消灯している状態である場合、その検出対象物体は減速せずに直進する可能性が高い。そこで、運転計画部35は、その検出対象物体について、減速せずに直進するような予測軌跡を推定する。
運転計画部35は、追跡中の各物体の予測軌跡と、車両10の位置、速度及び姿勢に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部35は、車両10の位置、速度及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、ローカライズ処理部(図示せず)が、カメラ2により画像が得られる度に、その画像から車両10の左右の車線区画線を検出し、検出された車線区画線とメモリ22に記憶されている地図情報とをマッチングすることで、車両10の位置、速度及び姿勢が推定されてもよい。さらに、運転計画部35は、例えば、車両10の現在位置情報と、メモリ22に記憶されている地図情報とを参照して、車両10が走行可能な車線の数を確認してもよい。そして運転計画部35は、車両10が走行可能な車線が複数存在する場合には、車両10が走行する車線を変更するように走行予定経路を生成してもよい。
なお、運転計画部35は、複数の走行予定経路を生成してもよい。この場合、運転計画部35は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
なお、運転計画部35は、複数の走行予定経路を生成してもよい。この場合、運転計画部35は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
運転計画部35は、生成した走行予定経路を車両制御部36へ通知する。
車両制御部36は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部36は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部36は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部36は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
さらに、車両制御部36は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
図8は、プロセッサ23により実行される、物体状態識別処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図8に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S108の処理が物体状態識別処理に対応する。
プロセッサ23の物体検出部31は、カメラ2から得られた最新の画像(すなわち、現画像)を第1の識別器に入力して、現画像に表された1以上の検出対象物体を検出する。すなわち、物体検出部31は、現画像上で検出対象物体を含む1以上の物体領域を検出する(ステップS101)。さらに、物体検出部31は、検出された検出対象物体ごとに、その検出対象物体の種類を識別する。そして物体検出部31は、検出された検出対象物体を検出物体リストに登録する。
プロセッサ23の追跡部32は、現画像における、検出対象物体を含む物体領域のそれぞれについて、その物体領域と、過去の画像における物体領域とに基づいて、現画像における、その物体領域に表されている検出対象物体を追跡する(ステップS102)。
また、プロセッサ23の状態識別部34は、ステップS101の処理の実行と平行して、追跡中の検出対象物体のうち、現画像上の位置が予測可能と判定されている検出対象物体について、現画像上の予測物体領域内の画素値から求められる特徴を抽出する(ステップS103)。そして状態識別部34は、抽出した特徴を、再帰構造を持つ第2の識別器に入力することで、その検出対象物体の状態を識別する(ステップS104)。
一方、状態識別部34は、追跡中の検出対象物体のうち、現画像上の位置が予測不能と判定されている検出対象物体について、ステップS101の処理によって検出された物体領域内の画素値から求められる特徴を抽出する(ステップS105)。そして状態識別部34は、抽出した特徴を、再帰構造を持つ第2の識別器に入力することで、その検出対象物体の状態を識別する(ステップS106)。
また、プロセッサ23の予測部33は、追跡中の各検出対象物体について、次画像上での位置を予測可能か否か判定する(ステップS107)。そして予測部33は、次画像上での位置を予測可能な検出対象物体について、次画像上の予測物体領域を設定する(ステップS108)。
プロセッサ23の運転計画部35は、検出物体リストを参照して、検出物体リストに登録されている各検出対象物体について、状態識別結果を参照して推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS109)。そしてプロセッサ23の車両制御部36は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS110)。そしてプロセッサ23は、車両制御処理を終了する。
以上に説明してきたように、この物体状態識別装置は、車両に搭載されたカメラにより画像が得られる度に、その画像を、検出対象物体を検出するように予め学習された第1の識別器に入力することで、その画像上で検出対象物体を含む物体領域を検出する。また、この物体状態識別装置は、検出された検出対象物体を追跡することで、各画像において同じ検出対象物体が表された物体領域同士を対応付ける。一方、この物体状態識別装置は、直前の画像における、追跡中の検出対象物体を含む物体領域の位置などに基づいて、次に得られる画像におけるその検出対象物体の位置を予測可能か否か判定し、その位置を予測可能な場合には、その検出対象物体の予測位置を含む予測物体領域を設定する。そしてこの物体状態識別装置は、次に画像が得られたときに、検出対象物体の位置が予測可能と判定されている場合には、予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで検出対象物体の状態を識別する。一方、次に画像が得られたときに、検出対象物体の位置が予測不能と判定されている場合には、この状態識別装置は、その画像に対して第1の識別器により検出された物体領域内の画素値から求められる特徴を第2の識別器に入力することで検出対象物体の状態を識別する。これにより、同時に追跡中の複数の検出対象物体が存在しても、この物体状態識別装置は、第2の識別器による処理が実行されるタイミングを、検出対象物体ごとに異ならせることができる。そのため、この物体状態識別装置は、処理負荷を時間的に分散させることができ、その結果として、物体状態識別処理全体のスループットを向上させることができる。特に、この物体状態識別装置は、検出対象物体の位置が予測可能と判定されている検出対象物体に対する、第2の識別器による状態識別処理を、第1の識別器による物体検出処理と平行して実行することで、物体状態識別処理全体のスループットをさらに向上させることができる。さらに、この物体状態識別装置は、個々の画像から物体を検出する第1の識別器を利用して、時系列の一連の画像のそれぞれから、第2の識別器に入力する特徴を抽出するので、画像全体を、再帰構造を持つ識別器に入力して物体の状態を識別するよりも、全体として演算量を削減することができる。また、第1の識別器の学習に用いられる画像は静止画像であればよく、一方、第2の識別器の学習には、動画像が必要となるものの、その動画像に含まれる個々の画像のサイズは、第1の識別器の学習に利用される画像のサイズよりも小さくてよい。そのため、この物体状態識別装置は、各識別器の学習に必要なコスト(例えば、教師画像のアノテーションに要するコスト、教師画像の収集に要するコストなど)を削減するとともに、各識別器の学習に要する演算量及び演算時間を削減することができる。
変形例によれば、時系列の外観変化を伴う状態の識別の対象となる検出対象物体は車両に限られず、例えば、車両10の周囲に位置する人(または子供)であってもよい。この場合、状態識別部34は、追跡中の人を含む時系列の一連の画像のそれぞれから検出され、または設定される物体領域または予測物体領域からの特徴を第2の識別器に時系列順に入力することで、その人の状態(例えば、その人が歩行している歩行状態か、その人が走っている走行状態か、あるいは、その人が走り出そうとしている走行開始状態か)を識別してもよい。この場合、予測部33は、第1の識別器により、人であると推定された検出対象物体については、次画像における位置を予測不能と判定し、予測物体領域を設定しないようにしてもよい。これにより、物体状態識別装置は、検出対象物体である人が道路に急に飛び出してくることで、車両10との相対的な位置関係が急激に変化する場合でも、検出対象物体である人が表された領域の特徴をその人の状態識別に利用することができるので、その人の状態を精度良く識別することができる。
他の変形例によれば、物体検出部31は、DNN以外の識別器を利用して、画像から検出対象物体を検出してもよい。例えば、物体検出部31は、第1の識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。物体検出部31は、画像上に設定するウィンドウの位置、サイズ及びアスペクト比を様々に変更しながら、そのウィンドウから特徴量を算出し、算出した特徴量をSVMへ入力することで、そのウィンドウについて確信度を求める。そして物体検出部31は、何れかの種類の検出対象物体について確信度が所定の確信度閾値以上となるウィンドウに、その検出対象物体が表されていると判定し、かつ、そのウィンドウを物体領域とすればよい。なお、SVMは、検出対象となる物体の種類ごとに用意されてもよい。この場合には、物体検出部31は、各ウィンドウについて、そのウィンドウから算出された特徴量をそれぞれのSVMへ入力することで、物体の種類ごとに確信度を算出すればよい。
また、上記の実施形態または変形例による、物体状態識別装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 車両制御システム
2 カメラ
3 電子制御装置(物体状態識別装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 追跡部
33 予測部
34 状態識別部
35 運転計画部
36 車両制御部
2 カメラ
3 電子制御装置(物体状態識別装置)
4 車内ネットワーク
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 追跡部
33 予測部
34 状態識別部
35 運転計画部
36 車両制御部
Claims (8)
- 撮像部から画像を取得する度に、前記画像を第1の識別器に入力することで、前記画像に表された少なくとも一つの所定の物体のそれぞれについて、前記画像上で当該物体を含む物体領域を検出する物体検出部と、
前記少なくとも一つの所定の物体のそれぞれについて、前記画像の次に前記撮像部から得られる次画像における当該物体の位置を予測可能か否か判定し、当該物体の位置を予測可能な場合、前記次画像上の予測される当該物体の位置を含む予測物体領域を設定する予測部と、
前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されている物体について、前記次画像から前記物体領域が検出されるよりも前に、前記次画像上の前記予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで、時系列の外観変化を伴う当該物体の状態を識別し、一方、前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されていない物体について、前記次画像から検出された前記物体領域内の画素値から求められる特徴を前記第2の識別器に入力することで時系列の外観変化を伴う当該物体の状態を識別する状態識別部と、
を有する物体状態識別装置。 - 前記第1の識別器よる前記物体領域の検出と、前記第2の識別器による前記少なくとも一つの所定の物体のそれぞれの状態の識別とは、互いに異なる演算回路により実行される、請求項1に記載の物体状態識別装置。
- 前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されている物体についての前記第2の識別器による状態の識別は、前記第1の識別器による前記次画像からの前記物体領域の検出と並列に実行される、請求項2に記載の物体状態識別装置。
- 前記予測部は、前記少なくとも一つの所定の物体のうち、前記画像上の前記物体領域の少なくとも一端が前記画像の何れか一端と接している物体について、前記次画像における当該物体の位置を予測不能と判定し、当該物体について前記次画像における前記予測物体領域を設定しない、請求項1~3の何れか一項に記載の物体状態識別装置。
- 前記撮像部は、車両に搭載され、
前記予測部は、前記少なくとも一つの所定の物体のそれぞれについて、前記車両が走行中の車線と隣接する車線を走行しているか否か判定し、かつ、前記車両からの距離を求め、前記少なくとも一つの所定の物体のうち、前記隣接する車線を走行しており、かつ、前記車両からの距離が所定距離以下となる物体について、前記次画像における当該物体の位置を予測不能と判定し、当該物体について前記次画像における前記予測物体領域を設定しない、請求項1~3の何れか一項に記載の物体状態識別装置。 - 車両の走行を制御する制御装置であって、
前記車両に搭載された撮像部から画像を取得する度に、前記画像を第1の識別器に入力することで、前記画像に表された前記車両周囲の少なくとも一つの所定の物体のそれぞれについて、前記画像上で当該物体を含む物体領域を検出する物体検出部と、
前記少なくとも一つの所定の物体のそれぞれについて、前記画像の次に前記撮像部から得られる次画像における当該物体の位置を予測可能か否か判定し、当該物体の位置を予測可能な場合、前記次画像上の予測される当該物体の位置を含む予測物体領域を設定する予測部と、
前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されている物体について、前記次画像から前記物体領域が検出されるよりも前に、前記次画像上の前記予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで、時系列の外観変化を伴う当該物体の状態を識別し、一方、前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されていない物体について、前記次画像から検出された前記物体領域内の画素値から求められる特徴を前記第2の識別器に入力することで、時系列の外観変化を伴う当該物体の状態を識別する状態識別部と、
前記少なくとも一つの所定の物体のそれぞれについて、当該物体の状態に基づいて、当該物体が移動する軌跡を予測し、予測した前記軌跡に基づいて、前記車両が前記少なくとも一つの所定の物体の何れとも所定距離以上離れるように前記車両の走行予定経路を設定する運転計画部と、
前記走行予定経路に沿って前記車両が走行するように前記車両を制御する車両制御部と、
を有する制御装置。 - 撮像部から画像を取得する度に、前記画像を第1の識別器に入力することで、前記画像に表された少なくとも一つの所定の物体のそれぞれについて、前記画像上で当該物体を含む物体領域を検出し、
前記少なくとも一つの所定の物体のそれぞれについて、前記画像の次に前記撮像部から得られる次画像における当該物体の位置を予測可能か否か判定し、当該物体の位置を予測可能な場合、前記次画像上の予測される当該物体の位置を含む予測物体領域を設定し、
前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されている物体について、前記次画像から前記物体領域が検出されるよりも前に、前記次画像上の前記予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで時系列の外観変化を伴う当該物体の状態を識別し、
前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されていない物体について、前記次画像から検出された前記物体領域内の画素値から求められる特徴を前記第2の識別器に入力することで時系列の外観変化を伴う当該物体の状態を識別する、
ことを含む物体状態識別方法。 - 撮像部から画像を取得する度に、前記画像を第1の識別器に入力することで、前記画像に表された少なくとも一つの所定の物体のそれぞれについて、当該物体を含む物体領域を検出し、
前記少なくとも一つの所定の物体のそれぞれについて、前記画像の次に前記撮像部から得られる次画像における当該物体の位置を予測可能か否か判定し、当該物体の位置を予測可能な場合、前記次画像上の予測される当該物体の位置を含む予測物体領域を設定し、
前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されている物体について、前記次画像から前記物体領域が検出されるよりも前に、前記次画像上の前記予測物体領域内の画素値から求められる特徴を、再帰構造を有し、または時間軸方向における畳み込み演算を実行する第2の識別器に入力することで時系列の外観変化を伴う当該物体の状態を識別し、
前記少なくとも一つの所定の物体のうち、前記次画像について前記予測物体領域が設定されていない物体について、前記次画像から検出された前記物体領域内の画素値から求められる特徴を前記第2の識別器に入力することで時系列の外観変化を伴う当該物体の状態を識別する、
ことをコンピュータに実行させる物体状態識別用コンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068674A JP7359735B2 (ja) | 2020-04-06 | 2020-04-06 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
CN202110323297.5A CN113496201B (zh) | 2020-04-06 | 2021-03-26 | 物体状态识别装置、方法、计算机可读取的记录介质及控制装置 |
US17/218,348 US11829153B2 (en) | 2020-04-06 | 2021-03-31 | Apparatus, method, and computer program for identifying state of object, and controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068674A JP7359735B2 (ja) | 2020-04-06 | 2020-04-06 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021165914A JP2021165914A (ja) | 2021-10-14 |
JP7359735B2 true JP7359735B2 (ja) | 2023-10-11 |
Family
ID=77922586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020068674A Active JP7359735B2 (ja) | 2020-04-06 | 2020-04-06 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11829153B2 (ja) |
JP (1) | JP7359735B2 (ja) |
CN (1) | CN113496201B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7115502B2 (ja) | 2020-03-23 | 2022-08-09 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7388971B2 (ja) | 2020-04-06 | 2023-11-29 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
US20220308200A1 (en) * | 2021-03-24 | 2022-09-29 | Sony Group Corporation | Radar data determination circuitry and radar data determination method |
US20220410901A1 (en) * | 2021-06-28 | 2022-12-29 | GM Global Technology Operations LLC | Initializing early automatic lane change |
US11904906B2 (en) * | 2021-08-05 | 2024-02-20 | Argo AI, LLC | Systems and methods for prediction of a jaywalker trajectory through an intersection |
WO2024090390A1 (ja) * | 2022-10-24 | 2024-05-02 | ソフトバンクグループ株式会社 | 情報処理装置、車両、情報処理方法、及び情報処理プログラム |
US20240193955A1 (en) * | 2022-12-12 | 2024-06-13 | Honda Motor Co., Ltd. | Mobile object control device, mobile object control method, and storage medium |
US20240400101A1 (en) * | 2023-06-02 | 2024-12-05 | Nvidia Corporation | Determining obstacle perception safety zones for autonomous systems and applications |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010231254A (ja) | 2009-03-25 | 2010-10-14 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
US20150279021A1 (en) | 2013-12-31 | 2015-10-01 | Thomson Licensing | Video object tracking in traffic monitoring |
WO2017130639A1 (ja) | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
US20180336424A1 (en) | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
US20190258878A1 (en) | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Object detection and detection confidence suitable for autonomous driving |
US20190354786A1 (en) | 2018-05-17 | 2019-11-21 | Zoox, Inc. | Vehicle Lighting State Determination |
Family Cites Families (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06255399A (ja) | 1993-03-04 | 1994-09-13 | Mazda Motor Corp | 車両の表示装置 |
JPH06325180A (ja) | 1993-05-14 | 1994-11-25 | Matsushita Electric Ind Co Ltd | 移動体自動追跡装置 |
JP4151890B2 (ja) | 2002-11-22 | 2008-09-17 | 富士重工業株式会社 | 車両監視装置および車両監視方法 |
SE531668C2 (sv) | 2006-07-05 | 2009-06-30 | Scania Cv Ab | Anordning för bestämning av en omgivningssituation |
JP4371137B2 (ja) | 2006-11-10 | 2009-11-25 | トヨタ自動車株式会社 | 自動運転制御装置 |
JP4941059B2 (ja) | 2007-04-02 | 2012-05-30 | 株式会社豊田中央研究所 | 運転支援装置 |
JP5195079B2 (ja) | 2008-06-27 | 2013-05-08 | トヨタ自動車株式会社 | 運転支援装置 |
JP5690688B2 (ja) * | 2011-09-15 | 2015-03-25 | クラリオン株式会社 | 外界認識方法,装置,および車両システム |
JP6254083B2 (ja) * | 2012-07-27 | 2017-12-27 | クラリオン株式会社 | 車載用周囲環境認識装置 |
US20140279707A1 (en) | 2013-03-15 | 2014-09-18 | CAA South Central Ontario | System and method for vehicle data analysis |
CN106537892B (zh) | 2014-05-29 | 2021-01-05 | 株式会社尼康 | 摄像装置及车辆 |
JP6339537B2 (ja) | 2015-07-31 | 2018-06-06 | 矢崎エナジーシステム株式会社 | 運転評価装置 |
JP6328327B2 (ja) * | 2015-09-25 | 2018-05-23 | 株式会社日立情報通信エンジニアリング | 画像処理装置及び画像処理方法 |
US10800455B2 (en) | 2015-12-17 | 2020-10-13 | Ford Global Technologies, Llc | Vehicle turn signal detection |
JP2017162438A (ja) | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 危険予測方法 |
CN107180220B (zh) | 2016-03-11 | 2023-10-31 | 松下电器(美国)知识产权公司 | 危险预测方法 |
JP6547785B2 (ja) | 2016-07-29 | 2019-07-24 | 株式会社デンソー | 物標検出装置 |
JP6611353B2 (ja) * | 2016-08-01 | 2019-11-27 | クラリオン株式会社 | 画像処理装置、外界認識装置 |
JP6832504B2 (ja) | 2016-08-08 | 2021-02-24 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
JP2018036444A (ja) * | 2016-08-31 | 2018-03-08 | アイシン精機株式会社 | 表示制御装置 |
JP6867153B2 (ja) | 2016-12-21 | 2021-04-28 | ホーチキ株式会社 | 異常監視システム |
IL287819B (en) * | 2017-01-12 | 2022-07-01 | Mobileye Vision Technologies Ltd | Navigation based on vehicle activity |
JP6717235B2 (ja) * | 2017-03-02 | 2020-07-01 | オムロン株式会社 | 見守り支援システム及びその制御方法 |
JP6897170B2 (ja) | 2017-03-07 | 2021-06-30 | 株式会社デンソー | 走行制御装置 |
JP6673293B2 (ja) | 2017-05-24 | 2020-03-25 | トヨタ自動車株式会社 | 車両システム |
JP6729516B2 (ja) | 2017-07-27 | 2020-07-22 | トヨタ自動車株式会社 | 識別装置 |
JP6912324B2 (ja) * | 2017-08-30 | 2021-08-04 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法、情報処理装置及び情報処理プログラム |
US10691962B2 (en) * | 2017-09-22 | 2020-06-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for rear signal identification using machine learning |
JP6663406B2 (ja) * | 2017-10-05 | 2020-03-11 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
JP2019070934A (ja) | 2017-10-06 | 2019-05-09 | 東芝デジタルソリューションズ株式会社 | 映像処理装置、映像処理方法およびプログラム |
US10503172B2 (en) | 2017-10-18 | 2019-12-10 | Luminar Technologies, Inc. | Controlling an autonomous vehicle based on independent driving decisions |
JP6930394B2 (ja) | 2017-11-24 | 2021-09-01 | トヨタ自動車株式会社 | 物体認識装置 |
CN109858309B (zh) | 2017-11-30 | 2021-04-20 | 东软睿驰汽车技术(上海)有限公司 | 一种识别道路线的方法和装置 |
US10762396B2 (en) * | 2017-12-05 | 2020-09-01 | Utac, Llc | Multiple stage image based object detection and recognition |
JP6917878B2 (ja) | 2017-12-18 | 2021-08-11 | 日立Astemo株式会社 | 移動体挙動予測装置 |
TWI649698B (zh) * | 2017-12-21 | 2019-02-01 | 財團法人工業技術研究院 | 物件偵測裝置、物件偵測方法及電腦可讀取媒體 |
JP7193202B2 (ja) | 2018-03-06 | 2022-12-20 | 日産自動車株式会社 | 動作予測方法及び動作予測装置 |
US11393160B2 (en) * | 2018-03-23 | 2022-07-19 | Intel Corporation | Deep geometric model fitting |
US10489918B1 (en) * | 2018-05-09 | 2019-11-26 | Figure Eight Technologies, Inc. | Video object tracking |
US11521044B2 (en) * | 2018-05-17 | 2022-12-06 | International Business Machines Corporation | Action detection by exploiting motion in receptive fields |
US10760918B2 (en) | 2018-06-13 | 2020-09-01 | Here Global B.V. | Spatiotemporal lane maneuver delay for road navigation |
CN110660254B (zh) * | 2018-06-29 | 2022-04-08 | 北京市商汤科技开发有限公司 | 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备 |
JP6445207B1 (ja) * | 2018-07-06 | 2018-12-26 | Terra Drone株式会社 | 情報収集装置及びこれを搭載した無人航空機 |
EP3830751A4 (en) * | 2018-07-30 | 2022-05-04 | Optimum Semiconductor Technologies, Inc. | OBJECT DETECTION USING MULTIPLE NEURAL NETWORKS TRAINED FOR DIFFERENT IMAGE FIELDS |
JP7052663B2 (ja) | 2018-09-26 | 2022-04-12 | トヨタ自動車株式会社 | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム |
JP7147420B2 (ja) | 2018-09-26 | 2022-10-05 | トヨタ自動車株式会社 | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム |
US11704782B2 (en) * | 2018-10-03 | 2023-07-18 | The Toronto-Dominion Bank | Computerized image analysis for automatically determining wait times for a queue area |
US11200468B2 (en) * | 2018-11-15 | 2021-12-14 | Mobileye Vision Technologies Ltd. | Fast CNN classification of multi-frame semantic signals |
US11004336B2 (en) | 2018-11-16 | 2021-05-11 | Samsung Electronics Co., Ltd. | Electronic device and method of providing driving guide information |
JP7238962B2 (ja) * | 2019-03-13 | 2023-03-14 | 日本電気株式会社 | 物体追跡装置、物体追跡方法、及び、プログラム |
JP7106477B2 (ja) * | 2019-03-20 | 2022-07-26 | 本田技研工業株式会社 | 車両制御装置 |
DE102019206178A1 (de) | 2019-04-30 | 2020-11-05 | Ford Global Technologies, Llc | Verfahren und Vorrichtung zum Abschätzen einer Fahrspurwechselabsicht eines Fahrzeugs |
JP7253441B2 (ja) * | 2019-05-09 | 2023-04-06 | 東芝テック株式会社 | 追跡装置及び情報処理プログラム |
CN112307833A (zh) * | 2019-07-31 | 2021-02-02 | 浙江商汤科技开发有限公司 | 识别智能行驶设备的行驶状态的方法及装置、设备 |
US11003928B2 (en) * | 2019-08-08 | 2021-05-11 | Argo AI, LLC | Using captured video data to identify active turn signals on a vehicle |
KR102095685B1 (ko) * | 2019-12-02 | 2020-04-01 | 주식회사 넥스파시스템 | 차량 식별 방법 및 장치 |
US11301754B2 (en) * | 2019-12-10 | 2022-04-12 | Sony Corporation | Sharing of compressed training data for neural network training |
US11210794B2 (en) * | 2020-03-20 | 2021-12-28 | Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company | Moving object detection system |
JP7115502B2 (ja) | 2020-03-23 | 2022-08-09 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7388971B2 (ja) | 2020-04-06 | 2023-11-29 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
JP7472832B2 (ja) * | 2021-03-16 | 2024-04-23 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
-
2020
- 2020-04-06 JP JP2020068674A patent/JP7359735B2/ja active Active
-
2021
- 2021-03-26 CN CN202110323297.5A patent/CN113496201B/zh active Active
- 2021-03-31 US US17/218,348 patent/US11829153B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010231254A (ja) | 2009-03-25 | 2010-10-14 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
US20150279021A1 (en) | 2013-12-31 | 2015-10-01 | Thomson Licensing | Video object tracking in traffic monitoring |
WO2017130639A1 (ja) | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
US20180336424A1 (en) | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
US20190258878A1 (en) | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Object detection and detection confidence suitable for autonomous driving |
US20190354786A1 (en) | 2018-05-17 | 2019-11-21 | Zoox, Inc. | Vehicle Lighting State Determination |
Also Published As
Publication number | Publication date |
---|---|
CN113496201A (zh) | 2021-10-12 |
US11829153B2 (en) | 2023-11-28 |
CN113496201B (zh) | 2024-02-09 |
US20210312199A1 (en) | 2021-10-07 |
JP2021165914A (ja) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7359735B2 (ja) | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 | |
JP7388971B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
US11093801B2 (en) | Object detection device and object detection method | |
US11308717B2 (en) | Object detection device and object detection method | |
CN111986128A (zh) | 偏心图像融合 | |
JP7115502B2 (ja) | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 | |
JP7472832B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
US11900690B2 (en) | Apparatus, method, and computer program for identifying state of signal light, and controller | |
JP7226368B2 (ja) | 物体状態識別装置 | |
US20220410931A1 (en) | Situational awareness in a vehicle | |
JP7348874B2 (ja) | 傾斜角検出装置及び制御装置 | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting | |
JP2024030951A (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
JP7528915B2 (ja) | 追跡装置、追跡方法及び追跡用コンピュータプログラム | |
JP2023084575A (ja) | 点灯状態識別装置 | |
JP2022146384A (ja) | 物体検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230928 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7359735 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |