JP5233977B2 - Crew attitude estimation device - Google Patents
Crew attitude estimation device Download PDFInfo
- Publication number
- JP5233977B2 JP5233977B2 JP2009281734A JP2009281734A JP5233977B2 JP 5233977 B2 JP5233977 B2 JP 5233977B2 JP 2009281734 A JP2009281734 A JP 2009281734A JP 2009281734 A JP2009281734 A JP 2009281734A JP 5233977 B2 JP5233977 B2 JP 5233977B2
- Authority
- JP
- Japan
- Prior art keywords
- human body
- body feature
- feature point
- self
- shielding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、車両の乗員の姿勢を推定する乗員姿勢推定装置に関する。 The present invention relates to an occupant posture estimation device that estimates the posture of a vehicle occupant.
従来、人体を撮影した画像から肩、肘、手といった人体特徴点を検出することで、人体の姿勢を推定する方法(例えば、特許文献1を参照)が知られている。また、車両の車室内の乗員(以下、車両乗員という)の人体特徴点を検出することにより車両乗員の行動を推定する方法(例えば、特許文献2を参照)が知られている。 Conventionally, a method of estimating the posture of a human body by detecting human body feature points such as a shoulder, an elbow, and a hand from an image of the human body (see, for example, Patent Document 1) is known. There is also known a method for estimating the behavior of a vehicle occupant by detecting human body feature points of an occupant (hereinafter referred to as a vehicle occupant) in a vehicle cabin (see, for example, Patent Document 2).
ここで、車両乗員の動作空間は三次元であるために、二次元で撮影した単眼画像から車両乗員の人体特徴点の検出を行うと、車両乗員の腕が車両乗員自身の上半身前面にある場合や頭の背後にある場合には、腕の部分が頭や胴の部分に隠れてしまう、いわゆる自己遮蔽が発生する。この自己遮蔽が発生した場合には、車両乗員の姿勢の推定精度が低下する。 Here, since the movement space of the vehicle occupant is three-dimensional, when the human occupant feature point of the vehicle occupant is detected from the monocular image captured in two dimensions, the vehicle occupant's arm is in front of the upper body of the vehicle occupant If it is behind the head, so-called self-shielding occurs where the arm part is hidden behind the head or torso part. When this self-occlusion occurs, the estimation accuracy of the posture of the vehicle occupant decreases.
このような問題に対して、車室内に複数のカメラを設置し、車両乗員の三次元の映像を取得し、取得した三次元画像から腕部分の検出を行う方法(例えば、特許文献3を参照)、および、車室内に3Dカメラを設置し、車両乗員の三次元画像から腕部分の検出を行う方法(例えば、特許文献4を参照)が知られている。 For such a problem, a method of installing a plurality of cameras in the vehicle interior, acquiring a three-dimensional image of the vehicle occupant, and detecting an arm portion from the acquired three-dimensional image (for example, see Patent Document 3) ) And a method of detecting an arm portion from a three-dimensional image of a vehicle occupant by installing a 3D camera in the vehicle interior (see, for example, Patent Document 4).
また従来、マーカーレスモーションキャプチャの技術では、遮蔽情報付きの姿勢辞書を用いて、自己遮蔽の対策を行う方法(例えば、特許文献5を参照)が知られている。 Conventionally, in the technique of markerless motion capture, a method for taking measures against self-shielding using a posture dictionary with shielding information (see, for example, Patent Document 5) is known.
しかし、上記特許文献3,4に記載の検出方法では、車両乗員の姿勢を推定する際に自己遮蔽が生じた場合でも姿勢推定を可能とするために、車室内に複数のカメラを配置したり、通常は車両に装着されていない特殊な3Dカメラが必要となったりする。さらに、特殊なカメラを使用する場合には、撮影画像サイズや撮影フレームレート等の仕様が姿勢推定で要求される仕様と適合しない可能性がある。つまり、上記検出方法では、姿勢推定装置のコストが増加するという問題があった。 However, in the detection methods described in Patent Literatures 3 and 4, in order to enable posture estimation even when self-occlusion occurs when estimating the posture of a vehicle occupant, a plurality of cameras are arranged in the vehicle interior. Or, a special 3D camera that is not usually mounted on the vehicle is required. Furthermore, when a special camera is used, there is a possibility that specifications such as a photographed image size and a photographing frame rate do not match the specifications required for posture estimation. That is, the above detection method has a problem that the cost of the posture estimation device increases.
また、上記特許文献5に記載の方法では、様々な姿勢画像からなる姿勢辞書を作成する必要があり、そのためのコストが増加するとともに、姿勢推定対象の人物が限定されるという問題があった。 In addition, the method described in Patent Document 5 requires creation of a posture dictionary including various posture images, which increases costs and limits the number of posture estimation target persons.
本発明は、こうした問題に鑑みてなされたものであり、自己遮蔽が発生した場合の姿勢推定精度を簡易な構成で向上させることができる乗員姿勢推定装置を提供することを目的とする。 The present invention has been made in view of these problems, and an object of the present invention is to provide an occupant posture estimation device that can improve posture estimation accuracy when self-occlusion occurs with a simple configuration.
上記目的を達成するためになされた請求項1,2に記載の乗員姿勢推定装置では、撮影手段が、車両内の所定撮影領域を繰り返し撮影し、撮影した画像である車両内画像を取得する。そして人体特徴点検出手段が、撮影手段により取得された車両内画像を用いて、車両内画像に含まれる車両乗員の姿勢を特定するために車両乗員の複数の所定の関節位置を人体特徴点として検出し、さらに人体特徴点位置予測手段が、人体特徴点検出手段により検出された人体特徴点の位置の変化に基づいて、所定時間が経過した後の、複数の人体特徴点のそれぞれの位置を予測する。さらに行動予測手段が、人体特徴点位置予測手段により予測された人体特徴点の位置である人体特徴点予測位置に基づいて、車両乗員の行動である乗員行動を予測する。また自己遮蔽判断手段が、行動予測手段による予測結果に基づいて、人体特徴点が車両乗員により隠れる現象である自己遮蔽が発生するか否かを判断する。そして自己遮蔽対策手段が、自己遮蔽が発生すると自己遮蔽判断手段により判断された場合に、行動予測手段による予測結果に基づいて、自己遮蔽により隠される人体特徴点を自己遮蔽特徴点として自己遮蔽特徴点以外の人体特徴点の人体特徴点検出手段による検出が、自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策である自己遮蔽対策を実施し、自己遮蔽が発生しないと自己遮蔽判断手段により判断された場合には、自己遮蔽の発生を考慮しない手法で人体特徴点検出手段に人体特徴点を検出させる。 In the occupant posture estimation apparatus according to claims 1 and 2 made to achieve the above object, the photographing means repeatedly photographs a predetermined photographing region in the vehicle and acquires an in-vehicle image that is a photographed image. Then, the human body feature point detecting means uses the in-vehicle image acquired by the photographing means to specify a plurality of predetermined joint positions of the vehicle occupant as human body feature points in order to specify the posture of the vehicle occupant included in the in-vehicle image. Further, the human body feature point position predicting means detects the positions of the plurality of human body feature points after a predetermined time has elapsed based on the change in the position of the human body feature point detected by the human body feature point detecting means. Predict. Further, the behavior predicting unit predicts the occupant behavior that is the behavior of the vehicle occupant based on the human body feature point predicted position that is the position of the human body feature point predicted by the human body feature point position predicting unit. Further, the self-shielding judging means judges whether or not self-shielding, which is a phenomenon in which the human body feature points are hidden by the vehicle occupant, based on the prediction result by the behavior predicting means. Then, when the self-shielding countermeasure means determines that self-shielding occurs, the self-shielding judgment means determines that the human body feature point hidden by the self-shielding is a self-shielding feature point based on the prediction result by the behavior prediction means. Implement self-shielding measures, which are measures to minimize the detection of human body feature points other than points by the body feature point detection means, and prevent self-shielding from occurring. When it is determined by the occlusion determination means, the human body feature point detection means is made to detect the human body feature point by a method that does not consider the occurrence of self-occlusion.
このように構成された乗員姿勢推定装置によれば、車両乗員の人体特徴点の変化を予測し、これにより車両乗員の行動を予測する。そして、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない手法で人体特徴点を検出するとともに、自己遮蔽が発生する場合には、車両乗員の行動の予測結果に基づいて自己遮蔽対策を実施する。すなわち、自己遮蔽が発生する場合には、自己遮蔽が発生するときの乗員行動を考慮して人体特徴点を検出することができる。 According to the occupant posture estimation device configured as described above, the change of the human body feature point of the vehicle occupant is predicted, and thereby the behavior of the vehicle occupant is predicted. If self-shielding does not occur, human body feature points are detected by a method that does not consider self-shielding. If self-shielding occurs, self-shielding measures are taken based on the prediction results of vehicle occupant behavior. To implement. That is, when self-occlusion occurs, human body feature points can be detected in consideration of occupant behavior when self-occlusion occurs.
このため、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない汎用的な検出手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。さらに、自己遮蔽が発生した場合であっても、乗員行動を考慮することができるため、上記の汎用的な検出手法を乗員行動に基づいて改良した手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。そして、自己遮蔽が発生した場合には、自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策が実施されるため、汎用的な検出手法を用いたときと比較して、自己遮蔽が発生した場合の人体特徴点の検出精度を向上させることができる。 For this reason, when the self-occlusion does not occur, the human body feature point can be detected using a general-purpose detection method that does not consider the occurrence of the self-occlusion. That is, it is not necessary to use a special photographing means like a 3D camera. Furthermore, even when self-occlusion occurs, occupant behavior can be taken into account, so that human body feature points can be detected using a method improved from the above general-purpose detection method based on occupant behavior. it can. That is, it is not necessary to use a special photographing means like a 3D camera. And when self-occlusion occurs, measures are taken to minimize the influence of the self-occlusion feature points, so that self-occlusion is less than when using a general-purpose detection method. It is possible to improve the detection accuracy of human body feature points when shielding occurs.
以上より、請求項1,2に記載の乗員姿勢推定装置によれば、3Dカメラのように特殊な撮影手段を利用することなく、2Dカメラのように汎用的な撮影手段を利用して、すなわち、簡易な構成で、車両乗員の姿勢を推定する推定精度を向上させることができる。 From the above, according to the occupant posture estimation device according to claims 1 and 2 , without using a special imaging means like a 3D camera, using a general-purpose imaging means like a 2D camera, that is, The estimation accuracy for estimating the posture of the vehicle occupant can be improved with a simple configuration.
また、請求項1,2に記載の乗員姿勢推定装置では、行動予測手段は、人体特徴点検出手段により検出された人体特徴点の位置に基づいて特定される身体部位の位置と人体特徴点予測位置との位置関係、及び、車両内に設置された操作対象の位置と人体特徴点予測位置との位置関係の少なくとも1つに基づいて、乗員行動を予測する。 Further, in the passenger posture estimating device according to claim 1 and 2, behavior predicting means, the position and the body feature points of the body part which is specified based on the detected human body feature point position by the body feature point detecting means positional relationship between the predicted position, and, based on at least one of the positional relationship between the installed operation target position and the body feature point predicted position in the vehicle, predicts the occupant behavior.
すなわち、或る身体部位に人体特徴点予測位置が近付いている場合に車両乗員がこの身体部位に接触しようとしていると予測するとともに、或る操作対象の位置に人体特徴点予測位置が近付いている場合に車両乗員がこの操作対象に接触しようとしていると予測することができる。つまり、乗員行動を簡便に予測することができる。 That is, when a human body feature point prediction position is approaching a certain body part, it is predicted that the vehicle occupant is going to contact this body part, and the human body feature point prediction position is close to a certain operation target position. In this case, it can be predicted that the vehicle occupant is going to contact the operation target. That is, occupant behavior can be easily predicted.
また、請求項1に記載の乗員姿勢推定装置では、行動予測手段は、車両乗員の両肩の人体特徴点に基づいて特定される車両乗員の頭部の位置と、車両乗員の手の人体特徴点予測位置との位置関係に基づいて、車両乗員が、頭部への接触行動である頭部接触行動を乗員行動として行うか否かを予測し、自己遮蔽判断手段は、車両乗員が頭部接触行動を行うと行動予測手段が予測した場合に、自己遮蔽が発生すると判断する。 Further, in the passenger posture estimating device according to claim 1, behavior predicting means, the position of the head of the vehicle occupant is specified based on the human body feature points of the shoulders of the vehicle occupant, human hand of the vehicle occupant Based on the positional relationship with the predicted feature point position, the vehicle occupant predicts whether or not the head contact action, which is a contact action on the head, is performed as the occupant action. When the behavior prediction means predicts that the partial contact behavior is performed, it is determined that self-occlusion occurs.
すなわち、車両乗員の頭部の位置に車両乗員の手の人体特徴点予測位置が近付いている場合に車両乗員が頭部に接触しようとしていると予測することができる。つまり、頭部接触行動を簡便に予測することができる。また、頭部接触行動を行うと予測した場合に自己遮蔽が発生すると判断するため、自己遮蔽の発生の有無の判断を簡便に行うことができる。 That is, when the human body feature point prediction position of the vehicle occupant's hand is close to the position of the vehicle occupant's head, it can be predicted that the vehicle occupant is about to contact the head. That is, the head contact behavior can be easily predicted. Further, since it is determined that self-shielding occurs when it is predicted that the head contact action will be performed, it is possible to easily determine whether or not self-shielding has occurred.
また、請求項2に記載の乗員姿勢推定装置では、行動予測手段は、車両乗員の右腕の手の人体特徴点予測位置と、車両乗員の右腕の肘の人体特徴点予測位置とを結ぶ線分を右腕予測線分とし、車両乗員の左腕の手の人体特徴点予測位置と、車両乗員の左腕の肘の人体特徴点予測位置とを結ぶ線分を左腕予測線分として、右腕予測線分と左腕予測線分とが交差する場合に、車両乗員が右腕と左腕とを交差させる行動である腕交差行動を乗員行動として行うと予測し、自己遮蔽判断手段は、車両乗員が腕交差行動を行うと行動予測手段が予測した場合に、自己遮蔽が発生すると判断する。 Further, the occupant posture estimating device according to claim 2, behavior predicting means, connecting the body feature point predicted position of the hand of the right arm of a vehicle occupant, the body feature point predicted position of the right arm of the elbow of the vehicle occupant line The right arm prediction line segment, the line segment connecting the human body feature point prediction position of the left hand of the vehicle occupant and the human body feature point prediction position of the left arm elbow of the vehicle occupant as the left arm prediction line segment And the left arm prediction line segment, the vehicle occupant predicts that the arm crossing action, which is the action of crossing the right arm and the left arm, is performed as the occupant action, and the self-occlusion judging means If it does, it will be judged that self-occlusion occurs when the behavior prediction means predicts.
このように構成された乗員姿勢推定装置によれば、車両乗員が右腕と左腕とを交差させる行動を簡便に予測することができるとともに、自己遮蔽の発生の有無の判断を簡便に行うことができる。 According to the occupant posture estimation device configured as described above, it is possible to easily predict the behavior of the vehicle occupant to cross the right arm and the left arm, and to easily determine whether or not self-occlusion has occurred. .
以下に本発明の実施形態を図面とともに説明する。
図1は、乗員姿勢推定装置1の概略構成を示すブロック図である。
本実施形態の乗員姿勢推定装置1は、車両に搭載され、図1に示すように、運転席およびその周辺を連続して撮影するカメラ11と、カメラ11により撮影された画像のデータを一時的に記憶する画像キャプチャーボード12と、各種データを記憶するデータ記憶装置13と、車内LAN(不図示)を介して他の装置と各種車両情報等をやりとりする車内LAN通信部14と、各種のガイド音声等を出力するための音声出力部15と、カメラ11による撮影のために可視光または赤外光により車室内を照らす照明装置16と、上述した画像キャプチャーボード12、データ記憶装置13及び車内LAN通信部14からの入力に応じて各種処理を実行し、車内LAN通信部14、及び音声出力部15を制御する制御部17とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating a schematic configuration of an occupant posture estimation device 1.
The occupant posture estimation device 1 according to the present embodiment is mounted on a vehicle, and as shown in FIG. 1, a camera 11 that continuously captures a driver's seat and its surroundings, and data of images captured by the camera 11 are temporarily stored. An image capture board 12 that stores data, a data storage device 13 that stores various data, an in-vehicle LAN communication unit 14 that exchanges various vehicle information and the like with other devices via an in-vehicle LAN (not shown), and various guides An audio output unit 15 for outputting sound, an illumination device 16 for illuminating the vehicle interior with visible light or infrared light for photographing by the camera 11, the image capture board 12, the data storage device 13, and the in-vehicle LAN described above Various processes are executed in response to an input from the communication unit 14, and the in-vehicle LAN communication unit 14 and the control unit 17 that controls the audio output unit 15 are provided.
制御部17は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて各種処理を実行する。 The control unit 17 is configured around a known microcomputer including a CPU, a ROM, a RAM, an I / O, a bus line for connecting these components, and the like, and various types are performed based on programs stored in the ROM and the RAM. Execute the process.
このように構成された乗員姿勢推定装置1において、制御部17は、運転者が行う操作を補助する運転者操作補助処理を実行する。図2は、運転者操作補助処理を示すフローチャートである。この運転者操作補助処理は、乗員姿勢推定装置1が起動しているときに繰り返し実行される処理である。 In the occupant posture estimation device 1 configured as described above, the control unit 17 performs a driver operation assist process that assists an operation performed by the driver. FIG. 2 is a flowchart showing driver operation assistance processing. This driver operation assisting process is a process that is repeatedly executed when the occupant posture estimation device 1 is activated.
この運転者操作補助処理が実行されると、制御部17のCPUは、まずS10にて、カメラ11により撮影された画像データを取得する。取得された画像の例を図3(a)に示す。 When the driver operation assisting process is executed, the CPU of the control unit 17 first acquires image data photographed by the camera 11 in S10. An example of the acquired image is shown in FIG.
その後S20にて、後述のS110,130の処理でセットまたはクリアされ、自己遮蔽が発生するか否かを示す自己遮蔽フラグFがセットされているか否かを判断する。
ここで、自己遮蔽フラグFがセットされていない場合には(S20:NO)、S30にて、自己遮蔽の発生を考慮しない通常用人体特徴点検出アルゴリズムに設定して、S50に移行する。
Thereafter, in S20, it is set or cleared in the processing of S110 and 130 described later, and it is determined whether or not a self-shielding flag F indicating whether or not self-shielding occurs is set.
If the self-occlusion flag F is not set (S20: NO), the normal human body feature point detection algorithm that does not consider the occurrence of self-occlusion is set in S30, and the process proceeds to S50.
なお、人体特徴点検出アルゴリズムとしては、図4(a)に示すように、人体の上半身部分と手、肘および肩の人体特徴点により形成される関節モデルを利用し、関節モデルと入力画像との照合を行う方法や、関節モデルを検出の制約条件として利用することが一般的である。 As a human body feature point detection algorithm, as shown in FIG. 4A, a joint model formed by human body feature points of the upper body part of the human body and hands, elbows and shoulders is used. It is common to use a method of matching the above and a joint model as a detection constraint.
そして、関節モデルを利用し、その上で入力画像の画素値情報の解析を行い人体特徴点を検出する方法として、図4(b)に示すように、画像からエッジを抽出しその曲率を解析し人体特徴点位置を検出する方法 、図4(c)に示すように、人物のシルエットを領域分割し人体特徴点位置を検出する方法 、図5(a)に示すように、HOGやshape context といった局所特徴量を算出し人体特徴点位置を検出する方法などがある。 Then, as a method of detecting the human body feature point by analyzing the pixel value information of the input image on the joint model and extracting the edge from the image and analyzing the curvature as shown in FIG. The method of detecting the human body feature point position, as shown in FIG. 4C, the method of detecting the human body feature point position by dividing the silhouette of the person, and the HOG and shape context as shown in FIG. 5A. There is a method of calculating a local feature amount and detecting a human body feature point position.
また、関節モデルを利用し、その上で現フレームと前フレーム間の人体特徴点位置の移動量の逐次推定・追跡を行い、人体特徴点位置を検出する方法として、図5(b)に示すように、関節モデルの身体部位領域のオプティカルフローを算出し人体特徴点位置を検出する方法や、図5(c)に示すように、パーティクルフィルタにより人体特徴点位置を検出する方法などがある。なお、これらの方法を利用する場合には、人体特徴点位置の初期値を予め算出した上で実行する必要がある。 FIG. 5B shows a method for detecting the human body feature point position by using the joint model and successively estimating and tracking the movement amount of the human body feature point position between the current frame and the previous frame. As described above, there are a method of calculating the optical flow of the body part region of the joint model and detecting the human body feature point position, and a method of detecting the human body feature point position by the particle filter as shown in FIG. In addition, when using these methods, it is necessary to execute after calculating the initial value of the human body feature point position in advance.
一方、自己遮蔽フラグFがセットされている場合には(S20:YES)、S40にて、自己遮蔽の発生を考慮した自己遮蔽用人体特徴点検出アルゴリズムに設定して、S50に移行する。なお、自己遮蔽用人体特徴点検出アルゴリズムは、後述のS80の処理で予測した行動を行う際の各特徴点の動作特性を考慮したものであり、例えば、図6(a)に示すように、運転者が携帯電話を操作する時には肩と肘の長さLAが変わらないという特性を利用し、肩と肘の長さが変わらないという条件を付与したアルゴリズムで人体特徴点を検出する。なお、携帯電話を操作する時に肩と肘の長さLAが変わらないという条件を付加することなく、通常用人体特徴点検出アルゴリズムとしてオプティカルフローを用いると、図6(b)に示すように、携帯電話を頭部に当てている側の腕の人体特徴点を適切に検出できなくなる。 On the other hand, if the self-occlusion flag F is set (S20: YES), in S40, the self-occlusion human body feature point detection algorithm is set in consideration of the occurrence of self-occlusion, and the process proceeds to S50. In addition, the human body feature point detection algorithm for self-occlusion considers the operation characteristics of each feature point when performing the action predicted in the processing of S80 described later. For example, as shown in FIG. Using the characteristic that the length LA of the shoulder and the elbow does not change when the driver operates the mobile phone, the human body feature point is detected by an algorithm to which the condition that the length of the shoulder and the elbow does not change. If the optical flow is used as the normal human body feature point detection algorithm without adding the condition that the length LA of the shoulder and the elbow does not change when operating the mobile phone, as shown in FIG. The human body feature point of the arm on the side where the mobile phone is placed on the head cannot be detected properly.
そしてS50に移行すると、S30またはS40で設定された人体特徴点検出アルゴリズムを用いて、肩、肘および手の人体特徴点を検出する。検出された人体特徴点の例を図3(b)に示す。図3(b)の点P1,P2,P3,P4,P5,P6はそれぞれ、右肩、右肘、右手、左肩、左肘、及び左手の人体特徴点を示す。またS50では、検出した人体特徴点を示す情報を、制御部17のRAMに記憶する。 In S50, the human body feature points of the shoulder, elbow and hand are detected using the human body feature point detection algorithm set in S30 or S40. An example of detected human body feature points is shown in FIG. The points P1, P2, P3, P4, P5, and P6 in FIG. 3B indicate human body feature points on the right shoulder, right elbow, right hand, left shoulder, left elbow, and left hand, respectively. In S50, information indicating the detected human body feature point is stored in the RAM of the control unit 17.
次にS60にて、S50にて検出された人体特徴点の移動速度Vを算出する。具体的には、前回検出した人体特徴点の位置をPa、今回検出した人体特徴点の位置をPb,人体特徴点を前回検出した時刻をTa、人体特徴点を今回検出した時刻をTbとして、移動速度Vを式(1)により算出する。 Next, in S60, the moving speed V of the human body feature point detected in S50 is calculated. Specifically, the position of the human feature point detected last time is Pa, the position of the human feature point detected this time is Pb, the time when the human feature point was detected last time is Ta, and the time when the human feature point is detected this time is Tb, The moving speed V is calculated by equation (1).
V = (Pb−Pa)/(Tb−Ta) ・・・(1)
なお、人体特徴点の移動速度Vの算出は、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点のそれぞれについて実行される。
V = (Pb−Pa) / (Tb−Ta) (1)
The calculation of the moving speed V of the human body feature point is executed for each of the human body feature points of the right shoulder, the left shoulder, the right elbow, the left elbow, the right hand, and the left hand.
さらにS70にて、人体特徴点の予測位置を算出する。具体的には、前回検出した人体特徴点の位置Paを始点として今回検出した人体特徴点の位置Pbに向かう方向をDpとして、位置Pbを起点として方向Dpに向かって移動速度Vで予測時間Tp(本実施形態では例えば0.5秒)移動した地点を、人体特徴点予測位置Qとする。 In S70, the predicted position of the human body feature point is calculated. Specifically, the direction from the position Pa of the previously detected human body feature point to the position Pb of the human body feature point detected this time is set as Dp, and the predicted time Tp at the moving speed V from the position Pb as the starting point to the direction Dp. The point moved (for example, 0.5 seconds in this embodiment) is set as a human body feature point predicted position Q.
なお、人体特徴点予測位置Qの算出は、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点のそれぞれについて実行される。
人体特徴点予測位置Qの算出例を図7に示す。図7では、左肩の人体特徴点が方向Dp4に向かって移動速度V4で今回位置P4bから移動した場合の人体特徴点予測位置Q4、左肘の人体特徴点が方向Dp5に向かって移動速度V5で今回位置P5bから移動した場合の人体特徴点予測位置Q5、及び左手の人体特徴点が方向Dp6に向かって移動速度V6で今回位置P6bから移動した場合の人体特徴点予測位置Q6を示す。
The calculation of the human body feature point predicted position Q is executed for each of the human body feature points of the right shoulder, left shoulder, right elbow, left elbow, right hand, and left hand.
A calculation example of the human body feature point predicted position Q is shown in FIG. In FIG. 7, when the human body feature point on the left shoulder moves from the current position P4b at the moving speed V4 in the direction Dp4, the human body feature point predicted position Q4 when the human body feature point on the left elbow moves in the direction Dp5 at the moving speed V5. The human body feature point predicted position Q5 when moving from the current position P5b and the human body feature point predicted position Q6 when the left hand human body feature point moves from the current position P6b at the moving speed V6 in the direction Dp6 are shown.
その後S80にて、S70で算出された右肩、右肘、右手、左肘、左肩、及び左手の人体特徴点予測位置Q1〜Q6に基づいて、運転者の行動を予測する。具体的には、例えば図8(a)に示すように、左手の人体特徴点予測位置Q6が、撮影された画像内におけるグローブボックスの位置を示す領域R1(以下、グローブボックス領域R1という)内に含まれる場合には、運転者がグローブボックスを開放しようとしていると予測する。つまり、人体特徴点予測位置が、撮影された画像内における車載機器の位置を示す領域内に含まれる場合には、運転者がこの車載機器を操作しようとしていると予測する。 Thereafter, in S80, the driver's behavior is predicted based on the human body feature point prediction positions Q1 to Q6 calculated in S70 on the right shoulder, right elbow, right hand, left elbow, left shoulder, and left hand. Specifically, for example, as shown in FIG. 8A, the human body feature point predicted position Q6 of the left hand is in an area R1 (hereinafter referred to as a glove box area R1) indicating the position of the glove box in the captured image. If it is included, the driver is expected to open the glove box. That is, when the human body feature point predicted position is included in the region indicating the position of the in-vehicle device in the captured image, it is predicted that the driver is going to operate the in-vehicle device.
また例えば図8(b)に示すように、左手の人体特徴点予測位置Q6が、運転者の右肩の身体部位領域R2内に含まれる場合には、運転者が左手を右肩へ接触させようとしていると予測する。つまり、人体特徴点予測位置が運転者の身体部位領域内に含まれる場合には、運転者が身体部位に関わる操作(頭をかく、肩を揉む、携帯電話を耳に当てる、ジュースの缶を口に当てる等)をしようとしていると予測する。 For example, as shown in FIG. 8B, when the human body feature point predicted position Q6 of the left hand is included in the body part region R2 of the driver's right shoulder, the driver brings the left hand into contact with the right shoulder. Predict that it is going. In other words, if the human body feature point prediction position is included in the driver's body part region, the driver's operation related to the body part (scramble head, hold shoulders, put the mobile phone on the ear, remove the juice can) Predict that you ’re trying to do it.
また例えば図9(a)に示すように、左手の人体特徴点予測位置Q6が、両肩の人体特徴点位置P1b,P4bと身体部位の統計データとを利用して設定した頭部領域R3内に含まれる場合には、運転者が頭部への接触操作(頭をかく、携帯電話を耳に当てる、ジュースの缶を口に当てる等)をしようとしていると予測する。なお、上記の身体部位の統計データとして、例えば、AIST/HQL人体寸法・形状データベース2003を用いるとよい。すなわち、まず、このデータベースのデータに基づき頭長と肩幅の比率(以下、頭長・肩幅比率という)を予め設定しておく。そして、両肩の人体特徴点位置を用いて矩形状の頭部領域R3の横方向の辺H3の長さを決定し、さらに、頭部領域R3の横方向の辺の長さと頭長・肩幅比率とから、矩形状の頭部領域R3の縦方向の辺V3の長さを決定する。 For example, as shown in FIG. 9A, the human body feature point predicted position Q6 in the left hand is within the head region R3 set by using the human body feature point positions P1b and P4b on both shoulders and the statistical data of the body part. If it is included, the driver predicts that he / she wants to touch the head (such as putting his head, putting a mobile phone on his ear, putting a can of juice on his mouth). For example, an AIST / HQL human body size / shape database 2003 may be used as the statistical data of the body part. That is, first, a ratio between the head length and the shoulder width (hereinafter referred to as the head length / shoulder width ratio) is set in advance based on the data in this database. Then, the length of the lateral side H3 of the rectangular head region R3 is determined using the human body feature point positions on both shoulders, and the lateral side length and the head length / shoulder width of the head region R3 are determined. From the ratio, the length of the side V3 in the vertical direction of the rectangular head region R3 is determined.
また例えば図9(b)に示すように、右肩、右肘、右手の人体特徴点予測位置Q1,Q2,Q3を結ぶ線分と、左肩、左肘、左手の人体特徴点予測位置Q4,Q5,Q6を結ぶ線分とが交差する場合に、運転者が両腕を交差しようとしていると予測する。 For example, as shown in FIG. 9B, the human body feature point predicted positions Q1, Q2, Q3 of the right shoulder, right elbow, and right hand and the human body feature point predicted positions Q4, Q4 of the left shoulder, left elbow, and left hand. When the line segment connecting Q5 and Q6 intersects, it is predicted that the driver is about to cross both arms.
そしてS80の処理が終了すると、S90にて、自己遮蔽フラグFがセットされているか否かを判断する。ここで、自己遮蔽フラグFがセットされていない場合には(S90:NO)、S100にて、S80で予測した運転者の行動に基づいて自己遮蔽が発生するか否かを判断する。例えば、運転者が頭部への接触操作をしようとしているとS80で予測した場合には、自己遮蔽が発生すると判断し、運転者が車載機器を操作しようとしているとS80で予測した場合には、自己遮蔽が発生しないと判断する。なお、自己遮蔽が発生するか否かの判断は、本実施形態では、S80で予測することができる行動のそれぞれに対応して、自己遮蔽が発生するか否かを示すテーブル(以下、自己遮蔽判断テーブルという)が予め設けられており、この自己遮蔽判断テーブルを参照して、自己遮蔽が発生するか否かを判断する。 When the processing of S80 is completed, it is determined in S90 whether or not the self-shielding flag F is set. If the self-shielding flag F is not set (S90: NO), it is determined in S100 whether self-shielding occurs based on the driver's behavior predicted in S80. For example, if it is predicted in S80 that the driver is going to perform a touch operation on the head, it is determined that self-shielding occurs, and if it is predicted in S80 that the driver is going to operate the in-vehicle device Judge that self-shielding does not occur. In this embodiment, whether or not self-occlusion occurs is determined according to each of the actions that can be predicted in S80 (hereinafter referred to as self-occlusion). A judgment table) is provided in advance, and it is judged whether or not self-shielding occurs by referring to this self-shielding judgment table.
ここで、自己遮蔽が発生すると判断した場合には(S100:YES)、S110にて、自己遮蔽フラグFをセットし、S140に移行する。一方、自己遮蔽が発生しないと判断した場合には(S100:NO)、S140に移行する。 If it is determined that self-shielding occurs (S100: YES), the self-shielding flag F is set in S110, and the process proceeds to S140. On the other hand, when it is determined that self-shielding does not occur (S100: NO), the process proceeds to S140.
またS90にて、自己遮蔽フラグFがセットされていると判断した場合には(S90:YES)、S120で、S80で予測した運転者の行動に基づいて自己遮蔽が解消されるか否かを判断する。なお、この判断方法は、S100で用いた方法と同一である。ここで、自己遮蔽が解消されると判断した場合には(S120:YES),S130にて、自己遮蔽フラグFをクリアし、S140に移行する。一方、自己遮蔽が解消されないと判断した場合には(S130:NO)、S140に移行する。 If it is determined in S90 that the self-shielding flag F is set (S90: YES), in S120, whether or not the self-shielding is canceled based on the driver's behavior predicted in S80. to decide. This determination method is the same as the method used in S100. If it is determined that self-shielding is eliminated (S120: YES), the self-shielding flag F is cleared in S130, and the process proceeds to S140. On the other hand, when it is determined that the self-shielding is not resolved (S130: NO), the process proceeds to S140.
そしてS140に移行すると、S80で予測した運転者の行動に基づいて、運転者が行う操作を補助するために、車内LAN通信部14と音声出力部15を制御する。例えば、運転者がグローブボックスを開放しようとしているとS80で予測した場合には、車内LAN通信部14を制御することにより車内LANを介して、グローブボックスの開閉装置(不図示)を制御するECU(不図示)へ開放指令を送信し、これにより、グローブボックスを自動的に開放させたり、運転者が運転中に携帯電話を操作しようとしているとS80で予測した場合には、音声出力部15を制御することにより音声出力部15から警告音を発生させるとともに、車内LAN通信部14を制御することにより車内LANを介してメータECU(不図示)へ表示指令を送信し、これにより、メータ表示器(不図示)に警告表示をさせたりする。そしてS140の処理が終了すると、運転者操作補助処理を一旦終了する。 When the process proceeds to S140, the in-vehicle LAN communication unit 14 and the voice output unit 15 are controlled to assist the operation performed by the driver based on the driver's behavior predicted in S80. For example, if it is predicted in S80 that the driver is going to open the glove box, the ECU that controls the opening / closing device (not shown) of the glove box via the in-vehicle LAN by controlling the in-vehicle LAN communication unit 14 When an opening command is transmitted to (not shown) and the glove box is thereby automatically opened or when it is predicted in S80 that the driver is going to operate the mobile phone while driving, the voice output unit 15 Is controlled so that a warning sound is generated from the voice output unit 15 and a display command is transmitted to the meter ECU (not shown) via the in-vehicle LAN by controlling the in-vehicle LAN communication unit 14. Warning display (not shown). Then, when the process of S140 ends, the driver operation assistance process is temporarily ended.
このように構成された乗員姿勢推定装置1では、カメラ11が、運転席及びその周辺を繰り返し撮影し、撮影された画像データを取得する(S10)。そして、取得された画像データを用いて、画像データに含まれる運転者の右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点を検出し(S50)、さらに、検出された人体特徴点の位置の変化に基づいて、予測時間Tpが経過した後の、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点の位置(人体特徴点予測位置Q)を予測する(S60,S70)。さらに、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点予測位置Qに基づいて、運転者の行動を予測する(S80)。また、予測した運転者行動に基づいて自己遮蔽が発生するか否かを判断する(S100,S120)。 In the occupant posture estimation device 1 configured as described above, the camera 11 repeatedly captures the driver's seat and the vicinity thereof, and acquires captured image data (S10). Then, using the acquired image data, the human body feature points of the driver's right shoulder, left shoulder, right elbow, left elbow, right hand, and left hand included in the image data are detected (S50), and further detected. Based on the change in the position of the human body feature point, the position of the human body feature point (human body feature point predicted position Q) after the predicted time Tp has elapsed, the right shoulder, left shoulder, right elbow, left elbow, right hand, and left hand. Prediction is performed (S60, S70). Further, based on the human body feature point prediction positions Q of the right shoulder, left shoulder, right elbow, left elbow, right hand, and left hand, the driver's behavior is predicted (S80). Further, it is determined whether self-shielding occurs based on the predicted driver behavior (S100, S120).
そして、自己遮蔽が発生すると判断された場合には(S100:YES、S20:YES)、自己遮蔽用人体特徴点検出アルゴリズムに設定する(S40)。この自己遮蔽用人体特徴点検出アルゴリズムは、予測した運転者行動を行う際の各特徴点の動作特性を考慮したものである。これにより、自己遮蔽用人体特徴点検出アルゴリズムを用いて人体特徴点が検出される(S50)。一方、自己遮蔽が発生しないと判断された場合には(S120:YES、S20:NO)、自己遮蔽の発生を考慮しない通常用人体特徴点検出アルゴリズムに設定する(S30)。これにより、通常用人体特徴点検出アルゴリズムを用いて人体特徴点が検出される(S50)。 If it is determined that self-occlusion occurs (S100: YES, S20: YES), the self-occlusion human body feature point detection algorithm is set (S40). This human body feature point detection algorithm for self-occlusion takes into consideration the operation characteristics of each feature point when performing predicted driver behavior. Thereby, a human body feature point is detected using the human body feature point detection algorithm for self-shielding (S50). On the other hand, when it is determined that self-occlusion does not occur (S120: YES, S20: NO), the normal human body feature point detection algorithm that does not consider the occurrence of self-occlusion is set (S30). Thereby, a human body feature point is detected using the normal human body feature point detection algorithm (S50).
このように構成された乗員姿勢推定装置1によれば、運転者の人体特徴点の変化を予測し、これにより運転者の行動を予測する。そして、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない手法で人体特徴点を検出するとともに、自己遮蔽が発生する場合には、運転者の行動の予測結果に基づいて自己遮蔽対策を実施する。すなわち、自己遮蔽が発生する場合には、自己遮蔽が発生するときの運転者行動を考慮して人体特徴点を検出することができる。 According to the occupant posture estimation device 1 configured as described above, a change in the human body feature point of the driver is predicted, and thereby the behavior of the driver is predicted. If self-shielding does not occur, human body feature points are detected by a method that does not consider self-shielding. If self-shielding occurs, self-shielding measures are taken based on the driver's behavior prediction results. To implement. That is, when self-occlusion occurs, the human body feature point can be detected in consideration of driver behavior when self-occlusion occurs.
このため、自己遮蔽が発生しない場合には、自己遮蔽の発生を考慮しない汎用的な検出手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。さらに、自己遮蔽が発生した場合であっても、運転者行動を考慮することができるため、上記の汎用的な検出手法を運転者行動に基づいて改良した手法を用いて人体特徴点を検出することができる。つまり、3Dカメラのように特殊な撮影手段を利用する必要がない。そして、自己遮蔽が発生した場合には、自己遮蔽により隠される人体特徴点(以下、自己遮蔽特徴点という)により人体特徴点の検出が影響を受けることを最低限に抑制するための対策が実施されるため、汎用的な検出手法を用いたときと比較して、自己遮蔽が発生した場合の人体特徴点の検出精度を向上させることができる。 For this reason, when the self-occlusion does not occur, the human body feature point can be detected using a general-purpose detection method that does not consider the occurrence of the self-occlusion. That is, it is not necessary to use a special photographing means like a 3D camera. Furthermore, even when self-occlusion occurs, driver behavior can be taken into account, and human body feature points are detected using a method improved from the general-purpose detection method based on driver behavior. be able to. That is, it is not necessary to use a special photographing means like a 3D camera. When self-shielding occurs, measures are taken to minimize the detection of human body feature points due to human body feature points hidden by self-shielding (hereinafter referred to as self-shielding feature points). Therefore, the detection accuracy of the human body feature point when self-occlusion occurs can be improved as compared with the case where a general-purpose detection method is used.
以上より、乗員姿勢推定装置1によれば、3Dカメラのように特殊な撮影手段を利用することなく、2Dカメラのように汎用的な撮影手段を利用して、すなわち、簡易な構成で、運転者の姿勢を推定する推定精度を向上させることができる。 As described above, according to the occupant posture estimation apparatus 1, a general imaging unit such as a 2D camera is used without using a special imaging unit such as a 3D camera, that is, driving with a simple configuration. The estimation accuracy for estimating the posture of the person can be improved.
また、自己遮蔽用人体特徴点検出アルゴリズムは、予測した運転者行動を行う際の各特徴点の動作特性を考慮したものである。すなわち、自己遮蔽の発生を考慮しない汎用的な検出に対して、予測した運転者行動を考慮した改良を加えることにより、自己遮蔽対策を実施することができるので、自己遮蔽対策のために特殊な人体特徴点検出手法を利用する必要がない。 Further, the human body feature point detection algorithm for self-occlusion takes into account the operation characteristics of each feature point when performing the predicted driver action. In other words, since the general-purpose detection that does not consider the occurrence of self-shielding can be implemented by adding improvements that take into account the predicted driver behavior, it is possible to implement self-shielding measures. It is not necessary to use the human body feature point detection method.
また、検出された人体特徴点の位置に基づいて特定される身体部位(本実施形態では、右肩の身体部位領域R2と頭部領域R3)の位置と人体特徴点予測位置Qとの位置関係、及び、車両内に設置された車載機器の位置(本実施形態では、グローブボックス領域R1)と人体特徴点予測位置Qとの位置関係に基づいて、運転者の行動を予測する(S80)。 Further, the positional relationship between the position of the body part (in this embodiment, the body part region R2 and the head region R3 on the right shoulder) identified based on the position of the detected human body feature point and the predicted body feature point Q And a driver | operator's action is estimated based on the positional relationship of the position (in this embodiment, glove box area | region R1) of the vehicle equipment installed in the vehicle, and the human body feature point prediction position Q (S80).
すなわち、或る身体部位に人体特徴点予測位置Qが近付いている場合に運転者がこの身体部位に接触しようとしていると予測するとともに、或る車載機器の位置に人体特徴点予測位置Qが近付いている場合に運転者がこの車載機器に接触しようとしていると予測することができる。つまり、運転者の行動を簡便に予測することができる。 That is, when the human body feature point predicted position Q is approaching a certain body part, it is predicted that the driver is going to contact this body part, and the human body feature point predicted position Q is close to the position of a certain in-vehicle device. It can be predicted that the driver is going to contact this in-vehicle device. That is, the driver's behavior can be easily predicted.
また、運転者の両肩の人体特徴点P1,P4に基づいて特定される運転者の頭部領域R3と、運転者の手の人体特徴点予測位置Q3,Q6との位置関係に基づいて、運転者が頭部への接触行動を行うか否かを予測し(S80)、頭部への接触行動を行うと予測した場合に、自己遮蔽が発生すると判断する(S100)。 Further, based on the positional relationship between the driver's head region R3 specified based on the human body feature points P1 and P4 on both shoulders of the driver and the human body feature point predicted positions Q3 and Q6 of the driver's hand, Whether or not the driver performs a contact action on the head is predicted (S80), and when it is predicted that the driver will perform a contact action on the head, it is determined that self-occlusion occurs (S100).
すなわち、運転者の頭部の位置に運転者の手の人体特徴点予測位置が近付いている場合に運転者が頭部に接触しようとしていると予測することができる。つまり、頭部接触行動を簡便に予測することができる。また、頭部接触行動を行うと予測した場合に自己遮蔽が発生すると判断するため、自己遮蔽の発生の有無の判断を簡便に行うことができる。 That is, when the human body feature point prediction position of the driver's hand is close to the position of the driver's head, it can be predicted that the driver is going to contact the head. That is, the head contact behavior can be easily predicted. Further, since it is determined that self-shielding occurs when it is predicted that the head contact action will be performed, it is possible to easily determine whether or not self-shielding has occurred.
また、運転者の右腕の手の人体特徴点予測位置Q3と運転者の右腕の肘の人体特徴点予測位置Q2とを結ぶ線分と、運転者の左腕の手の人体特徴点予測位置Q6と運転者の左腕の肘の人体特徴点予測位置Q5とを結ぶ線分とが交差する場合に、運転者が右腕と左腕とを交差させる行動(以下、腕交差行動という)を行うと予測し(S80)、この場合に、自己遮蔽が発生すると判断する(S100)。 In addition, a line segment connecting the human body feature point predicted position Q3 of the driver's right arm hand and the human body feature point predicted position Q2 of the driver's right arm elbow, and the human body feature point predicted position Q6 of the driver's left arm hand When the line connecting the human body feature point predicted position Q5 of the elbow of the driver's left arm intersects, it is predicted that the driver will perform an action (hereinafter referred to as an arm crossing action) that intersects the right arm and the left arm ( In this case, it is determined that self-occlusion occurs (S100).
すなわち、運転者が右腕と左腕とを交差させる行動を簡便に予測することができるとともに、自己遮蔽の発生の有無の判断を簡便に行うことができる。
また、運転者の右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点のみを検出するため、運転者の姿勢推定において必要性が乏しい下半身の人体特徴点を用いることがなくなり、運転者の姿勢を推定するときの処理負荷を低減することができる。
That is, it is possible to easily predict the action of the driver crossing the right arm and the left arm, and to easily determine whether or not self-occlusion has occurred.
In addition, since only the human body feature points of the driver's right shoulder, left shoulder, right elbow, left elbow, right hand, and left hand are detected, lower body features that are not necessary for estimating the posture of the driver are not used. The processing load when estimating the driver's posture can be reduced.
また、人体特徴点予測位置Qを算出する場合の予測時間Tpが、予め設定された定数である。このため、現在から何秒後の人体特徴点予測位置Qを予測するのかを、人体特徴点予測位置Qを算出する毎に設定する必要がないので、人体特徴点予測位置Qを算出するときの処理負荷を低減することができる。 Moreover, the prediction time Tp when calculating the human body feature point prediction position Q is a preset constant. For this reason, it is not necessary to set the human body feature point predicted position Q to be predicted every second from the present time every time the human body feature point predicted position Q is calculated. Processing load can be reduced.
また、カメラ11により撮影された複数の画像データのうち、連続した前後2つの画像データのみを用いて、人体特徴点予測位置Qを算出する。前後2つの画像データは、人体特徴点予測位置Qを算出するために必要最低限の画像データであり、前後2つの画像データのみを用いることにより、人体特徴点予測位置Qを算出するときの処理負荷を低減することができる。 In addition, the human body feature point predicted position Q is calculated using only two consecutive image data before and after the plurality of image data captured by the camera 11. The two front and rear image data are the minimum necessary image data for calculating the human body feature point predicted position Q, and the processing for calculating the human body feature point predicted position Q by using only the two front and rear image data. The load can be reduced.
以上説明した実施形態において、カメラ11は本発明における撮影手段、S50の処理は本発明における人体特徴点検出手段、S60,S70の処理は本発明における人体特徴点位置予測手段、S80の処理は本発明における行動予測手段、S100,S120の処理は本発明における自己遮蔽判断手段、S20〜S40の処理は本発明における自己遮蔽対策手段、予測時間Tpは本発明における所定時間である。 In the embodiment described above, the camera 11 is the photographing means in the present invention, the process in S50 is the human body feature point detecting means in the present invention, the processes in S60 and S70 are the human body feature point position predicting means in the present invention, and the process in S80 is the present process. The behavior predicting means in the invention, the processes of S100 and S120 are the self-shielding determining means in the present invention, the processes of S20 to S40 are the self-shielding countermeasure means in the present invention, and the predicted time Tp is a predetermined time in the present invention.
以上、本発明の一実施例について説明したが、本発明は上記実施例に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
例えば上記実施形態では、自己遮蔽が発生すると判断した場合には、通常用人体特徴点検出アルゴリズムから自己遮蔽用人体特徴点検出アルゴリズムに変更するものを示したが、自己遮蔽が発生すると判断した場合には、人体特徴点検出を中断するようにしてもよい。これにより、自己遮蔽が発生している場合に、通常用人体特徴点検出アルゴリズムを用いることにより人体特徴点の検出精度が悪化してしまうという状況の発生を抑制することができる。
As mentioned above, although one Example of this invention was described, this invention is not limited to the said Example, As long as it belongs to the technical scope of this invention, a various form can be taken.
For example, in the above embodiment, when it is determined that self-occlusion occurs, a change from the normal human body feature point detection algorithm to the self-occlusion human body feature point detection algorithm is shown, but when it is determined that self-occlusion occurs Alternatively, detection of human body feature points may be interrupted. Thereby, when self-occlusion has occurred, it is possible to suppress the occurrence of a situation in which the detection accuracy of the human body feature point is deteriorated by using the normal human body feature point detection algorithm.
また、自己遮蔽が発生すると判断した場合には、S80で予測した運転者の行動に基づいて人体特徴点を固定して、人体特徴点を検出するようにしてもよい。例えば、携帯電話を耳に当てる行動をしようとしていると予測する場合には、携帯電話を掴んでいる側の肘の位置を固定して人体特徴点を検出する。これにより、少なくとも、固定した人体特徴点については、自己遮蔽が発生した場合において、自己遮蔽の発生を考慮しない汎用的な検出手法を用いることにより検出精度が悪化してしまうという状況の発生を抑制することができる。 When it is determined that self-occlusion occurs, the human body feature point may be detected by fixing the human body feature point based on the driver's behavior predicted in S80. For example, when it is predicted that an action of placing a mobile phone on the ear is predicted, the position of the elbow on the side holding the mobile phone is fixed and the human body feature point is detected. As a result, at least for fixed human body feature points, when self-shielding occurs, it is possible to suppress the occurrence of a situation where the detection accuracy deteriorates by using a general-purpose detection method that does not consider the occurrence of self-shielding can do.
また、自己遮蔽が発生すると判断した場合には、自己遮蔽により隠れている人体特徴点を無視して人体特徴点を検出するようにしてもよい。また、自己遮蔽により隠れる前の人体特徴点の動作履歴から時系列フィルタ(カルマンフィルタ等)で、隠れている人体特徴点の位置を推測するようにしてもよい。 Further, when it is determined that self-occlusion occurs, the human body feature point may be detected by ignoring the human body feature point hidden by the self-occlusion. In addition, the position of the hidden human body feature point may be estimated by a time series filter (Kalman filter or the like) from the operation history of the human body feature point before being hidden by self-occlusion.
また上記実施形態では、運転者がグローブボックスを開放しようとしていると予測した場合には、グローブボックスを自動的に開放することにより、運転者が行う操作を補助するものを示した。この他に例えば、運転者の手がナビゲーション装置に近付いていることを予測すると、ナビゲーション装置の電源を自動的にオンにするようにしてもよい。 Moreover, in the said embodiment, when it estimated that the driver | operator is going to open a glove box, what supported the operation which a driver | operator performs by opening a glove box automatically was shown. In addition, for example, when it is predicted that the driver's hand is approaching the navigation device, the power of the navigation device may be automatically turned on.
また上記実施形態では、右肩、左肩、右肘、左肘、右手、及び左手の人体特徴点を検出するものを示したが、検出する人体特徴点の数を減らしてもよいし、これ以外の人体特徴点(例えば、首、腰)を検出するようにしてもよい。 In the above embodiment, the right shoulder, the left shoulder, the right elbow, the left elbow, the right hand, and the left hand are detected. However, the number of human feature points to be detected may be reduced. The human body feature points (for example, neck and waist) may be detected.
また上記実施形態では、前後の2つの画像データを用いて人体特徴点の予測位置を算出するものを示したが、3つ以上の画像データを用いるようにしてもよい。
また上記実施形態では、前後2つの人体特徴点の移動距離に基づいて人体特徴点の移動速度Vを算出するという簡便な方法で人体特徴点予測位置を算出するものを示したが、より詳細な方法で移動速度Vを算出して人体特徴点予測位置を算出するようにしてもよい。
Moreover, although the said embodiment showed what calculates the predicted position of a human body feature point using two image data before and behind, you may make it use three or more image data.
In the above embodiment, the human body feature point predicted position is calculated by a simple method of calculating the moving speed V of the human body feature point based on the moving distance between the two front and rear human body feature points. The moving speed V may be calculated by a method to calculate the human body feature point predicted position.
また上記実施形態では、乗員姿勢推定のみのためにカメラ11を用いるものを示したが、セキュリティ機能と乗員姿勢推定の両方のためにカメラ11を用いるようにしてもよい。 In the above embodiment, the camera 11 is used only for occupant posture estimation. However, the camera 11 may be used for both security functions and occupant posture estimation.
また上記実施形態では、カメラ11により撮影された画像データを画像キャプチャーボード12を介して取得するものを示したが、画像キャプチャーボード12を介さず直接カメラ11から画像データを取得するようにしてもよい。 In the above-described embodiment, the image data captured by the camera 11 is acquired via the image capture board 12. However, the image data may be acquired directly from the camera 11 without using the image capture board 12. Good.
また上記実施形態では、S140において、車内LANを介して他の装置に各種指令を送信することにより、運転者が行う操作を補助するものを示した。しかし、S80において運転者行動を予測した後に、その予測結果を車内LANを介して他の装置へ送信するようにしてもよい。これにより、運転者行動の予測結果を受信した装置は独自に、この予測結果を用いて、運転者が行う操作を補助する制御を行うことができる。 Moreover, in the said embodiment, what showed the operation which a driver | operator performs by transmitting various instructions to other apparatuses via in-vehicle LAN in S140 was shown. However, after the driver behavior is predicted in S80, the prediction result may be transmitted to another device via the in-vehicle LAN. Thereby, the apparatus which received the prediction result of driver | operator action can perform control which assists operation which a driver | operator performs uniquely using this prediction result.
1…乗員姿勢推定装置、11…カメラ、12…画像キャプチャーボード、13…データ記憶装置、14…車内LAN通信部、15…音声出力部、16…照明装置、17…制御部 DESCRIPTION OF SYMBOLS 1 ... Passenger attitude | position estimation apparatus, 11 ... Camera, 12 ... Image capture board, 13 ... Data storage device, 14 ... In-vehicle LAN communication part, 15 ... Audio | voice output part, 16 ... Illumination device, 17 ... Control part
Claims (2)
車両内の所定撮影領域を繰り返し撮影し、該撮影した画像である車両内画像を取得する撮影手段と、
前記撮影手段により取得された前記車両内画像を用いて、前記車両内画像に含まれる車両乗員の姿勢を特定するために前記車両乗員の複数の所定の関節位置を人体特徴点として検出する人体特徴点検出手段と、
前記人体特徴点検出手段により検出された前記人体特徴点の位置の変化に基づいて、所定時間が経過した後の、複数の前記人体特徴点のそれぞれの位置を予測する人体特徴点位置予測手段と、
前記人体特徴点位置予測手段により予測された前記人体特徴点の位置である人体特徴点予測位置に基づいて、前記車両乗員の行動である乗員行動を予測する行動予測手段と、
前記行動予測手段による予測結果に基づいて、前記人体特徴点が前記車両乗員により隠れる現象である自己遮蔽が発生するか否かを判断する自己遮蔽判断手段と、
前記自己遮蔽が発生すると前記自己遮蔽判断手段により判断された場合に、前記行動予測手段による予測結果に基づいて、前記自己遮蔽により隠される前記人体特徴点を自己遮蔽特徴点として前記自己遮蔽特徴点以外の前記人体特徴点の前記人体特徴点検出手段による検出が、前記自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策である自己遮蔽対策を実施し、前記自己遮蔽が発生しないと前記自己遮蔽判断手段により判断された場合には、前記自己遮蔽の発生を考慮しない手法で前記人体特徴点検出手段に前記人体特徴点を検出させる自己遮蔽対策手段と
を備え、
前記行動予測手段は、
前記人体特徴点検出手段により検出された前記人体特徴点の位置に基づいて特定される身体部位の位置と前記人体特徴点予測位置との位置関係、及び、前記車両内に設置された操作対象の位置と前記人体特徴点予測位置との位置関係の少なくとも1つに基づいて、前記乗員行動を予測し、
前記車両乗員の両肩の前記人体特徴点に基づいて特定される前記車両乗員の頭部の位置と、前記車両乗員の手の前記人体特徴点予測位置との位置関係に基づいて、前記車両乗員が、頭部への接触行動である頭部接触行動を前記乗員行動として行うか否かを予測し、
前記自己遮蔽判断手段は、
前記車両乗員が前記頭部接触行動を行うと前記行動予測手段が予測した場合に、前記自己遮蔽が発生すると判断する
ことを特徴とする乗員姿勢推定装置。 An occupant posture estimation device for estimating the posture of an occupant in a vehicle,
Photographing means for repeatedly photographing a predetermined photographing region in the vehicle and obtaining an in-vehicle image that is the photographed image;
A human body feature that detects a plurality of predetermined joint positions of the vehicle occupant as human body feature points in order to identify the posture of the vehicle occupant included in the in-vehicle image, using the in-vehicle image acquired by the photographing unit. Point detection means;
Human body feature point position predicting means for predicting the position of each of the plurality of human body feature points after a predetermined time has elapsed based on a change in the position of the human body feature points detected by the human body feature point detecting means; ,
Action predicting means for predicting an occupant action that is an action of the vehicle occupant based on a human body feature point predicted position that is a position of the human body feature point predicted by the human body feature point position predicting means;
Self-shielding judging means for judging whether self-shielding, which is a phenomenon in which the human body feature point is hidden by the vehicle occupant, based on the prediction result by the behavior predicting means;
When the self-shielding is determined by the self-shielding determining means, based on the prediction result by the behavior predicting means, the human body feature point hidden by the self-shielding is defined as the self-shielding feature point. Self-shielding is performed by implementing a self-shielding measure that is a measure for minimizing the detection of the human body feature points by the human body feature point detecting means other than being affected by the self-shielding feature points. If it is determined by the self-occlusion determination means, the human body feature point detection means to detect the human body feature point in a method that does not consider the occurrence of self-shielding ,
The behavior prediction means includes
The positional relationship between the position of the body part specified based on the position of the human body feature point detected by the human body feature point detection means and the predicted position of the human body feature point, and the operation target installed in the vehicle Predicting the occupant behavior based on at least one of a positional relationship between a position and the human body feature point predicted position;
Based on the positional relationship between the position of the head of the vehicle occupant specified based on the human body feature point on both shoulders of the vehicle occupant and the predicted position of the human body feature point of the hand of the vehicle occupant, the vehicle occupant Predicting whether or not to perform the head contact behavior that is a head contact behavior as the occupant behavior,
The self-shielding judging means is
The occupant posture estimation device according to claim 1 , wherein when the behavior predictor predicts that the vehicle occupant performs the head contact behavior, the self-occlusion is determined to occur .
車両内の所定撮影領域を繰り返し撮影し、該撮影した画像である車両内画像を取得する撮影手段と、Photographing means for repeatedly photographing a predetermined photographing region in the vehicle and obtaining an in-vehicle image that is the photographed image;
前記撮影手段により取得された前記車両内画像を用いて、前記車両内画像に含まれる車両乗員の姿勢を特定するために前記車両乗員の複数の所定の関節位置を人体特徴点として検出する人体特徴点検出手段と、A human body feature that detects a plurality of predetermined joint positions of the vehicle occupant as human body feature points in order to identify the posture of the vehicle occupant included in the in-vehicle image, using the in-vehicle image acquired by the photographing unit. Point detection means;
前記人体特徴点検出手段により検出された前記人体特徴点の位置の変化に基づいて、所定時間が経過した後の、複数の前記人体特徴点のそれぞれの位置を予測する人体特徴点位置予測手段と、Human body feature point position predicting means for predicting the position of each of the plurality of human body feature points after a predetermined time has elapsed based on a change in the position of the human body feature points detected by the human body feature point detecting means; ,
前記人体特徴点位置予測手段により予測された前記人体特徴点の位置である人体特徴点予測位置に基づいて、前記車両乗員の行動である乗員行動を予測する行動予測手段と、Action predicting means for predicting an occupant action that is an action of the vehicle occupant based on a human body feature point predicted position that is a position of the human body feature point predicted by the human body feature point position predicting means;
前記行動予測手段による予測結果に基づいて、前記人体特徴点が前記車両乗員により隠れる現象である自己遮蔽が発生するか否かを判断する自己遮蔽判断手段と、Self-shielding judging means for judging whether self-shielding, which is a phenomenon in which the human body feature point is hidden by the vehicle occupant, based on the prediction result by the behavior predicting means;
前記自己遮蔽が発生すると前記自己遮蔽判断手段により判断された場合に、前記行動予測手段による予測結果に基づいて、前記自己遮蔽により隠される前記人体特徴点を自己遮蔽特徴点として前記自己遮蔽特徴点以外の前記人体特徴点の前記人体特徴点検出手段による検出が、前記自己遮蔽特徴点により影響を受けることを最低限に抑制するための対策である自己遮蔽対策を実施し、前記自己遮蔽が発生しないと前記自己遮蔽判断手段により判断された場合には、前記自己遮蔽の発生を考慮しない手法で前記人体特徴点検出手段に前記人体特徴点を検出させる自己遮蔽対策手段とWhen the self-shielding is determined by the self-shielding determining means, based on the prediction result by the behavior predicting means, the human body feature point hidden by the self-shielding is defined as the self-shielding feature point. Self-shielding is performed by implementing a self-shielding measure that is a measure for minimizing the detection of the human body feature points by the human body feature point detecting means other than being affected by the self-shielding feature points. If it is determined by the self-occlusion determination means, self-occlusion countermeasure means for causing the human body feature point detection means to detect the human body feature point by a method not considering the occurrence of the self-occlusion;
を備え、With
前記行動予測手段は、The behavior prediction means includes
前記人体特徴点検出手段により検出された前記人体特徴点の位置に基づいて特定される身体部位の位置と前記人体特徴点予測位置との位置関係、及び、前記車両内に設置された操作対象の位置と前記人体特徴点予測位置との位置関係の少なくとも1つに基づいて、前記乗員行動を予測し、The positional relationship between the position of the body part specified based on the position of the human body feature point detected by the human body feature point detection means and the predicted position of the human body feature point, and the operation target installed in the vehicle Predicting the occupant behavior based on at least one of a positional relationship between a position and the human body feature point predicted position;
前記車両乗員の右腕の手の前記人体特徴点予測位置と、前記車両乗員の右腕の肘の前記人体特徴点予測位置とを結ぶ線分を右腕予測線分とし、前記車両乗員の左腕の手の前記人体特徴点予測位置と、前記車両乗員の左腕の肘の前記人体特徴点予測位置とを結ぶ線分を左腕予測線分として、前記右腕予測線分と前記左腕予測線分とが交差する場合に、前記車両乗員が右腕と左腕とを交差させる行動である腕交差行動を前記乗員行動として行うと予測し、A line segment connecting the human body feature point predicted position of the right hand of the vehicle occupant and the human body feature point predicted position of the elbow of the right arm of the vehicle occupant is a right arm predicted line segment, and the left arm hand of the vehicle occupant When the line segment connecting the human body feature point prediction position and the human body feature point prediction position of the left arm elbow of the vehicle occupant is a left arm prediction line segment, and the right arm prediction line segment and the left arm prediction line segment intersect Predicting that the vehicle occupant performs an arm crossing action as an action of crossing a right arm and a left arm as the occupant action,
前記自己遮蔽判断手段は、The self-shielding judging means is
前記車両乗員が前記腕交差行動を行うと前記行動予測手段が予測した場合に、前記自己遮蔽が発生すると判断するWhen the behavior predicting means predicts that the vehicle occupant performs the arm crossing behavior, it is determined that the self-occlusion occurs.
ことを特徴とする乗員姿勢推定装置。An occupant posture estimation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009281734A JP5233977B2 (en) | 2009-12-11 | 2009-12-11 | Crew attitude estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009281734A JP5233977B2 (en) | 2009-12-11 | 2009-12-11 | Crew attitude estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011123733A JP2011123733A (en) | 2011-06-23 |
JP5233977B2 true JP5233977B2 (en) | 2013-07-10 |
Family
ID=44287554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009281734A Expired - Fee Related JP5233977B2 (en) | 2009-12-11 | 2009-12-11 | Crew attitude estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5233977B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2674913B1 (en) | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
JP6613876B2 (en) * | 2015-12-24 | 2019-12-04 | トヨタ自動車株式会社 | Posture estimation apparatus, posture estimation method, and program |
WO2021033453A1 (en) * | 2019-08-21 | 2021-02-25 | コニカミノルタ株式会社 | Image processing system, image processing program, and image processing method |
US11975667B2 (en) * | 2019-09-11 | 2024-05-07 | Continental Automotive Gmbh | Method for adapting a triggering algorithm of a personal restraint device and control device for adapting a triggering algorithm of a personal restaint device |
JP7350602B2 (en) | 2019-10-07 | 2023-09-26 | 株式会社東海理化電機製作所 | Image processing device and computer program |
JP7312079B2 (en) * | 2019-10-07 | 2023-07-20 | 株式会社東海理化電機製作所 | Image processing device and computer program |
JP7267467B2 (en) | 2020-02-03 | 2023-05-01 | 三菱電機株式会社 | ATTENTION DIRECTION DETERMINATION DEVICE AND ATTENTION DIRECTION DETERMINATION METHOD |
JP7579731B2 (en) | 2021-03-26 | 2024-11-08 | 株式会社東海理化電機製作所 | VEHICLE CONTROL DEVICE, VEHICLE CONTROL SYSTEM, PROGRAM, AND VEHICLE CONTROL METHOD |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005973A (en) * | 1999-04-20 | 2001-01-12 | Atr Media Integration & Communications Res Lab | Method and device for estimating three-dimensional posture of person by color image |
JP4670803B2 (en) * | 2006-12-04 | 2011-04-13 | 株式会社デンソー | Operation estimation apparatus and program |
JP4420081B2 (en) * | 2007-08-03 | 2010-02-24 | 株式会社デンソー | Behavior estimation device |
-
2009
- 2009-12-11 JP JP2009281734A patent/JP5233977B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011123733A (en) | 2011-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5233977B2 (en) | Crew attitude estimation device | |
JP6245398B2 (en) | State estimation device, state estimation method, and state estimation program | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
JP6647423B2 (en) | Driving support device and driving support method | |
JP4926437B2 (en) | Vehicle driving support device | |
JP5088669B2 (en) | Vehicle periphery monitoring device | |
JP6394281B2 (en) | In-vehicle alert system, alarm control device | |
JP5092776B2 (en) | Gaze direction detection device and gaze direction detection method | |
JP6127659B2 (en) | Driving support device and driving support method | |
JP6197814B2 (en) | Vehicle display device | |
KR101270602B1 (en) | Method for providing around view of vehicle | |
JP2007295043A (en) | Vehicle periphery monitoring apparatus | |
JP2010044561A (en) | Monitoring device to be mounted on vehicle | |
JP2010191793A (en) | Alarm display and alarm display method | |
JP2017004181A (en) | Obstacle alarm system and obstacle alarm system method | |
JP2014048978A (en) | Moving body warning device, and moving body warning method | |
JP2010264945A (en) | Parking support device, parking support method and parking support program | |
JP5111934B2 (en) | Monitoring device | |
JP2018151930A (en) | Driver state estimation device and driver state estimation method | |
JP2007142545A (en) | Vehicle periphery image processing apparatus and program | |
WO2017209225A1 (en) | State estimation apparatus, state estimation method, and state estimation program | |
EP1897751A2 (en) | Driving assist system for a vehicle | |
JP2014115859A (en) | Inattentive driving determination device | |
JP2010067058A (en) | Face direction detection device | |
KR101469458B1 (en) | Parking assistance apparatus and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130311 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5233977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |