JP7314085B2 - Image processing device, computer program, and anomaly estimation system - Google Patents
Image processing device, computer program, and anomaly estimation system Download PDFInfo
- Publication number
- JP7314085B2 JP7314085B2 JP2020048022A JP2020048022A JP7314085B2 JP 7314085 B2 JP7314085 B2 JP 7314085B2 JP 2020048022 A JP2020048022 A JP 2020048022A JP 2020048022 A JP2020048022 A JP 2020048022A JP 7314085 B2 JP7314085 B2 JP 7314085B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- image
- posture
- image processing
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、移動体の運転者が写り込んだ画像を処理する画像処理装置に関連する。本発明は、当該画像処理装置の処理部により実行されるコンピュータプログラムにも関連する。本発明は、前記画像に基づいて前記運転者の姿勢が異常であるかを推定する異常推定システムにも関連する。 The present invention relates to an image processing apparatus that processes an image in which a driver of a mobile object is captured. The present invention also relates to a computer program executed by a processing section of the image processing apparatus. The present invention also relates to an abnormality estimation system for estimating whether the posture of the driver is abnormal based on the image.
特許文献1は、移動体の一例としての車両の運転者の姿勢の異常を検知する技術を開示している。姿勢の異常は、当該車両に搭載された撮像装置により取得された当該運転者が写り込んだ画像に基づいて推定される。
本発明の目的は、撮像装置により取得された画像に基づいてなされる移動体の運転者の姿勢異常の推定の確からしさを高めることである。 SUMMARY OF THE INVENTION An object of the present invention is to increase the likelihood of estimating an abnormal posture of a driver of a mobile object based on an image acquired by an imaging device.
上記の目的を達成するための一態様は、画像処理装置であって、
移動体の運転者が写り込んだ画像に対応する画像情報を受け付ける受付部と、
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する処理部と、
を備えており、
前記処理部は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を上回る場合、前記姿勢が異常であると推定する。
One aspect for achieving the above object is an image processing device,
a reception unit that receives image information corresponding to an image in which the driver of the moving object is captured;
a processing unit that estimates whether the posture of the driver is abnormal based on the image information;
and
The processing unit, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
The posture is estimated to be abnormal when the amount of decrease in the distance in the direction corresponding to the vertical direction of the moving object between the plurality of feature points reflected in the image exceeds a threshold.
上記の目的を達成するための一態様は、画像処理装置の処理部により実行可能なコンピュータプログラムであって、
実行されることにより、前記画像処理装置に、
移動体の運転者が写り込んだ画像に対応する画像情報を受け付けさせ、
前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定させ、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記運転者の姿勢が異常であると推定させる。
One aspect for achieving the above object is a computer program executable by a processing unit of an image processing apparatus,
By being executed, the image processing device
receiving image information corresponding to an image in which a driver of a mobile object is captured;
Based on the image information,
specifying a plurality of feature points on the upper body of the driver reflected in the image;
If the amount of decrease in the distance in the direction corresponding to the vertical direction of the moving body between the plurality of feature points reflected in the image is below a threshold, it is estimated that the driver's posture is abnormal.
上記の目的を達成するための一態様は、異常推定システムであって、
移動体の運転者が写り込んだ画像に対応する画像情報を出力する撮像装置と、
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する画像処理装置と、
前記画像処理装置により前記姿勢が異常であるとの推定結果に基づいて、前記移動体に搭載された被制御装置の動作を制御する制御装置と、
を備えており、
前記画像処理装置は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記姿勢が異常であると推定する。
One aspect for achieving the above object is an anomaly estimation system,
an imaging device that outputs image information corresponding to an image in which a driver of a mobile object is captured;
an image processing device that estimates whether the posture of the driver is abnormal based on the image information;
a control device that controls the operation of a controlled device mounted on the moving body based on the estimation result that the posture is abnormal by the image processing device;
and
The image processing device, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
The posture is estimated to be abnormal when the amount of decrease in the distance in the direction corresponding to the vertical direction of the moving object between the plurality of feature points captured in the image is below a threshold.
例えば国土交通省により定義されている「突っ伏し姿勢」のように、撮像装置により取得される画像に顔が写りこみにくくなる異常姿勢が存在する。この場合、顔の向きや位置に基づいて異常姿勢の推定を行なうことが困難になりうる。しかしながら、上記の各態様に係る構成においては、正常姿勢からの逸脱に伴って移動体の上下方向における距離が減少する複数の特徴点を運転者の上半身から選ぶことにより、顔の向きや位置が異常姿勢の推定に及ぼす影響を抑制している。これにより、撮像装置により取得された画像に基づいてなされる運転者の姿勢異常の推定の確からしさを高めることができる。 For example, there are abnormal postures, such as the “prostrate posture” defined by the Ministry of Land, Infrastructure, Transport and Tourism, in which the face is less likely to appear in the image acquired by the imaging device. In this case, it may be difficult to estimate the abnormal posture based on the direction and position of the face. However, in the configuration according to each of the above aspects, by selecting a plurality of feature points from the driver's upper body at which the distance in the vertical direction of the moving object decreases as the vehicle deviates from the normal posture, the direction and position of the face affect the estimation of the abnormal posture. As a result, it is possible to increase the likelihood of estimating the abnormal posture of the driver based on the image acquired by the imaging device.
添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。図1は、一実施形態に係る異常推定システム10の機能構成を例示している。異常推定システム10は、図2に例示される車両20の運転者30が写り込んだ画像に基づいて、運転者30の姿勢が異常であるかを推定するシステムである。車両20は、移動体の一例である。
Exemplary embodiments are described in detail below with reference to the accompanying drawings. FIG. 1 illustrates the functional configuration of an
姿勢の異常は、運転者30の異常を検知するために推定される。本明細書において用いられる「運転者の異常」という語は、予め予測することが困難な体調の急変を意味する。
Posture anomalies are estimated to detect anomalies of
添付の図面において、矢印Fは、運転者30から見た前方向を表している。矢印Bは、運転者30から見た後方向を表している。矢印Lは、運転者30から見た左方向を表している。矢印Rは、運転者30から見た右方向を表している。矢印Uは、運転者30から見た上方向を表している。矢印Dは、運転者30から見た下方向を表している。
In the accompanying drawings, arrow F represents the forward direction as seen from
図1に例示されるように、異常推定システム10は、撮像装置11を含んでいる。撮像装置11は、車両20における適宜の箇所に配置される。図2に例示される車両20の車室21内に配置されたシート22に着座した運転者30が、撮像装置11による撮像に供される。
As illustrated in FIG. 1 , an
図1に例示されるように、撮像装置11は、取得された画像に対応する画像情報Iを出力するように構成されている。画像情報Iは、アナログデータの形態でもよいし、デジタルデータの形態でもよい。 As illustrated in FIG. 1, the imaging device 11 is configured to output image information I corresponding to the captured image. The image information I may be in the form of analog data or in the form of digital data.
異常推定システム10は、画像処理装置12を含んでいる。画像処理装置12は、受付部121と処理部122を備えている。受付部121は、撮像装置11から画像情報Iを受け付けるように構成されている。画像情報Iがアナログデータの形態である場合、受付部121は、A/Dコンバータを含む適宜の変換回路を含みうる。処理部122は、デジタルデータの形態である画像情報Iを処理の対象とする。
The
処理部122は、画像情報Iに基づいて運転者30の姿勢が異常であるかを推定する処理を実行するように構成されている。当該処理の詳細については後述する。
The
画像処理装置12は、出力部123を備えている。処理部122は、運転者30の姿勢が異常であると推定された場合、出力部123を通じて制御情報Cを出力するように構成されている。制御情報Cは、デジタルデータの形態でもよいし、アナログデータの形態でもよい。制御情報Cがアナログデータの形態である場合、出力部123は、D/Aコンバータを含む適宜の変換回路を含みうる。
The
異常推定システム10は、制御装置13を含んでいる。制御装置13は、車両20に搭載されている。制御装置13は、画像処理装置12から出力された制御情報Cに基づいて、車両20に搭載された被制御装置40の動作を制御するように構成されている。
The
具体的には、制御装置13は、運転者30の姿勢が異常であると推定された場合に、車両20の運転支援を有効にするように構成されている。本明細書において用いられる「運転支援」という語は、運転操作(ハンドル操作、加速、減速など)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
Specifically, the
例えば、制御装置13は、画像処理装置12から出力された制御情報Cに基づいて、車両20を減速させ、路肩に停車させるために必要な動作を、被制御装置40に行なわせる。被制御装置40の例としては、車両20の駆動系を構成する装置、灯具、運転支援動作が有効であることを車両20や他車両の乗員や歩行者に報知する装置などが挙げられる。
For example, based on the control information C output from the
次に、図3から図5を参照しつつ、画像処理装置12の処理部122により実行される運転者30の姿勢を推定する処理について詳細に説明する。図3は、当該処理の流れを例示している。
Next, the processing for estimating the posture of the
処理部122は、受付部121を通じて撮像装置11から画像情報Iを受け付ける(STEP1)。図4は、撮像装置11により取得された運転者30が写り込んだ画像IMを例示している。画像情報Iは、画像IMに対応している。
The
続いて、処理部122は、骨格モデルを適用する処理を行なう(図3のSTEP2)。本明細書で用いられる「骨格モデルを適用する処理」という語は、撮像装置により取得された画像に写り込んだ運転者において当該骨格モデルにおいて規定された複数の特徴点を検出し、当該複数の特徴点同士を当該骨格モデルにおいて規定された複数の骨格線で接続することを意味する。
Subsequently, the
図5は、撮像装置11により取得された画像IMに写り込んだ運転者30に骨格モデルMが適用された例を示している。本例においては、骨格モデルMは、頭特徴点H、首特徴点NK、左肩特徴点LS、および右肩特徴点RSを含んでいる。
FIG. 5 shows an example in which the skeletal model M is applied to the
頭特徴点Hは、モデル人体の頭の中心に対応する点である。首特徴点NKは、モデル人体の首に対応する点である。左肩特徴点LSは、モデル人体の左肩に対応する点である。右肩特徴点RSは、モデル人体の右肩に対応する点である。頭特徴点Hと首特徴点NKは、骨格線により接続されている。首特徴点NKは、左肩特徴点LSおよび右肩特徴点RSの各々と骨格線により接続されている。 The head feature point H is a point corresponding to the center of the head of the model human body. The neck feature point NK is a point corresponding to the neck of the model human body. The left shoulder feature point LS is a point corresponding to the left shoulder of the model human body. The right shoulder feature point RS is a point corresponding to the right shoulder of the model human body. The head minutiae H and the neck minutiae NK are connected by a skeleton line. The neck feature point NK is connected to each of the left shoulder feature point LS and the right shoulder feature point RS by skeleton lines.
処理部122は、画像IMに写り込んだ運転者30において、頭特徴点H、首特徴点NK、左肩特徴点LS、および右肩特徴点RSの各々に対応する点を検出し、検出された複数の点同士を、上記の各骨格線で接続する。この処理を遂行するためのアルゴリズムは周知であるので、詳細な説明は省略する。
The
図1に例示されるように、画像処理装置12は、記憶部124を備えている。処理部122は、各特徴点の画像IMにおける位置を、正常時における運転者30の姿勢を表すものとして記憶部124に記憶する。具体的には、各特徴点に対応する画像IM中の画素の位置が、記憶部124に保存される。
As illustrated in FIG. 1 , the
続いて、処理部122は、運転者30の姿勢が異常であるかを推定する姿勢推定処理を実行する(図3のSTEP3)。姿勢推定処理の詳細については、後述する。
Subsequently, the
姿勢推定処理の結果、運転者30の姿勢が異常でないと推定されると(STEP4においてNO)、処理はSTEP1に戻り、次の画像情報Iが受け付けられる。画像情報Iの受け付けが繰り返される周期は、撮像装置11のフレームレートに対応しうる。
As a result of the posture estimation processing, when it is estimated that the posture of the
姿勢推定処理の結果、運転者30の姿勢が異常であると判断されると(STEP4においてYES)、処理部122は、出力部123から制御情報Cを出力する(STEP5)。制御情報Cは、制御装置13へ送信される。制御情報Cは、同じ動作を被制御装置40に行なわせるものであってもよいし、推定された異常姿勢の種別に応じて異なる動作を被制御装置40に行なわせるものであってもよい。
When it is determined that the posture of
次に、図6から図9を参照しつつ、処理部122により実行される姿勢推定処理(図3におけるSTEP3)の詳細について説明する。本例においては、運転者30が「突っ伏し姿勢」をとっているかが推定される。
Next, details of posture estimation processing (STEP 3 in FIG. 3) executed by the
「突っ伏し姿勢」は、国土交通省により定義されている複数種の「姿勢崩れパターン」の一つである。「突っ伏し姿勢」は、運転者が前方に倒れ、ハンドルの付近に顔が位置している姿勢が継続している状態として定義されている。 The “bent-down posture” is one of multiple types of “posture collapse patterns” defined by the Ministry of Land, Infrastructure, Transport and Tourism. A "bent down posture" is defined as a state in which the driver continues to fall forward with his/her face positioned near the steering wheel.
図6は、「突っ伏し姿勢」を例示している。「突っ伏し姿勢」は、運転者の顔における特定の位置の、正常時からの車両20の前方向への移動量ΔDFが閾値を上回るとともに車両20の下方向への移動量ΔDDが閾値を上回り、かつ運転者の顔の下方へのピッチ角θPDが閾値を上回った状態として定義される。ΔDFの閾値は、例えば200mmである。ΔDDの閾値は、例えば180mmである。θPDの閾値は、例えば30°である。
FIG. 6 exemplifies the "prostrate position". The “bent down posture” is defined as a state in which the forward movement amount ΔDF of the
図7は、姿勢推定処理の流れの一例を示している。図8は、図4および図5に例示された画像IMのうち、運転者30の上半身が写り込んでいる部分を拡大して示している。本例においては、骨格モデルMを適用する処理により、鼻特徴点NSもまた検出されうる。鼻特徴点NSは、モデル人体の鼻に対応する点である。
FIG. 7 shows an example of the flow of posture estimation processing. FIG. 8 shows an enlarged portion of the image IM illustrated in FIGS. 4 and 5 in which the upper half of the body of the
まず、処理部122は、撮像装置11により取得された画像IMに写り込んだ運転者30の鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向に対応する方向における距離dを特定する(図7のSTEP11)。鼻特徴点NSと左肩特徴点LSは、上半身における複数の特徴点の一例である。距離dは、画素数により特定される。特定された距離dの値は、記憶部124に記憶される。
First, the
続いて、処理部122は、STEP11において特定された距離dの値と記憶部124に記憶されている距離dの値を比較し、減少量が閾値dthを上回っているかを判断する(STEP12)。
Subsequently, the
図9は、運転者30が「突っ伏し姿勢」をとった場合における鼻特徴点NSと左肩特徴点LSの間の距離dの経時変化を例示している。運転者30が前方に倒れるに連れて、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dは、急速に減少する。図示の例においては、時点t1において距離dの減少が始まり、時点t2において減少量が閾値dthを上回っている。
FIG. 9 illustrates the change over time of the distance d between the nose feature point NS and the left shoulder feature point LS when the
したがって、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dの減少量が閾値dthを上回っていると判断された場合(STEP12においてYES)、処理部122は、運転者30が「突っ伏し姿勢」をとっていると推定する(STEP13)。処理は、図3のSTEP4におけるYESの判断に反映される。閾値dthは、一般的な運転者30が「突っ伏し姿勢」をとる場合に生じうる距離dの減少量として、統計的に定められうる。
Therefore, when it is determined that the amount of decrease in the vertical distance d of the
他方、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dの減少量が閾値dthを上回っていないと判断された場合(STEP12においてNO)、処理部122は、運転者30が「突っ伏し姿勢」をとっていないと推定する(STEP14)。処理は、図3のSTEP4におけるNOの判断に反映される。
On the other hand, if it is determined that the amount of decrease in distance d in the vertical direction of
図6に示される「突っ伏し姿勢」の定義に鑑みると、運転者30の顔の向きや顔の位置が特定されることが好ましい。しかしながら、実際に運転者30が「突っ伏し姿勢」をとる場合、画像IMに顔が写りこみにくくなるので、顔の向きや顔の位置の特定が困難でありうる。上記のような構成においては、「突っ伏し姿勢」がとられる場合に車両20の上下方向における距離が減少する複数の特徴点を運転者30の上半身から選ぶことにより、顔の向きや位置が「突っ伏し姿勢」の推定に及ぼす影響を抑制している。これにより、撮像装置11により取得された画像IMに基づいてなされる運転者30の姿勢異常の推定の確からしさを高めることができる。
In view of the definition of the “bent down posture” shown in FIG. 6, it is preferable that the orientation and position of the face of the
上述のように、運転者30の顔の向きや位置によっては、鼻特徴点NSの特定が困難である場合がある。よって、図7に例示されるように、処理部122は、鼻特徴点NSの特定が不能であるかを判断しうる(STEP15)。
As described above, depending on the direction and position of the driver's 30 face, it may be difficult to specify the nose feature point NS. Therefore, as exemplified in FIG. 7, the
鼻特徴点NSが特定できた場合(STEP15においてNO)、処理はSTEP12に進み、前述の通り鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dの減少量が閾値dthを上回っているかが判断される。
If the nose feature point NS has been identified (NO in STEP15), the process proceeds to STEP12, and as described above, it is determined whether the amount of decrease in the distance d in the vertical direction of the
鼻特徴点NSが特定できない場合(STEP15においてYES)、図8に例示されるように、処理部122は、頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離d’を特定する(STEP16)。頭特徴点Hと左肩特徴点LSは、上半身における複数の特徴点の一例である。距離d’は、画素数により特定される。特定された距離d’の値は、記憶部124に記憶される。
If the nose feature point NS cannot be specified (YES in STEP 15), as illustrated in FIG. 8, the
この場合、処理部122は、STEP16において特定された距離d’の値と記憶部124に記憶されている距離d’の値を比較し、減少量が閾値dth’を上回っているかを判断する(STEP12)。閾値dthは、一般的な運転者30が「突っ伏し姿勢」をとる場合に生じうる距離d’の減少量として、統計的に定められうる。
In this case, the
頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離d’の減少量が閾値dth’を上回っていると判断された場合(STEP12においてYES)、処理部122は、運転者30が「突っ伏し姿勢」をとっていると推定する(STEP13)。処理は、図3のSTEP4におけるYESの判断に反映される。
If it is determined that the amount of decrease in the distance d' in the vertical direction of the
他方、頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離d’の減少量が閾値dth’を上回っていないと判断された場合(STEP12においてNO)、処理部122は、運転者30が「突っ伏し姿勢」をとっていないと推定する(STEP14)。処理は、図3のSTEP4におけるNOの判断に反映される。
On the other hand, if it is determined that the amount of decrease in the distance d' in the vertical direction of the
このような構成によれば、顔の向きや位置が「突っ伏し姿勢」の推定に及ぼす影響をさらに抑制できる。 According to such a configuration, it is possible to further suppress the influence of the direction and position of the face on the estimation of the "bent down posture".
図8に例示されるように、撮像装置11により取得された画像IMに写り込んだ運転者30に骨格モデルMを適用する処理により、画像IMにおいて運転者30の頭部31が位置する領域を推定する矩形の枠FMが設定されうる。この場合、処理部122は、画像IMに写り込んだ運転者30の頭部31の車両20のピッチ方向への回転角を検出しうる。
As illustrated in FIG. 8 , a rectangular frame FM for estimating the region where the
本明細書で用いられる「ピッチ方向」という語は、車両20の左右方向に延びる軸を中心とする回転方向を意味する。「ピッチ方向」に関しては、運転者30の左方から見て反時計回り方向を「下ピッチ方向」と定義し、運転者30の左方から見て時計回り方向を「上ピッチ方向」と定義する。
As used herein, the term “pitch direction” refers to the direction of rotation about an axis extending in the left-right direction of
図10は、設定された枠FMを用いて頭部31の中心座標CTを仮定する手法を説明するための図である。同図においては、頭部31を左方から見た状態が模式的に示されている。本例においては、車両20の上下方向における頭部31の幅、および車両20の前後方向における頭部31の幅は、図8に示される枠FMの幅Wと同一であるとみなされる。この前提下において、頭部31の中心座標CTは、頭特徴点Hから車両20の後方へ(W/2)だけ離れた点として仮定される。処理部122は、距離(W/2)に対応する画素数を、記憶部124に保存する。
FIG. 10 is a diagram for explaining a method of assuming the center coordinates CT of the
このとき、中心座標CTと鼻特徴点NSを結ぶ直線が中心座標CTと頭特徴点Hを結ぶ直線に対してなす角度θP0は、車両20の左右方向における頭特徴点Hと鼻特徴点NSの間の距離dHNと上記の(W/2)のアークタンジェントを求めることにより特定されうる。この角度θP0は、運転者30が正常姿勢をとっている場合の初期角度として、記憶部124に保存される。
At this time, the angle θP0 formed by the straight line connecting the center coordinate CT and the nose feature point NS with respect to the straight line connecting the center coordinate CT and the head feature point H can be specified by obtaining the arctangent of (W/2) and the distance dHN between the head feature point H and the nose feature point NS in the lateral direction of the
運転者30が「突っ伏し姿勢」をとると、頭部31は、車両20のピッチ方向へ回転する。このとき、中心座標CTと鼻特徴点NSを結ぶ直線が中心座標CTと頭特徴点Hを結ぶ直線(車両20の前後方向)に対してなす角度θP1は、初期角度θP0から変化する。その変化量(θP1-θP0)は、車両20のピッチ方向への頭部31の回転角θPとみなされうる。したがって、その変化量(θP1-θP0)の絶対値が閾値を上回る場合に、運転者30が「突っ伏し姿勢」をとっていると推定されうる。閾値は、国土交通省による定義に基づいて、適宜に定められうる。
When the
処理部122は、運転者30が「突っ伏し姿勢」をとっていると推定された場合(図7のSTEP13)、上記の原理に基づいて、車両20の下ピッチ方向への頭部31の回転角θPを特定する処理を行なってもよい。具体的には、図8に例示されるように、車両20の上下方向における取得された画像IMに写り込んだ運転者30の頭特徴点Hと鼻特徴点NSの間の距離dHNを特定する。距離dHNは、画素数として特定される。続いて、処理部122は、記憶部124に保存されている距離(W/2)と距離dHNのアークタンジェントを求めることにより、上記の角度θP1を特定する。
When the
さらに、処理部122は、特定された角度θP1と初期角度θP0の差分値をとることにより、車両20の下ピッチ方向への頭部31の回転角θPを特定する。処理部122は、特定された回転角θPの絶対値が記憶部124に保存されている閾値を上回っているかを判断する。
Furthermore, the
特定された回転角θPの絶対値が閾値を上回っている場合、処理部122は、運転者30が「突っ伏し姿勢」をとっているとの推定を確定させる。
When the absolute value of the specified rotation angle θP exceeds the threshold, the
他方、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向に対応する方向における距離dに基づいて運転者30が「突っ伏し姿勢」をとっていると推定されたにも関わらず、特定された回転角θPの絶対値が閾値を上回っていない場合、処理部122は、運転者30が「突っ伏し姿勢」をとっているとの推定を取り消す。例えば、運転者30が上半身を前傾させ、正面を見たまま顎をステアリングホイールにのせる姿勢をとった場合、このような条件が成立しうる。当該姿勢は、「突っ伏し姿勢」には該当しない。
On the other hand, if the absolute value of the identified rotation angle θP does not exceed the threshold even though the distance d in the direction corresponding to the vertical direction of the
したがって、上記のような構成によれば、撮像装置11により取得された画像IMに基づいてなされる運転者30の姿勢異常の推定の確からしさをさらに高めることができる。
Therefore, according to the configuration as described above, it is possible to further increase the probability of estimating the posture abnormality of the
これまで説明した各機能を有する処理部122は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサは、ROM上に記憶されたコンピュータプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。上記のコンピュータプログラムは、汎用メモリにプリインストールされてもよいし、通信ネットワークを介して外部サーバからダウンロードされて汎用メモリにインストールされてもよい。この場合、外部サーバは、コンピュータプログラムを記憶している記憶媒体の一例である。
The
処理部122は、マイクロコントローラ、ASIC、FPGAなどの上記のコンピュータプログラムを実行可能な専用集積回路によって実現されてもよい。この場合、当該専用集積回路に含まれる記憶素子に上記のコンピュータプログラムがプリインストールされる。当該記憶素子は、コンピュータプログラムを記憶している記憶媒体の一例である。処理部122は、汎用マイクロプロセッサと専用集積回路の組合せによっても実現されうる。
The
記憶部124は、半導体メモリやハードディスク装置により実現されうる。記憶部124は、上記の汎用メモリや記憶素子により実現されてもよい。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。 The above embodiments are merely examples for facilitating understanding of the present invention. The configurations according to the above embodiments can be modified and improved as appropriate without departing from the scope of the present invention.
上記の実施形態においては、運転者30が「突っ伏し姿勢」をとっているかを推定するために、鼻特徴点NSまたは頭特徴点Hと左肩特徴点LSが用いられている。しかしながら、正常姿勢からの逸脱に伴って車両20の上下方向における距離が減少する特徴点同士であれば、運転者30の上半身に含まれるものから適宜の組合せを選択可能である。そのような組合せの例としては、鼻特徴点と首特徴点、左耳特徴点と左肩特徴点などが挙げられる。
In the above embodiment, the nose feature point NS or the head feature point H and the left shoulder feature point LS are used to estimate whether the
正常姿勢からの逸脱に伴って車両20の上下方向における距離が減少する複数の特徴点が運転者30の上半身から適宜に選ばれることにより、画像処理装置12の処理部122は、運転者30が「横倒れ姿勢」をとっているかも推定しうる。
By appropriately selecting a plurality of feature points from the upper body of the
「横倒れ姿勢」は、国土交通省により定義されている複数種の「姿勢崩れパターン」の一つである。「横倒れ姿勢」は、運転者の上半身が左方または右方へ傾き、かつ運転者の顔も同方向に傾いている姿勢が継続している状態として定義されている。 The "sideways posture" is one of multiple types of "posture collapse patterns" defined by the Ministry of Land, Infrastructure, Transport and Tourism. A "sideways posture" is defined as a state in which the driver's upper body is tilted leftward or rightward and the driver's face is also tilted in the same direction.
図11は、左方への「横倒れ姿勢」を例示している。左方への「横倒れ姿勢」は、運転者の顔における特定の位置の、正常時からの車両20の左方向への移動量ΔDLが閾値を上回り、かつ運転者の顔の左方へのロール角θRLが閾値を上回った状態として定義される。ΔDLの閾値は、例えば200mmである。θRLの閾値は、例えば15°である。
FIG. 11 exemplifies a "sideways posture" to the left. The leftward “sideways posture” is defined as a state in which the leftward movement amount ΔDL of the
図12は、右方への「横倒れ姿勢」を例示している。右方への「横倒れ姿勢」は、運転者の顔における特定の位置の、正常時からの車両20の右方向への移動量ΔDRが閾値を上回り、かつ運転者の顔の右方へのロール角θRRが閾値を上回った状態として定義される。ΔDRの閾値は、例えば200mmである。θRRの閾値は、例えば15°である。
FIG. 12 exemplifies a "sideways posture" to the right. The rightward "sideways posture" is defined as a state in which the rightward movement amount ΔDR of the
このような定義に依らず、運転者30が「横倒れ姿勢」をとる場合、例えば頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離dは、減少する傾向にある。したがって、減少量に係る閾値dthを適宜に定めることにより、運転者30が「横倒れ姿勢」をとっているかを推定できる。
Irrespective of such definition, when the
画像処理装置12は、車両20に搭載されてもよいし、車両20と周知の無線通信ネットワークを介して通信可能な外部装置として提供されてもよい。画像処理装置12が車両20に搭載される場合、画像処理装置12による画像処理と制御装置13による制御処理は、共通の装置あるいは素子によって行なわれてもよい。画像処理装置12が車両20と周知の無線通信ネットワークを介して通信可能な外部装置として提供される場合、撮像装置11から出力された画像情報Iが、無線通信ネットワークを介して画像処理装置12に送信される。処理部122による姿勢推定処理の結果として出力されうる制御情報Cは、周知の無線通信ネットワークを介して制御装置13へ送信される。
The
異常推定システム10は、車両20以外の移動体にも適用されうる。他の移動体の例としては、鉄道、航空機、船舶などが挙げられる。
The
10:異常推定システム、11:撮像装置、12:画像処理装置、121:受付部、122:処理部、13:制御装置、20:車両、30:運転者、31:頭部、40:被制御装置、H:頭特徴点、I:画像情報、IM:画像、LS:左肩特徴点、NS:鼻特徴点、d、d’:距離、dth、dth’:閾値、θP:ピッチ方向への回転角 10: Abnormality estimation system 11: Imaging device 12: Image processing device 121: Receiving unit 122: Processing unit 13: Control device 20: Vehicle 30: Driver 31: Head 40: Controlled device H: Head feature point I: Image information IM: Image LS: Left shoulder feature point NS: Nose feature point d, d': Distance dth, dth': Threshold θP: Rotation angle in pitch direction
Claims (8)
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する処理部と、
を備えており、
前記処理部は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を上回る場合、前記姿勢が異常であると推定する、
画像処理装置。 a reception unit that receives image information corresponding to an image in which the driver of the moving object is captured;
a processing unit that estimates whether the posture of the driver is abnormal based on the image information;
and
The processing unit, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
estimating that the posture is abnormal when an amount of decrease in distance in a direction corresponding to the vertical direction of the moving body between the plurality of feature points reflected in the image exceeds a threshold;
Image processing device.
請求項1に記載の画像処理装置。 The processing unit estimates that the driver is in a prone posture when the amount of decrease in the distance exceeds the threshold.
The image processing apparatus according to claim 1.
前記画像に写り込んだ前記運転者の頭部の前記移動体のピッチ方向への回転角を特定し、
前記距離の減少量が前記閾値を上回り、かつ前記回転角が閾値を上回る場合、前記運転者が突っ伏し姿勢をとっていると推定する、
請求項1または2に記載の画像処理装置。 The processing unit is
identifying a rotation angle of the driver's head reflected in the image in the pitch direction of the moving object;
If the amount of decrease in the distance exceeds the threshold and the rotation angle exceeds the threshold, it is estimated that the driver is in a prone posture.
The image processing apparatus according to claim 1 or 2.
請求項1から3のいずれか一項に記載の画像処理装置。 wherein the plurality of feature points correspond to the driver's nose and shoulders;
The image processing apparatus according to any one of claims 1 to 3.
請求項1から4のいずれか一項に記載の画像処理装置。 The plurality of feature points correspond to the driver's head center and shoulders.
The image processing apparatus according to any one of claims 1 to 4.
請求項1から5のいずれか一項に記載の画像処理装置。 configured to be mounted on the mobile body,
The image processing apparatus according to any one of claims 1 to 5.
実行されることにより、前記画像処理装置に、
移動体の運転者が写り込んだ画像に対応する画像情報を受け付けさせ、
前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定させ、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記運転者の姿勢が異常であると推定させる、
コンピュータプログラム。 A computer program executable by a processing unit of an image processing device,
By being executed, the image processing device
receiving image information corresponding to an image in which a driver of a mobile object is captured;
Based on the image information,
specifying a plurality of feature points on the upper body of the driver reflected in the image;
estimating that the posture of the driver is abnormal when a decrease in distance in a direction corresponding to the vertical direction of the moving body between the plurality of feature points reflected in the image is below a threshold;
computer program.
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する画像処理装置と、
前記画像処理装置により前記姿勢が異常であるとの推定結果に基づいて、前記移動体に搭載された被制御装置の動作を制御する制御装置と、
を備えており、
前記画像処理装置は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記姿勢が異常であると推定する、
異常推定システム。 an imaging device that outputs image information corresponding to an image in which a driver of a mobile object is captured;
an image processing device that estimates whether the posture of the driver is abnormal based on the image information;
a control device that controls the operation of a controlled device mounted on the moving body based on the estimation result that the posture is abnormal by the image processing device;
and
The image processing device, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
estimating that the posture is abnormal when an amount of decrease in distance in a direction corresponding to the vertical direction of the moving object between the plurality of feature points captured in the image is below a threshold;
Anomaly estimation system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048022A JP7314085B2 (en) | 2020-03-18 | 2020-03-18 | Image processing device, computer program, and anomaly estimation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048022A JP7314085B2 (en) | 2020-03-18 | 2020-03-18 | Image processing device, computer program, and anomaly estimation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149442A JP2021149442A (en) | 2021-09-27 |
JP7314085B2 true JP7314085B2 (en) | 2023-07-25 |
Family
ID=77848896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020048022A Active JP7314085B2 (en) | 2020-03-18 | 2020-03-18 | Image processing device, computer program, and anomaly estimation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7314085B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016200910A (en) | 2015-04-08 | 2016-12-01 | 日野自動車株式会社 | Driver state determination device |
JP2019087150A (en) | 2017-11-09 | 2019-06-06 | トヨタ自動車株式会社 | Driver monitoring system |
JP2019105872A (en) | 2017-12-08 | 2019-06-27 | 株式会社デンソー | Abnormality detection device and abnormality detection program |
-
2020
- 2020-03-18 JP JP2020048022A patent/JP7314085B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016200910A (en) | 2015-04-08 | 2016-12-01 | 日野自動車株式会社 | Driver state determination device |
JP2019087150A (en) | 2017-11-09 | 2019-06-06 | トヨタ自動車株式会社 | Driver monitoring system |
JP2019105872A (en) | 2017-12-08 | 2019-06-27 | 株式会社デンソー | Abnormality detection device and abnormality detection program |
Also Published As
Publication number | Publication date |
---|---|
JP2021149442A (en) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10147003B2 (en) | Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof | |
JP6515823B2 (en) | Lane change support device | |
JP6439287B2 (en) | Driving support device, driving support method, image correction device, and image correction method | |
EP3330147B1 (en) | Method and apparatus for generating a driving route for an autonomous vehicle | |
US20150329048A1 (en) | Surround-view camera system (vpm) online calibration | |
US10503986B2 (en) | Passenger information detection device and program | |
US9988082B2 (en) | Traveling path estimation apparatus | |
JP2019513613A (en) | Method, system and non-transitory computer readable memory for controlling a vehicle | |
JP4533936B2 (en) | Image processing apparatus and vehicle detection apparatus including the same | |
US12103586B2 (en) | Position estimation apparatus | |
JP2004131078A (en) | Occupant labeling system for identifying occupant's upper torso, its method, and occupant tracing and airbag development system using them | |
CN106985825A (en) | Vehicle condition is detected and warning system | |
EP3418122B1 (en) | Position change determination device, overhead view image generation device, overhead view image generation system, position change determination method, and program | |
JP2019191806A (en) | Abnormality detection device and abnormality detection method | |
CN111457933A (en) | Method and apparatus for determining lane-level static and dynamic information | |
JP2019526105A (en) | Method for creating a map of a peripheral model, vehicle control system, and corresponding vehicle | |
CN114998421A (en) | Method and device for determining the spatial orientation of a trailer | |
CN108657173A (en) | ECU, the autonomous vehicle comprising ECU and the method for identifying its neighbouring vehicle | |
JP2020060550A (en) | Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system | |
JP7314085B2 (en) | Image processing device, computer program, and anomaly estimation system | |
US20230034560A1 (en) | Method for tracking a remote target vehicle in an area surrounding a motor vehicle by means of a collision detection device | |
JP7458216B2 (en) | Image processing device, computer program, and abnormality estimation system | |
JP7402719B2 (en) | Image processing device, computer program, and abnormality estimation system | |
JP7314084B2 (en) | Image processing device, computer program, and anomaly estimation system | |
JP5425500B2 (en) | Calibration apparatus and calibration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230619 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7314085 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |