[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7314085B2 - Image processing device, computer program, and anomaly estimation system - Google Patents

Image processing device, computer program, and anomaly estimation system Download PDF

Info

Publication number
JP7314085B2
JP7314085B2 JP2020048022A JP2020048022A JP7314085B2 JP 7314085 B2 JP7314085 B2 JP 7314085B2 JP 2020048022 A JP2020048022 A JP 2020048022A JP 2020048022 A JP2020048022 A JP 2020048022A JP 7314085 B2 JP7314085 B2 JP 7314085B2
Authority
JP
Japan
Prior art keywords
driver
image
posture
image processing
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020048022A
Other languages
Japanese (ja)
Other versions
JP2021149442A (en
Inventor
基貴 梶田
久光 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2020048022A priority Critical patent/JP7314085B2/en
Publication of JP2021149442A publication Critical patent/JP2021149442A/en
Application granted granted Critical
Publication of JP7314085B2 publication Critical patent/JP7314085B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動体の運転者が写り込んだ画像を処理する画像処理装置に関連する。本発明は、当該画像処理装置の処理部により実行されるコンピュータプログラムにも関連する。本発明は、前記画像に基づいて前記運転者の姿勢が異常であるかを推定する異常推定システムにも関連する。 The present invention relates to an image processing apparatus that processes an image in which a driver of a mobile object is captured. The present invention also relates to a computer program executed by a processing section of the image processing apparatus. The present invention also relates to an abnormality estimation system for estimating whether the posture of the driver is abnormal based on the image.

特許文献1は、移動体の一例としての車両の運転者の姿勢の異常を検知する技術を開示している。姿勢の異常は、当該車両に搭載された撮像装置により取得された当該運転者が写り込んだ画像に基づいて推定される。 Patent Literature 1 discloses a technique for detecting an abnormality in the posture of a driver of a vehicle, which is an example of a moving body. The posture abnormality is estimated based on an image of the driver captured by an imaging device mounted on the vehicle.

特開2019-105872号公報JP 2019-105872 A

本発明の目的は、撮像装置により取得された画像に基づいてなされる移動体の運転者の姿勢異常の推定の確からしさを高めることである。 SUMMARY OF THE INVENTION An object of the present invention is to increase the likelihood of estimating an abnormal posture of a driver of a mobile object based on an image acquired by an imaging device.

上記の目的を達成するための一態様は、画像処理装置であって、
移動体の運転者が写り込んだ画像に対応する画像情報を受け付ける受付部と、
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する処理部と、
を備えており、
前記処理部は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を上回る場合、前記姿勢が異常であると推定する。
One aspect for achieving the above object is an image processing device,
a reception unit that receives image information corresponding to an image in which the driver of the moving object is captured;
a processing unit that estimates whether the posture of the driver is abnormal based on the image information;
and
The processing unit, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
The posture is estimated to be abnormal when the amount of decrease in the distance in the direction corresponding to the vertical direction of the moving object between the plurality of feature points reflected in the image exceeds a threshold.

上記の目的を達成するための一態様は、画像処理装置の処理部により実行可能なコンピュータプログラムであって、
実行されることにより、前記画像処理装置に、
移動体の運転者が写り込んだ画像に対応する画像情報を受け付けさせ、
前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定させ、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記運転者の姿勢が異常であると推定させる。
One aspect for achieving the above object is a computer program executable by a processing unit of an image processing apparatus,
By being executed, the image processing device
receiving image information corresponding to an image in which a driver of a mobile object is captured;
Based on the image information,
specifying a plurality of feature points on the upper body of the driver reflected in the image;
If the amount of decrease in the distance in the direction corresponding to the vertical direction of the moving body between the plurality of feature points reflected in the image is below a threshold, it is estimated that the driver's posture is abnormal.

上記の目的を達成するための一態様は、異常推定システムであって、
移動体の運転者が写り込んだ画像に対応する画像情報を出力する撮像装置と、
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する画像処理装置と、
前記画像処理装置により前記姿勢が異常であるとの推定結果に基づいて、前記移動体に搭載された被制御装置の動作を制御する制御装置と、
を備えており、
前記画像処理装置は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記姿勢が異常であると推定する。
One aspect for achieving the above object is an anomaly estimation system,
an imaging device that outputs image information corresponding to an image in which a driver of a mobile object is captured;
an image processing device that estimates whether the posture of the driver is abnormal based on the image information;
a control device that controls the operation of a controlled device mounted on the moving body based on the estimation result that the posture is abnormal by the image processing device;
and
The image processing device, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
The posture is estimated to be abnormal when the amount of decrease in the distance in the direction corresponding to the vertical direction of the moving object between the plurality of feature points captured in the image is below a threshold.

例えば国土交通省により定義されている「突っ伏し姿勢」のように、撮像装置により取得される画像に顔が写りこみにくくなる異常姿勢が存在する。この場合、顔の向きや位置に基づいて異常姿勢の推定を行なうことが困難になりうる。しかしながら、上記の各態様に係る構成においては、正常姿勢からの逸脱に伴って移動体の上下方向における距離が減少する複数の特徴点を運転者の上半身から選ぶことにより、顔の向きや位置が異常姿勢の推定に及ぼす影響を抑制している。これにより、撮像装置により取得された画像に基づいてなされる運転者の姿勢異常の推定の確からしさを高めることができる。 For example, there are abnormal postures, such as the “prostrate posture” defined by the Ministry of Land, Infrastructure, Transport and Tourism, in which the face is less likely to appear in the image acquired by the imaging device. In this case, it may be difficult to estimate the abnormal posture based on the direction and position of the face. However, in the configuration according to each of the above aspects, by selecting a plurality of feature points from the driver's upper body at which the distance in the vertical direction of the moving object decreases as the vehicle deviates from the normal posture, the direction and position of the face affect the estimation of the abnormal posture. As a result, it is possible to increase the likelihood of estimating the abnormal posture of the driver based on the image acquired by the imaging device.

一実施形態に係る異常推定システムの機能構成を例示している。1 illustrates a functional configuration of an abnormality estimation system according to one embodiment; 図1の異常推定システムが搭載されうる車両を例示している。1 illustrates a vehicle in which the abnormality estimation system of FIG. 1 can be installed. 図1の画像処理装置により実行される処理の流れを例示している。2 illustrates the flow of processing executed by the image processing apparatus of FIG. 1; 図1の撮像装置により取得されうる画像を例示している。2 illustrates an image that may be acquired by the imaging device of FIG. 1; 図4の画像に骨格モデルが適用された状態を例示している。The image in FIG. 4 illustrates a state in which a skeleton model is applied. 「突っ伏し姿勢」を説明するための図である。It is a figure for demonstrating a "push-down posture." 図3の姿勢推定処理の流れの一例を示している。4 shows an example of the flow of posture estimation processing in FIG. 3 ; 姿勢推定処理の詳細を説明するための図である。FIG. 11 is a diagram for explaining details of posture estimation processing; 姿勢推定処理の詳細を説明するための図である。FIG. 11 is a diagram for explaining details of posture estimation processing; 車両のピッチ方向への頭部の回転角を特定する手法を例示している。It illustrates a method of identifying the rotation angle of the head in the pitch direction of the vehicle. 左方への「横倒れ姿勢」を説明するための図である。It is a figure for demonstrating the "sideways posture" to the left. 右方への「横倒れ姿勢」を説明するための図である。It is a figure for demonstrating the "lateral fall posture" to the right.

添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。図1は、一実施形態に係る異常推定システム10の機能構成を例示している。異常推定システム10は、図2に例示される車両20の運転者30が写り込んだ画像に基づいて、運転者30の姿勢が異常であるかを推定するシステムである。車両20は、移動体の一例である。 Exemplary embodiments are described in detail below with reference to the accompanying drawings. FIG. 1 illustrates the functional configuration of an abnormality estimation system 10 according to one embodiment. The abnormality estimation system 10 is a system that estimates whether the posture of the driver 30 is abnormal based on the image of the vehicle 20 illustrated in FIG. 2 in which the driver 30 is reflected. Vehicle 20 is an example of a mobile object.

姿勢の異常は、運転者30の異常を検知するために推定される。本明細書において用いられる「運転者の異常」という語は、予め予測することが困難な体調の急変を意味する。 Posture anomalies are estimated to detect anomalies of driver 30 . The term "driver's abnormality" used in this specification means a sudden change in physical condition that is difficult to predict in advance.

添付の図面において、矢印Fは、運転者30から見た前方向を表している。矢印Bは、運転者30から見た後方向を表している。矢印Lは、運転者30から見た左方向を表している。矢印Rは、運転者30から見た右方向を表している。矢印Uは、運転者30から見た上方向を表している。矢印Dは、運転者30から見た下方向を表している。 In the accompanying drawings, arrow F represents the forward direction as seen from driver 30 . Arrow B represents the rearward direction viewed from driver 30 . An arrow L indicates the left direction as seen from the driver 30 . An arrow R indicates the right direction as seen from the driver 30 . An arrow U represents an upward direction as seen from the driver 30 . An arrow D represents the downward direction viewed from the driver 30 .

図1に例示されるように、異常推定システム10は、撮像装置11を含んでいる。撮像装置11は、車両20における適宜の箇所に配置される。図2に例示される車両20の車室21内に配置されたシート22に着座した運転者30が、撮像装置11による撮像に供される。 As illustrated in FIG. 1 , an abnormality estimation system 10 includes an imaging device 11 . The imaging device 11 is arranged at an appropriate location on the vehicle 20 . A driver 30 seated on a seat 22 arranged in a cabin 21 of a vehicle 20 illustrated in FIG. 2 is imaged by the imaging device 11 .

図1に例示されるように、撮像装置11は、取得された画像に対応する画像情報Iを出力するように構成されている。画像情報Iは、アナログデータの形態でもよいし、デジタルデータの形態でもよい。 As illustrated in FIG. 1, the imaging device 11 is configured to output image information I corresponding to the captured image. The image information I may be in the form of analog data or in the form of digital data.

異常推定システム10は、画像処理装置12を含んでいる。画像処理装置12は、受付部121と処理部122を備えている。受付部121は、撮像装置11から画像情報Iを受け付けるように構成されている。画像情報Iがアナログデータの形態である場合、受付部121は、A/Dコンバータを含む適宜の変換回路を含みうる。処理部122は、デジタルデータの形態である画像情報Iを処理の対象とする。 The abnormality estimation system 10 includes an image processing device 12 . The image processing device 12 includes a reception section 121 and a processing section 122 . The reception unit 121 is configured to receive the image information I from the imaging device 11 . If the image information I is in the form of analog data, the reception unit 121 can include an appropriate conversion circuit including an A/D converter. The processing unit 122 processes image information I in the form of digital data.

処理部122は、画像情報Iに基づいて運転者30の姿勢が異常であるかを推定する処理を実行するように構成されている。当該処理の詳細については後述する。 The processing unit 122 is configured to execute processing for estimating whether the posture of the driver 30 is abnormal based on the image information I. Details of the processing will be described later.

画像処理装置12は、出力部123を備えている。処理部122は、運転者30の姿勢が異常であると推定された場合、出力部123を通じて制御情報Cを出力するように構成されている。制御情報Cは、デジタルデータの形態でもよいし、アナログデータの形態でもよい。制御情報Cがアナログデータの形態である場合、出力部123は、D/Aコンバータを含む適宜の変換回路を含みうる。 The image processing device 12 has an output unit 123 . The processing unit 122 is configured to output the control information C through the output unit 123 when it is estimated that the posture of the driver 30 is abnormal. The control information C may be in the form of digital data or in the form of analog data. If the control information C is in the form of analog data, the output section 123 may include suitable conversion circuitry including a D/A converter.

異常推定システム10は、制御装置13を含んでいる。制御装置13は、車両20に搭載されている。制御装置13は、画像処理装置12から出力された制御情報Cに基づいて、車両20に搭載された被制御装置40の動作を制御するように構成されている。 The abnormality estimation system 10 includes a control device 13 . The control device 13 is mounted on the vehicle 20 . The control device 13 is configured to control the operation of the controlled device 40 mounted on the vehicle 20 based on the control information C output from the image processing device 12 .

具体的には、制御装置13は、運転者30の姿勢が異常であると推定された場合に、車両20の運転支援を有効にするように構成されている。本明細書において用いられる「運転支援」という語は、運転操作(ハンドル操作、加速、減速など)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。 Specifically, the control device 13 is configured to enable driving assistance for the vehicle 20 when it is estimated that the posture of the driver 30 is abnormal. The term “driving assistance” as used herein means control processing that at least partially performs at least one of driving operation (steering, acceleration, deceleration, etc.), monitoring of the driving environment, and driving operation backup. In other words, it includes everything from partial driving assistance such as the collision damage mitigation brake function and lane keeping assist function to fully automated driving operations.

例えば、制御装置13は、画像処理装置12から出力された制御情報Cに基づいて、車両20を減速させ、路肩に停車させるために必要な動作を、被制御装置40に行なわせる。被制御装置40の例としては、車両20の駆動系を構成する装置、灯具、運転支援動作が有効であることを車両20や他車両の乗員や歩行者に報知する装置などが挙げられる。 For example, based on the control information C output from the image processing device 12, the control device 13 causes the controlled device 40 to decelerate and stop the vehicle 20 on the shoulder of the road. Examples of the controlled device 40 include a device that configures the driving system of the vehicle 20, a lamp, and a device that notifies passengers and pedestrians of the vehicle 20 and other vehicles that the driving support operation is effective.

次に、図3から図5を参照しつつ、画像処理装置12の処理部122により実行される運転者30の姿勢を推定する処理について詳細に説明する。図3は、当該処理の流れを例示している。 Next, the processing for estimating the posture of the driver 30 executed by the processing unit 122 of the image processing device 12 will be described in detail with reference to FIGS. 3 to 5. FIG. FIG. 3 exemplifies the flow of the processing.

処理部122は、受付部121を通じて撮像装置11から画像情報Iを受け付ける(STEP1)。図4は、撮像装置11により取得された運転者30が写り込んだ画像IMを例示している。画像情報Iは、画像IMに対応している。 The processing unit 122 receives the image information I from the imaging device 11 through the receiving unit 121 (STEP 1). FIG. 4 exemplifies an image IM in which the driver 30 is captured by the imaging device 11 . Image information I corresponds to image IM.

続いて、処理部122は、骨格モデルを適用する処理を行なう(図3のSTEP2)。本明細書で用いられる「骨格モデルを適用する処理」という語は、撮像装置により取得された画像に写り込んだ運転者において当該骨格モデルにおいて規定された複数の特徴点を検出し、当該複数の特徴点同士を当該骨格モデルにおいて規定された複数の骨格線で接続することを意味する。 Subsequently, the processing unit 122 performs processing for applying the skeleton model (STEP 2 in FIG. 3). As used herein, the term “processing to apply a skeleton model” means detecting a plurality of feature points defined in the skeleton model in the driver captured in the image acquired by the imaging device, and connecting the plurality of feature points with a plurality of skeleton lines defined in the skeleton model.

図5は、撮像装置11により取得された画像IMに写り込んだ運転者30に骨格モデルMが適用された例を示している。本例においては、骨格モデルMは、頭特徴点H、首特徴点NK、左肩特徴点LS、および右肩特徴点RSを含んでいる。 FIG. 5 shows an example in which the skeletal model M is applied to the driver 30 appearing in the image IM acquired by the imaging device 11 . In this example, the skeleton model M includes a head feature point H, a neck feature point NK, a left shoulder feature point LS, and a right shoulder feature point RS.

頭特徴点Hは、モデル人体の頭の中心に対応する点である。首特徴点NKは、モデル人体の首に対応する点である。左肩特徴点LSは、モデル人体の左肩に対応する点である。右肩特徴点RSは、モデル人体の右肩に対応する点である。頭特徴点Hと首特徴点NKは、骨格線により接続されている。首特徴点NKは、左肩特徴点LSおよび右肩特徴点RSの各々と骨格線により接続されている。 The head feature point H is a point corresponding to the center of the head of the model human body. The neck feature point NK is a point corresponding to the neck of the model human body. The left shoulder feature point LS is a point corresponding to the left shoulder of the model human body. The right shoulder feature point RS is a point corresponding to the right shoulder of the model human body. The head minutiae H and the neck minutiae NK are connected by a skeleton line. The neck feature point NK is connected to each of the left shoulder feature point LS and the right shoulder feature point RS by skeleton lines.

処理部122は、画像IMに写り込んだ運転者30において、頭特徴点H、首特徴点NK、左肩特徴点LS、および右肩特徴点RSの各々に対応する点を検出し、検出された複数の点同士を、上記の各骨格線で接続する。この処理を遂行するためのアルゴリズムは周知であるので、詳細な説明は省略する。 The processing unit 122 detects points corresponding to each of the head feature point H, the neck feature point NK, the left shoulder feature point LS, and the right shoulder feature point RS in the driver 30 captured in the image IM, and connects the plurality of detected points with the skeleton lines described above. Algorithms for performing this process are well known and will not be described in detail.

図1に例示されるように、画像処理装置12は、記憶部124を備えている。処理部122は、各特徴点の画像IMにおける位置を、正常時における運転者30の姿勢を表すものとして記憶部124に記憶する。具体的には、各特徴点に対応する画像IM中の画素の位置が、記憶部124に保存される。 As illustrated in FIG. 1 , the image processing device 12 includes a storage section 124 . The processing unit 122 stores the position of each feature point in the image IM in the storage unit 124 as representing the posture of the driver 30 in the normal state. Specifically, the position of the pixel in the image IM corresponding to each feature point is saved in the storage unit 124 .

続いて、処理部122は、運転者30の姿勢が異常であるかを推定する姿勢推定処理を実行する(図3のSTEP3)。姿勢推定処理の詳細については、後述する。 Subsequently, the processing unit 122 executes posture estimation processing for estimating whether the posture of the driver 30 is abnormal (STEP 3 in FIG. 3). The details of the orientation estimation process will be described later.

姿勢推定処理の結果、運転者30の姿勢が異常でないと推定されると(STEP4においてNO)、処理はSTEP1に戻り、次の画像情報Iが受け付けられる。画像情報Iの受け付けが繰り返される周期は、撮像装置11のフレームレートに対応しうる。 As a result of the posture estimation processing, when it is estimated that the posture of the driver 30 is not abnormal (NO in STEP4), the processing returns to STEP1, and the next image information I is accepted. The cycle in which the reception of the image information I is repeated can correspond to the frame rate of the imaging device 11 .

姿勢推定処理の結果、運転者30の姿勢が異常であると判断されると(STEP4においてYES)、処理部122は、出力部123から制御情報Cを出力する(STEP5)。制御情報Cは、制御装置13へ送信される。制御情報Cは、同じ動作を被制御装置40に行なわせるものであってもよいし、推定された異常姿勢の種別に応じて異なる動作を被制御装置40に行なわせるものであってもよい。 When it is determined that the posture of driver 30 is abnormal as a result of posture estimation processing (YES in STEP4), processing unit 122 outputs control information C from output unit 123 (STEP5). Control information C is transmitted to the control device 13 . The control information C may cause the controlled device 40 to perform the same action, or may cause the controlled device 40 to perform different actions depending on the type of the estimated abnormal posture.

次に、図6から図9を参照しつつ、処理部122により実行される姿勢推定処理(図3におけるSTEP3)の詳細について説明する。本例においては、運転者30が「突っ伏し姿勢」をとっているかが推定される。 Next, details of posture estimation processing (STEP 3 in FIG. 3) executed by the processing unit 122 will be described with reference to FIGS. 6 to 9. FIG. In this example, it is estimated whether the driver 30 is in a "bent down posture".

「突っ伏し姿勢」は、国土交通省により定義されている複数種の「姿勢崩れパターン」の一つである。「突っ伏し姿勢」は、運転者が前方に倒れ、ハンドルの付近に顔が位置している姿勢が継続している状態として定義されている。 The “bent-down posture” is one of multiple types of “posture collapse patterns” defined by the Ministry of Land, Infrastructure, Transport and Tourism. A "bent down posture" is defined as a state in which the driver continues to fall forward with his/her face positioned near the steering wheel.

図6は、「突っ伏し姿勢」を例示している。「突っ伏し姿勢」は、運転者の顔における特定の位置の、正常時からの車両20の前方向への移動量ΔDFが閾値を上回るとともに車両20の下方向への移動量ΔDDが閾値を上回り、かつ運転者の顔の下方へのピッチ角θPDが閾値を上回った状態として定義される。ΔDFの閾値は、例えば200mmである。ΔDDの閾値は、例えば180mmである。θPDの閾値は、例えば30°である。 FIG. 6 exemplifies the "prostrate position". The “bent down posture” is defined as a state in which the forward movement amount ΔDF of the vehicle 20 from the normal state exceeds the threshold, the downward movement amount ΔDD of the vehicle 20 exceeds the threshold, and the downward pitch angle θPD of the driver's face exceeds the threshold. A threshold value of ΔDF is, for example, 200 mm. A threshold value of ΔDD is, for example, 180 mm. A threshold value of θPD is, for example, 30°.

図7は、姿勢推定処理の流れの一例を示している。図8は、図4および図5に例示された画像IMのうち、運転者30の上半身が写り込んでいる部分を拡大して示している。本例においては、骨格モデルMを適用する処理により、鼻特徴点NSもまた検出されうる。鼻特徴点NSは、モデル人体の鼻に対応する点である。 FIG. 7 shows an example of the flow of posture estimation processing. FIG. 8 shows an enlarged portion of the image IM illustrated in FIGS. 4 and 5 in which the upper half of the body of the driver 30 is reflected. In this example, the process of applying the skeletal model M can also detect nose feature points NS. The nose feature point NS is a point corresponding to the nose of the model human body.

まず、処理部122は、撮像装置11により取得された画像IMに写り込んだ運転者30の鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向に対応する方向における距離dを特定する(図7のSTEP11)。鼻特徴点NSと左肩特徴点LSは、上半身における複数の特徴点の一例である。距離dは、画素数により特定される。特定された距離dの値は、記憶部124に記憶される。 First, the processing unit 122 identifies the distance d in the direction corresponding to the vertical direction of the vehicle 20 between the nose feature point NS and the left shoulder feature point LS of the driver 30 captured in the image IM acquired by the imaging device 11 (STEP 11 in FIG. 7). The nose feature point NS and the left shoulder feature point LS are examples of multiple feature points on the upper body. The distance d is specified by the number of pixels. The specified value of the distance d is stored in the storage unit 124 .

続いて、処理部122は、STEP11において特定された距離dの値と記憶部124に記憶されている距離dの値を比較し、減少量が閾値dthを上回っているかを判断する(STEP12)。 Subsequently, the processing unit 122 compares the value of the distance d specified in STEP 11 with the value of the distance d stored in the storage unit 124, and determines whether the amount of decrease exceeds the threshold value dth (STEP 12).

図9は、運転者30が「突っ伏し姿勢」をとった場合における鼻特徴点NSと左肩特徴点LSの間の距離dの経時変化を例示している。運転者30が前方に倒れるに連れて、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dは、急速に減少する。図示の例においては、時点t1において距離dの減少が始まり、時点t2において減少量が閾値dthを上回っている。 FIG. 9 illustrates the change over time of the distance d between the nose feature point NS and the left shoulder feature point LS when the driver 30 takes the "bent down posture". As the driver 30 falls forward, the distance d in the vertical direction of the vehicle 20 between the nose feature point NS and the left shoulder feature point LS rapidly decreases. In the illustrated example, the distance d starts to decrease at time t1, and the amount of decrease exceeds the threshold dth at time t2.

したがって、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dの減少量が閾値dthを上回っていると判断された場合(STEP12においてYES)、処理部122は、運転者30が「突っ伏し姿勢」をとっていると推定する(STEP13)。処理は、図3のSTEP4におけるYESの判断に反映される。閾値dthは、一般的な運転者30が「突っ伏し姿勢」をとる場合に生じうる距離dの減少量として、統計的に定められうる。 Therefore, when it is determined that the amount of decrease in the vertical distance d of the vehicle 20 between the nose feature point NS and the left shoulder feature point LS exceeds the threshold value dth (YES in STEP 12), the processing unit 122 estimates that the driver 30 is in the "downward posture" (STEP 13). The processing is reflected in the YES determination in STEP4 of FIG. The threshold dth can be statistically determined as the amount of decrease in the distance d that can occur when the general driver 30 assumes a “bent posture”.

他方、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dの減少量が閾値dthを上回っていないと判断された場合(STEP12においてNO)、処理部122は、運転者30が「突っ伏し姿勢」をとっていないと推定する(STEP14)。処理は、図3のSTEP4におけるNOの判断に反映される。 On the other hand, if it is determined that the amount of decrease in distance d in the vertical direction of vehicle 20 between nose feature point NS and left shoulder feature point LS does not exceed threshold value dth (NO in STEP 12), processing unit 122 estimates that driver 30 is not in the "bent down posture" (STEP 14). The processing is reflected in the determination of NO in STEP4 of FIG.

図6に示される「突っ伏し姿勢」の定義に鑑みると、運転者30の顔の向きや顔の位置が特定されることが好ましい。しかしながら、実際に運転者30が「突っ伏し姿勢」をとる場合、画像IMに顔が写りこみにくくなるので、顔の向きや顔の位置の特定が困難でありうる。上記のような構成においては、「突っ伏し姿勢」がとられる場合に車両20の上下方向における距離が減少する複数の特徴点を運転者30の上半身から選ぶことにより、顔の向きや位置が「突っ伏し姿勢」の推定に及ぼす影響を抑制している。これにより、撮像装置11により取得された画像IMに基づいてなされる運転者30の姿勢異常の推定の確からしさを高めることができる。 In view of the definition of the “bent down posture” shown in FIG. 6, it is preferable that the orientation and position of the face of the driver 30 are specified. However, when the driver 30 actually takes the "bent down posture", the face is less likely to appear in the image IM, and it may be difficult to identify the direction and position of the face. In the configuration described above, by selecting a plurality of characteristic points from the upper body of the driver 30 at which the distance in the vertical direction of the vehicle 20 decreases when the "bent down posture" is taken, the influence of the direction and position of the face on the estimation of the "bent down posture" is suppressed. As a result, it is possible to increase the likelihood of estimating the posture abnormality of the driver 30 based on the image IM acquired by the imaging device 11 .

上述のように、運転者30の顔の向きや位置によっては、鼻特徴点NSの特定が困難である場合がある。よって、図7に例示されるように、処理部122は、鼻特徴点NSの特定が不能であるかを判断しうる(STEP15)。 As described above, depending on the direction and position of the driver's 30 face, it may be difficult to specify the nose feature point NS. Therefore, as exemplified in FIG. 7, the processing unit 122 can determine whether or not the nose feature point NS cannot be specified (STEP 15).

鼻特徴点NSが特定できた場合(STEP15においてNO)、処理はSTEP12に進み、前述の通り鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向における距離dの減少量が閾値dthを上回っているかが判断される。 If the nose feature point NS has been identified (NO in STEP15), the process proceeds to STEP12, and as described above, it is determined whether the amount of decrease in the distance d in the vertical direction of the vehicle 20 between the nose feature point NS and the left shoulder feature point LS exceeds the threshold value dth.

鼻特徴点NSが特定できない場合(STEP15においてYES)、図8に例示されるように、処理部122は、頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離d’を特定する(STEP16)。頭特徴点Hと左肩特徴点LSは、上半身における複数の特徴点の一例である。距離d’は、画素数により特定される。特定された距離d’の値は、記憶部124に記憶される。 If the nose feature point NS cannot be specified (YES in STEP 15), as illustrated in FIG. 8, the processing unit 122 specifies the distance d′ in the vertical direction of the vehicle 20 between the head feature point H and the left shoulder feature point LS (STEP 16). The head feature point H and the left shoulder feature point LS are examples of a plurality of feature points on the upper body. The distance d' is specified by the number of pixels. The specified value of distance d′ is stored in storage unit 124 .

この場合、処理部122は、STEP16において特定された距離d’の値と記憶部124に記憶されている距離d’の値を比較し、減少量が閾値dth’を上回っているかを判断する(STEP12)。閾値dthは、一般的な運転者30が「突っ伏し姿勢」をとる場合に生じうる距離d’の減少量として、統計的に定められうる。 In this case, the processing unit 122 compares the value of the distance d′ specified in STEP 16 with the value of the distance d′ stored in the storage unit 124, and determines whether the amount of decrease exceeds the threshold dth′ (STEP 12). The threshold dth can be statistically determined as the amount of decrease in the distance d' that can occur when the general driver 30 takes a "bent down posture".

頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離d’の減少量が閾値dth’を上回っていると判断された場合(STEP12においてYES)、処理部122は、運転者30が「突っ伏し姿勢」をとっていると推定する(STEP13)。処理は、図3のSTEP4におけるYESの判断に反映される。 If it is determined that the amount of decrease in the distance d' in the vertical direction of the vehicle 20 between the head feature point H and the left shoulder feature point LS exceeds the threshold value dth' (YES in STEP 12), the processing unit 122 estimates that the driver 30 is in a "bent down posture" (STEP 13). The processing is reflected in the YES determination in STEP4 of FIG.

他方、頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離d’の減少量が閾値dth’を上回っていないと判断された場合(STEP12においてNO)、処理部122は、運転者30が「突っ伏し姿勢」をとっていないと推定する(STEP14)。処理は、図3のSTEP4におけるNOの判断に反映される。 On the other hand, if it is determined that the amount of decrease in the distance d' in the vertical direction of the vehicle 20 between the head feature point H and the left shoulder feature point LS does not exceed the threshold dth' (NO in STEP 12), the processing unit 122 estimates that the driver 30 is not in the "bent down posture" (STEP 14). The processing is reflected in the determination of NO in STEP4 of FIG.

このような構成によれば、顔の向きや位置が「突っ伏し姿勢」の推定に及ぼす影響をさらに抑制できる。 According to such a configuration, it is possible to further suppress the influence of the direction and position of the face on the estimation of the "bent down posture".

図8に例示されるように、撮像装置11により取得された画像IMに写り込んだ運転者30に骨格モデルMを適用する処理により、画像IMにおいて運転者30の頭部31が位置する領域を推定する矩形の枠FMが設定されうる。この場合、処理部122は、画像IMに写り込んだ運転者30の頭部31の車両20のピッチ方向への回転角を検出しうる。 As illustrated in FIG. 8 , a rectangular frame FM for estimating the region where the head 31 of the driver 30 is located in the image IM can be set by applying the skeleton model M to the driver 30 captured in the image IM acquired by the imaging device 11. In this case, the processing unit 122 can detect the rotation angle of the head 31 of the driver 30 reflected in the image IM in the pitch direction of the vehicle 20 .

本明細書で用いられる「ピッチ方向」という語は、車両20の左右方向に延びる軸を中心とする回転方向を意味する。「ピッチ方向」に関しては、運転者30の左方から見て反時計回り方向を「下ピッチ方向」と定義し、運転者30の左方から見て時計回り方向を「上ピッチ方向」と定義する。 As used herein, the term “pitch direction” refers to the direction of rotation about an axis extending in the left-right direction of vehicle 20 . Regarding the "pitch direction", the counterclockwise direction viewed from the left side of the driver 30 is defined as the "lower pitch direction", and the clockwise direction viewed from the left side of the driver 30 is defined as the "upper pitch direction".

図10は、設定された枠FMを用いて頭部31の中心座標CTを仮定する手法を説明するための図である。同図においては、頭部31を左方から見た状態が模式的に示されている。本例においては、車両20の上下方向における頭部31の幅、および車両20の前後方向における頭部31の幅は、図8に示される枠FMの幅Wと同一であるとみなされる。この前提下において、頭部31の中心座標CTは、頭特徴点Hから車両20の後方へ(W/2)だけ離れた点として仮定される。処理部122は、距離(W/2)に対応する画素数を、記憶部124に保存する。 FIG. 10 is a diagram for explaining a method of assuming the center coordinates CT of the head 31 using the set frame FM. In the figure, the state of the head 31 viewed from the left is schematically shown. In this example, the width of the head 31 in the vertical direction of the vehicle 20 and the width of the head 31 in the longitudinal direction of the vehicle 20 are considered to be the same as the width W of the frame FM shown in FIG. Under this premise, the central coordinate CT of the head 31 is assumed to be a point (W/2) away from the head feature point H to the rear of the vehicle 20 . Processing unit 122 stores the number of pixels corresponding to the distance (W/2) in storage unit 124 .

このとき、中心座標CTと鼻特徴点NSを結ぶ直線が中心座標CTと頭特徴点Hを結ぶ直線に対してなす角度θP0は、車両20の左右方向における頭特徴点Hと鼻特徴点NSの間の距離dHNと上記の(W/2)のアークタンジェントを求めることにより特定されうる。この角度θP0は、運転者30が正常姿勢をとっている場合の初期角度として、記憶部124に保存される。 At this time, the angle θP0 formed by the straight line connecting the center coordinate CT and the nose feature point NS with respect to the straight line connecting the center coordinate CT and the head feature point H can be specified by obtaining the arctangent of (W/2) and the distance dHN between the head feature point H and the nose feature point NS in the lateral direction of the vehicle 20. This angle θP0 is stored in storage unit 124 as an initial angle when driver 30 is in a normal posture.

運転者30が「突っ伏し姿勢」をとると、頭部31は、車両20のピッチ方向へ回転する。このとき、中心座標CTと鼻特徴点NSを結ぶ直線が中心座標CTと頭特徴点Hを結ぶ直線(車両20の前後方向)に対してなす角度θP1は、初期角度θP0から変化する。その変化量(θP1-θP0)は、車両20のピッチ方向への頭部31の回転角θPとみなされうる。したがって、その変化量(θP1-θP0)の絶対値が閾値を上回る場合に、運転者30が「突っ伏し姿勢」をとっていると推定されうる。閾値は、国土交通省による定義に基づいて、適宜に定められうる。 When the driver 30 assumes the “bent down posture”, the head 31 rotates in the pitch direction of the vehicle 20 . At this time, the angle θP1 formed by the straight line connecting the central coordinate CT and the nose feature point NS with respect to the straight line connecting the central coordinate CT and the head feature point H (the longitudinal direction of the vehicle 20) changes from the initial angle θP0. The amount of change (θP1−θP0) can be regarded as the rotation angle θP of the head 31 in the pitch direction of the vehicle 20. FIG. Therefore, when the absolute value of the amount of change (θP1−θP0) exceeds the threshold, it can be estimated that the driver 30 is in a “bent down posture”. The threshold can be determined as appropriate based on definitions by the Ministry of Land, Infrastructure, Transport and Tourism.

処理部122は、運転者30が「突っ伏し姿勢」をとっていると推定された場合(図7のSTEP13)、上記の原理に基づいて、車両20の下ピッチ方向への頭部31の回転角θPを特定する処理を行なってもよい。具体的には、図8に例示されるように、車両20の上下方向における取得された画像IMに写り込んだ運転者30の頭特徴点Hと鼻特徴点NSの間の距離dHNを特定する。距離dHNは、画素数として特定される。続いて、処理部122は、記憶部124に保存されている距離(W/2)と距離dHNのアークタンジェントを求めることにより、上記の角度θP1を特定する。 When the processing unit 122 estimates that the driver 30 is in the “bent down posture” (STEP 13 in FIG. 7), the processing unit 122 may perform processing to identify the rotation angle θP of the head 31 in the downward pitch direction of the vehicle 20 based on the above principle. Specifically, as exemplified in FIG. 8, the distance dHN between the head feature point H and the nose feature point NS of the driver 30 captured in the acquired image IM in the vertical direction of the vehicle 20 is specified. The distance dHN is specified as the number of pixels. Subsequently, the processing unit 122 determines the angle θP1 by obtaining the arctangent of the distance (W/2) and the distance dHN stored in the storage unit 124 .

さらに、処理部122は、特定された角度θP1と初期角度θP0の差分値をとることにより、車両20の下ピッチ方向への頭部31の回転角θPを特定する。処理部122は、特定された回転角θPの絶対値が記憶部124に保存されている閾値を上回っているかを判断する。 Furthermore, the processing unit 122 determines the rotation angle θP of the head 31 in the downward pitch direction of the vehicle 20 by taking the difference value between the specified angle θP1 and the initial angle θP0. Processing unit 122 determines whether the absolute value of the identified rotation angle θP exceeds the threshold value stored in storage unit 124 .

特定された回転角θPの絶対値が閾値を上回っている場合、処理部122は、運転者30が「突っ伏し姿勢」をとっているとの推定を確定させる。 When the absolute value of the specified rotation angle θP exceeds the threshold, the processing unit 122 confirms the estimation that the driver 30 is in the "bent down posture".

他方、鼻特徴点NSと左肩特徴点LSの間の車両20の上下方向に対応する方向における距離dに基づいて運転者30が「突っ伏し姿勢」をとっていると推定されたにも関わらず、特定された回転角θPの絶対値が閾値を上回っていない場合、処理部122は、運転者30が「突っ伏し姿勢」をとっているとの推定を取り消す。例えば、運転者30が上半身を前傾させ、正面を見たまま顎をステアリングホイールにのせる姿勢をとった場合、このような条件が成立しうる。当該姿勢は、「突っ伏し姿勢」には該当しない。 On the other hand, if the absolute value of the identified rotation angle θP does not exceed the threshold even though the distance d in the direction corresponding to the vertical direction of the vehicle 20 between the nose feature point NS and the left shoulder feature point LS is estimated to be taken by the driver 30, the processing unit 122 cancels the estimation that the driver 30 is in the "downward posture." For example, such a condition may be satisfied when the driver 30 leans his upper body forward and places his chin on the steering wheel while looking straight ahead. This position does not fall under the category of "push-down position".

したがって、上記のような構成によれば、撮像装置11により取得された画像IMに基づいてなされる運転者30の姿勢異常の推定の確からしさをさらに高めることができる。 Therefore, according to the configuration as described above, it is possible to further increase the probability of estimating the posture abnormality of the driver 30 based on the image IM acquired by the imaging device 11 .

これまで説明した各機能を有する処理部122は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサは、ROM上に記憶されたコンピュータプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。上記のコンピュータプログラムは、汎用メモリにプリインストールされてもよいし、通信ネットワークを介して外部サーバからダウンロードされて汎用メモリにインストールされてもよい。この場合、外部サーバは、コンピュータプログラムを記憶している記憶媒体の一例である。 The processing unit 122 having each function described so far can be implemented by a general-purpose microprocessor operating in cooperation with a general-purpose memory. A CPU, MPU, and GPU can be exemplified as a general-purpose microprocessor. Examples of general-purpose memory include ROM and RAM. In this case, the ROM may store a computer program for executing the above-described process. ROM is an example of a storage medium that stores computer programs. The processor designates at least part of the computer program stored in the ROM, develops it on the RAM, and cooperates with the RAM to execute the above-described processing. The above computer program may be pre-installed in a general-purpose memory, or may be downloaded from an external server via a communication network and installed in a general-purpose memory. In this case, the external server is an example of a storage medium storing computer programs.

処理部122は、マイクロコントローラ、ASIC、FPGAなどの上記のコンピュータプログラムを実行可能な専用集積回路によって実現されてもよい。この場合、当該専用集積回路に含まれる記憶素子に上記のコンピュータプログラムがプリインストールされる。当該記憶素子は、コンピュータプログラムを記憶している記憶媒体の一例である。処理部122は、汎用マイクロプロセッサと専用集積回路の組合せによっても実現されうる。 The processing unit 122 may be implemented by a dedicated integrated circuit such as a microcontroller, ASIC, FPGA, etc., capable of executing the above computer programs. In this case, the computer program is pre-installed in a storage element included in the dedicated integrated circuit. The storage element is an example of a storage medium storing a computer program. Processing unit 122 may also be implemented by a combination of a general-purpose microprocessor and a dedicated integrated circuit.

記憶部124は、半導体メモリやハードディスク装置により実現されうる。記憶部124は、上記の汎用メモリや記憶素子により実現されてもよい。 Storage unit 124 can be realized by a semiconductor memory or a hard disk device. The storage unit 124 may be implemented by the general-purpose memory or storage element described above.

上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。 The above embodiments are merely examples for facilitating understanding of the present invention. The configurations according to the above embodiments can be modified and improved as appropriate without departing from the scope of the present invention.

上記の実施形態においては、運転者30が「突っ伏し姿勢」をとっているかを推定するために、鼻特徴点NSまたは頭特徴点Hと左肩特徴点LSが用いられている。しかしながら、正常姿勢からの逸脱に伴って車両20の上下方向における距離が減少する特徴点同士であれば、運転者30の上半身に含まれるものから適宜の組合せを選択可能である。そのような組合せの例としては、鼻特徴点と首特徴点、左耳特徴点と左肩特徴点などが挙げられる。 In the above embodiment, the nose feature point NS or the head feature point H and the left shoulder feature point LS are used to estimate whether the driver 30 is in the "bent down posture". However, an appropriate combination can be selected from those included in the upper body of the driver 30 as long as the feature points are such that the distance in the vertical direction of the vehicle 20 decreases as the vehicle 20 deviates from the normal posture. Examples of such combinations include nose and neck minutiae, left ear and left shoulder minutiae, and the like.

正常姿勢からの逸脱に伴って車両20の上下方向における距離が減少する複数の特徴点が運転者30の上半身から適宜に選ばれることにより、画像処理装置12の処理部122は、運転者30が「横倒れ姿勢」をとっているかも推定しうる。 By appropriately selecting a plurality of feature points from the upper body of the driver 30 where the distance in the vertical direction of the vehicle 20 decreases as the vehicle 20 deviates from the normal posture, the processing unit 122 of the image processing device 12 can also estimate whether the driver 30 is in a "sideways posture."

「横倒れ姿勢」は、国土交通省により定義されている複数種の「姿勢崩れパターン」の一つである。「横倒れ姿勢」は、運転者の上半身が左方または右方へ傾き、かつ運転者の顔も同方向に傾いている姿勢が継続している状態として定義されている。 The "sideways posture" is one of multiple types of "posture collapse patterns" defined by the Ministry of Land, Infrastructure, Transport and Tourism. A "sideways posture" is defined as a state in which the driver's upper body is tilted leftward or rightward and the driver's face is also tilted in the same direction.

図11は、左方への「横倒れ姿勢」を例示している。左方への「横倒れ姿勢」は、運転者の顔における特定の位置の、正常時からの車両20の左方向への移動量ΔDLが閾値を上回り、かつ運転者の顔の左方へのロール角θRLが閾値を上回った状態として定義される。ΔDLの閾値は、例えば200mmである。θRLの閾値は、例えば15°である。 FIG. 11 exemplifies a "sideways posture" to the left. The leftward “sideways posture” is defined as a state in which the leftward movement amount ΔDL of the vehicle 20 from the normal state at a specific position on the driver's face exceeds a threshold and the leftward roll angle θRL of the driver's face exceeds a threshold. A threshold value of ΔDL is, for example, 200 mm. A threshold value of θRL is, for example, 15°.

図12は、右方への「横倒れ姿勢」を例示している。右方への「横倒れ姿勢」は、運転者の顔における特定の位置の、正常時からの車両20の右方向への移動量ΔDRが閾値を上回り、かつ運転者の顔の右方へのロール角θRRが閾値を上回った状態として定義される。ΔDRの閾値は、例えば200mmである。θRRの閾値は、例えば15°である。 FIG. 12 exemplifies a "sideways posture" to the right. The rightward "sideways posture" is defined as a state in which the rightward movement amount ΔDR of the vehicle 20 from the normal state at a specific position on the driver's face exceeds a threshold, and the rightward roll angle θRR of the driver's face exceeds a threshold. A threshold value of ΔDR is, for example, 200 mm. A threshold value of θRR is, for example, 15°.

このような定義に依らず、運転者30が「横倒れ姿勢」をとる場合、例えば頭特徴点Hと左肩特徴点LSの間の車両20の上下方向における距離dは、減少する傾向にある。したがって、減少量に係る閾値dthを適宜に定めることにより、運転者30が「横倒れ姿勢」をとっているかを推定できる。 Irrespective of such definition, when the driver 30 takes a "sideways posture", for example, the distance d in the vertical direction of the vehicle 20 between the head feature point H and the left shoulder feature point LS tends to decrease. Therefore, it can be estimated whether the driver 30 is in a "sideways posture" by appropriately setting the threshold value dth related to the amount of decrease.

画像処理装置12は、車両20に搭載されてもよいし、車両20と周知の無線通信ネットワークを介して通信可能な外部装置として提供されてもよい。画像処理装置12が車両20に搭載される場合、画像処理装置12による画像処理と制御装置13による制御処理は、共通の装置あるいは素子によって行なわれてもよい。画像処理装置12が車両20と周知の無線通信ネットワークを介して通信可能な外部装置として提供される場合、撮像装置11から出力された画像情報Iが、無線通信ネットワークを介して画像処理装置12に送信される。処理部122による姿勢推定処理の結果として出力されうる制御情報Cは、周知の無線通信ネットワークを介して制御装置13へ送信される。 The image processing device 12 may be mounted on the vehicle 20, or may be provided as an external device capable of communicating with the vehicle 20 via a known wireless communication network. When image processing device 12 is mounted on vehicle 20, image processing by image processing device 12 and control processing by control device 13 may be performed by a common device or element. When the image processing device 12 is provided as an external device capable of communicating with the vehicle 20 via a known wireless communication network, the image information I output from the imaging device 11 is transmitted to the image processing device 12 via the wireless communication network. Control information C that can be output as a result of posture estimation processing by the processing unit 122 is transmitted to the control device 13 via a well-known wireless communication network.

異常推定システム10は、車両20以外の移動体にも適用されうる。他の移動体の例としては、鉄道、航空機、船舶などが挙げられる。 The abnormality estimation system 10 can also be applied to mobile bodies other than the vehicle 20 . Examples of other mobile objects include railroads, aircraft, ships, and the like.

10:異常推定システム、11:撮像装置、12:画像処理装置、121:受付部、122:処理部、13:制御装置、20:車両、30:運転者、31:頭部、40:被制御装置、H:頭特徴点、I:画像情報、IM:画像、LS:左肩特徴点、NS:鼻特徴点、d、d’:距離、dth、dth’:閾値、θP:ピッチ方向への回転角 10: Abnormality estimation system 11: Imaging device 12: Image processing device 121: Receiving unit 122: Processing unit 13: Control device 20: Vehicle 30: Driver 31: Head 40: Controlled device H: Head feature point I: Image information IM: Image LS: Left shoulder feature point NS: Nose feature point d, d': Distance dth, dth': Threshold θP: Rotation angle in pitch direction

Claims (8)

移動体の運転者が写り込んだ画像に対応する画像情報を受け付ける受付部と、
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する処理部と、
を備えており、
前記処理部は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を上回る場合、前記姿勢が異常であると推定する、
画像処理装置。
a reception unit that receives image information corresponding to an image in which the driver of the moving object is captured;
a processing unit that estimates whether the posture of the driver is abnormal based on the image information;
and
The processing unit, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
estimating that the posture is abnormal when an amount of decrease in distance in a direction corresponding to the vertical direction of the moving body between the plurality of feature points reflected in the image exceeds a threshold;
Image processing device.
前記処理部は、前記距離の減少量が前記閾値を上回る場合、前記運転者が突っ伏し姿勢をとっていると推定する、
請求項1に記載の画像処理装置。
The processing unit estimates that the driver is in a prone posture when the amount of decrease in the distance exceeds the threshold.
The image processing apparatus according to claim 1.
前記処理部は、
前記画像に写り込んだ前記運転者の頭部の前記移動体のピッチ方向への回転角を特定し、
前記距離の減少量が前記閾値を上回り、かつ前記回転角が閾値を上回る場合、前記運転者が突っ伏し姿勢をとっていると推定する、
請求項1または2に記載の画像処理装置。
The processing unit is
identifying a rotation angle of the driver's head reflected in the image in the pitch direction of the moving object;
If the amount of decrease in the distance exceeds the threshold and the rotation angle exceeds the threshold, it is estimated that the driver is in a prone posture.
The image processing apparatus according to claim 1 or 2.
前記複数の特徴点は、前記運転者の鼻と肩に対応している、
請求項1から3のいずれか一項に記載の画像処理装置。
wherein the plurality of feature points correspond to the driver's nose and shoulders;
The image processing apparatus according to any one of claims 1 to 3.
前記複数の特徴点は、前記運転者の頭部中心と肩に対応している、
請求項1から4のいずれか一項に記載の画像処理装置。
The plurality of feature points correspond to the driver's head center and shoulders.
The image processing apparatus according to any one of claims 1 to 4.
前記移動体に搭載されるように構成されている、
請求項1から5のいずれか一項に記載の画像処理装置。
configured to be mounted on the mobile body,
The image processing apparatus according to any one of claims 1 to 5.
画像処理装置の処理部により実行可能なコンピュータプログラムであって、
実行されることにより、前記画像処理装置に、
移動体の運転者が写り込んだ画像に対応する画像情報を受け付けさせ、
前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定させ、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記運転者の姿勢が異常であると推定させる、
コンピュータプログラム。
A computer program executable by a processing unit of an image processing device,
By being executed, the image processing device
receiving image information corresponding to an image in which a driver of a mobile object is captured;
Based on the image information,
specifying a plurality of feature points on the upper body of the driver reflected in the image;
estimating that the posture of the driver is abnormal when a decrease in distance in a direction corresponding to the vertical direction of the moving body between the plurality of feature points reflected in the image is below a threshold;
computer program.
移動体の運転者が写り込んだ画像に対応する画像情報を出力する撮像装置と、
前記画像情報に基づいて前記運転者の姿勢が異常であるかを推定する画像処理装置と、
前記画像処理装置により前記姿勢が異常であるとの推定結果に基づいて、前記移動体に搭載された被制御装置の動作を制御する制御装置と、
を備えており、
前記画像処理装置は、前記画像情報に基づいて、
前記画像に写り込んだ前記運転者の上半身における複数の特徴点を特定し、
前記画像に写り込んだ前記複数の特徴点の間の前記移動体の上下方向に対応する方向における距離の減少量が閾値を下回る場合、前記姿勢が異常であると推定する、
異常推定システム。
an imaging device that outputs image information corresponding to an image in which a driver of a mobile object is captured;
an image processing device that estimates whether the posture of the driver is abnormal based on the image information;
a control device that controls the operation of a controlled device mounted on the moving body based on the estimation result that the posture is abnormal by the image processing device;
and
The image processing device, based on the image information,
identifying a plurality of feature points on the driver's upper body reflected in the image;
estimating that the posture is abnormal when an amount of decrease in distance in a direction corresponding to the vertical direction of the moving object between the plurality of feature points captured in the image is below a threshold;
Anomaly estimation system.
JP2020048022A 2020-03-18 2020-03-18 Image processing device, computer program, and anomaly estimation system Active JP7314085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020048022A JP7314085B2 (en) 2020-03-18 2020-03-18 Image processing device, computer program, and anomaly estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020048022A JP7314085B2 (en) 2020-03-18 2020-03-18 Image processing device, computer program, and anomaly estimation system

Publications (2)

Publication Number Publication Date
JP2021149442A JP2021149442A (en) 2021-09-27
JP7314085B2 true JP7314085B2 (en) 2023-07-25

Family

ID=77848896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020048022A Active JP7314085B2 (en) 2020-03-18 2020-03-18 Image processing device, computer program, and anomaly estimation system

Country Status (1)

Country Link
JP (1) JP7314085B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016200910A (en) 2015-04-08 2016-12-01 日野自動車株式会社 Driver state determination device
JP2019087150A (en) 2017-11-09 2019-06-06 トヨタ自動車株式会社 Driver monitoring system
JP2019105872A (en) 2017-12-08 2019-06-27 株式会社デンソー Abnormality detection device and abnormality detection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016200910A (en) 2015-04-08 2016-12-01 日野自動車株式会社 Driver state determination device
JP2019087150A (en) 2017-11-09 2019-06-06 トヨタ自動車株式会社 Driver monitoring system
JP2019105872A (en) 2017-12-08 2019-06-27 株式会社デンソー Abnormality detection device and abnormality detection program

Also Published As

Publication number Publication date
JP2021149442A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
US10147003B2 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
JP6515823B2 (en) Lane change support device
JP6439287B2 (en) Driving support device, driving support method, image correction device, and image correction method
EP3330147B1 (en) Method and apparatus for generating a driving route for an autonomous vehicle
US20150329048A1 (en) Surround-view camera system (vpm) online calibration
US10503986B2 (en) Passenger information detection device and program
US9988082B2 (en) Traveling path estimation apparatus
JP2019513613A (en) Method, system and non-transitory computer readable memory for controlling a vehicle
JP4533936B2 (en) Image processing apparatus and vehicle detection apparatus including the same
US12103586B2 (en) Position estimation apparatus
JP2004131078A (en) Occupant labeling system for identifying occupant's upper torso, its method, and occupant tracing and airbag development system using them
CN106985825A (en) Vehicle condition is detected and warning system
EP3418122B1 (en) Position change determination device, overhead view image generation device, overhead view image generation system, position change determination method, and program
JP2019191806A (en) Abnormality detection device and abnormality detection method
CN111457933A (en) Method and apparatus for determining lane-level static and dynamic information
JP2019526105A (en) Method for creating a map of a peripheral model, vehicle control system, and corresponding vehicle
CN114998421A (en) Method and device for determining the spatial orientation of a trailer
CN108657173A (en) ECU, the autonomous vehicle comprising ECU and the method for identifying its neighbouring vehicle
JP2020060550A (en) Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
JP7314085B2 (en) Image processing device, computer program, and anomaly estimation system
US20230034560A1 (en) Method for tracking a remote target vehicle in an area surrounding a motor vehicle by means of a collision detection device
JP7458216B2 (en) Image processing device, computer program, and abnormality estimation system
JP7402719B2 (en) Image processing device, computer program, and abnormality estimation system
JP7314084B2 (en) Image processing device, computer program, and anomaly estimation system
JP5425500B2 (en) Calibration apparatus and calibration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7314085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150