JP2018101212A - On-vehicle device and method for calculating degree of face directed to front side - Google Patents
On-vehicle device and method for calculating degree of face directed to front side Download PDFInfo
- Publication number
- JP2018101212A JP2018101212A JP2016245795A JP2016245795A JP2018101212A JP 2018101212 A JP2018101212 A JP 2018101212A JP 2016245795 A JP2016245795 A JP 2016245795A JP 2016245795 A JP2016245795 A JP 2016245795A JP 2018101212 A JP2018101212 A JP 2018101212A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- degree
- center
- eyeball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
本発明は、顔を含むように撮影された顔画像を利用する車載器および顔正面度算出方法に関し、特にキャリブレーションに利用可能な技術に関する。 The present invention relates to an in-vehicle device and a face front degree calculation method using a face image photographed so as to include a face, and more particularly to a technique that can be used for calibration.
車両においては、運転者の視線の方向を検知し、この視線の情報を安全運転などのために役立てることが望まれている。視線を検出する代表的な手法としては、従来より「角膜反射法」、「瞳孔−角膜反射法」(例えば特許文献1)、および「モデルベース手法」(例えば特許文献2)が知られている。 In a vehicle, it is desired to detect the direction of the driver's line of sight and to use the information of the line of sight for safe driving. As representative techniques for detecting the line of sight, a “corneal reflection method”, a “pupil-corneal reflection method” (for example, Patent Document 1), and a “model-based method” (for example, Patent Document 2) are known. .
「角膜反射法」および「瞳孔−角膜反射法」の場合は、目に赤外線を当てることで生じる角膜反射光(プルキニエ像)を基準点とし、瞳孔の位置関係に基づいて視線を検出する。「モデルベース手法」の場合は、顔の特徴点群や3次元顔モデルと3次元眼球モデルを利用して視線を算出する。 In the case of the “corneal reflection method” and the “pupil-corneal reflection method”, a line of sight is detected based on the positional relationship between the pupils using corneal reflection light (Purkinje image) generated by applying infrared rays to the eyes as a reference point. In the case of the “model-based method”, the line of sight is calculated using a facial feature point group, a three-dimensional face model, and a three-dimensional eyeball model.
「角膜反射法」および「瞳孔−角膜反射法」はキャリブレーションなしで視線計測をすることはできない。一方、「モデルベース手法」は、キャリブレーションなしでも認識することができる。また、キャリブレーションによって個人差を解消することができるため視線の検出精度を向上させることができる。 The “corneal reflection method” and the “pupil-corneal reflection method” cannot perform line-of-sight measurement without calibration. On the other hand, the “model-based method” can be recognized without calibration. Moreover, since individual differences can be eliminated by calibration, the detection accuracy of the line of sight can be improved.
例えば、特許文献3の技術では、校正時にヘッドアップディスプレイを用いて運転者が視認可能なターゲットを前方に虚像として表示し、ターゲットの位置を注視している状態の運転者の視線方向を検出することでキャリブレーションを実施している。 For example, in the technique of Patent Document 3, a target that can be visually recognized by the driver is displayed as a virtual image using a head-up display at the time of calibration, and the line-of-sight direction of the driver who is gazing at the position of the target is detected. Calibration is performed.
また、例えば特許文献4は、運転者による特別な操作が不要なキャリブレーションの技術を示している。例えば、自車両と他車両との車間距離、ブレーキ踏み込みの状態などに基づいて特定の状態を検知し、運転者の視線が他車両の方向を向いている可能性が高いと考えられる時に、カメラで撮影した(他車両を含む)画像を利用してキャリブレーションを自動的に実施する。また、ODOメータリセットボタンが操作されたときに、運転者の視線が特定の方向にあるものとしてカメラで撮影した画像を用いてキャリブレーションを行っている(段落[0055]参照)。 For example, Patent Document 4 shows a calibration technique that does not require any special operation by the driver. For example, when it is considered that a specific state is detected based on the distance between the host vehicle and the other vehicle, the brake depression state, etc., and the driver's line of sight is likely to face the other vehicle, Calibration is automatically performed using the images taken in (including other vehicles). Further, when the ODO meter reset button is operated, calibration is performed using an image photographed by the camera assuming that the driver's line of sight is in a specific direction (see paragraph [0055]).
しかしながら、視線検出のために上記「角膜反射法」又は「瞳孔−角膜反射法」を採用する場合には、計測のためのシステム規模が大きくなるため、車内空間への適用が難しい。他方、上記「モデルベース手法」を採用する場合には、カメラ一台で実現できるため、車内空間への適用に向いている。 However, when the above-mentioned “corneal reflection method” or “pupil-corneal reflection method” is used for line-of-sight detection, the scale of the system for measurement increases, making it difficult to apply to the interior space of the vehicle. On the other hand, when the above “model-based method” is adopted, it can be realized with a single camera, which is suitable for application to the interior space of a vehicle.
しかし、「モデルベース手法」は、「角膜反射法」よりも視線計測精度が悪い。すなわち、視線の検出に用いられるパラメータ、例えば眼球中心位置などの誤差が大きいため、検出精度が低下する。この検出精度の悪化の原因については、撮影された顔画像中で顔の向きが正面を向いていない中で眼球中心位置の検出がなされることが一因として挙げられる。 However, the “model-based method” has a lower gaze measurement accuracy than the “corneal reflection method”. That is, since the error in parameters used for eye gaze detection, such as the center position of the eyeball, is large, the detection accuracy decreases. One reason for this deterioration in detection accuracy is that the center position of the eyeball is detected while the face is not facing the front in the captured face image.
そのため、キャリブレーションが必要になる。しかし、特許文献3に示されたような方法では、キャリブレーションを実施する際のユーザの負担が非常に大きいので車両への適用は難しい。また、特許文献4に示されたような方法では、高精度でキャリブレーションすることは難しい。 Therefore, calibration is necessary. However, the method as disclosed in Patent Document 3 is difficult to apply to a vehicle because the burden on the user when performing calibration is very large. In addition, it is difficult to perform calibration with high accuracy by the method disclosed in Patent Document 4.
本発明は、上述した事情に鑑みてなされたものであり、その目的は、撮影された顔画像中で顔の向きが正面を向いているか否かを精度よく検出することが可能な車載器および顔正面度算出方法を提供することにある。 The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an on-vehicle device capable of accurately detecting whether or not the face orientation is facing the front in a photographed face image. It is to provide a method for calculating the degree of face front.
前述した目的を達成するために、本発明に係る車載器は、下記(1)〜(4)を特徴としている。
(1) 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出するデータ処理部を備える車載器であって、
前記データ処理部は、前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出することを特徴とする。
(2) 前記データ処理部は、
前記顔正面度が条件を満たす場合、前記顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出する、
ことを特徴とする上記(1)に記載の車載器。
(3) 前記データ処理部は、
前記顔正面度が条件を満たすか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
ことを特徴とする上記(2)に記載の車載器。
(4) 前記データ処理部は、
総画素数が共通の前記第1の画像データと、前記第2の画像データとを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して前記顔正面度を算出する、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
In order to achieve the above-described object, the vehicle-mounted device according to the present invention is characterized by the following (1) to (4).
(1) An in-vehicle device including a data processing unit that calculates a face front degree representing a degree that the face is facing the front from a face image photographed so as to include the face,
The data processing unit compares the first image data obtained by reducing the resolution of the face image with the second image data obtained by reducing the resolution of an image obtained by horizontally inverting the face image. The degree is calculated.
(2) The data processing unit
When the face front degree satisfies the condition, an eyeball center coordinate where the center of the three-dimensional eyeball model in which the eyeball included in the face image is modeled is calculated;
The vehicle-mounted device according to (1) above, wherein
(3) The data processing unit
Determining whether the face front degree satisfies a condition;
Determining whether the line of sight based on the position of the black eye included in the face image is facing the front,
The in-vehicle device according to (2), wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated when it is determined that the face and the line of sight are facing the front.
(4) The data processing unit
The first image data having the same total number of pixels and the second image data are compared for each pixel at the same position, and the luminance of the pixel in the first image data and the second image data in the second image data are compared. The difference between the brightness of the pixels is totaled to calculate the face front degree.
The on-vehicle device according to any one of (1) to (3) above,
上記(1)の構成の車載器によれば、顔の左右を反転した画像同士を対比するので、顔が正面を向いている度合を単純な計算処理だけで検知できる。しかも、対比する前に画像を低解像度化するので、処理対象のデータ量が削減され計算量が減る。また、低解像度化により、例えば顔の中にある黒子(ほくろ)のような身体における局所的な差異の影響を除外できるので、個人差により検出精度が低下することもなくなる。
上記(2)の構成の車載器によれば、前記顔正面度に基づき、計算誤差が少ない条件でのみ、前記眼球中心座標を算出することができる。すなわち、監視対象の人物の顔が正面を向いている状況であれば、大きな計算誤差を生じることなく、しかも単純な計算処理だけで前記眼球中心座標を算出できる。
上記(3)の構成の車載器によれば、監視対象の人物の顔が正面を向き、且つ顔の中の視線が正面を向いている状況でのみ、前記眼球中心座標を算出することができる。これにより、計算誤差の発生を減らすことができ、計算処理も単純化できる。
上記(4)の構成の車載器によれば、比較的単純な計算処理によって前記顔正面度を正確に算出できる。
According to the vehicle-mounted device having the configuration (1) described above, since the images obtained by inverting the left and right faces are compared, the degree to which the face is facing the front can be detected only by a simple calculation process. In addition, since the resolution of the image is reduced before the comparison, the amount of data to be processed is reduced and the amount of calculation is reduced. In addition, by reducing the resolution, it is possible to eliminate the influence of local differences in the body such as moles in the face, so that the detection accuracy is not lowered due to individual differences.
According to the vehicle-mounted device having the configuration (2), it is possible to calculate the eyeball center coordinates only under the condition that the calculation error is small based on the face frontal degree. In other words, if the face of the person to be monitored is facing the front, the eyeball center coordinates can be calculated by a simple calculation process without causing a large calculation error.
According to the vehicle-mounted device having the configuration (3), the eyeball center coordinates can be calculated only in a situation where the face of the person to be monitored faces the front and the line of sight in the face faces the front. . As a result, the occurrence of calculation errors can be reduced, and the calculation process can be simplified.
According to the vehicle-mounted device having the configuration (4), the face front degree can be accurately calculated by a relatively simple calculation process.
前述した目的を達成するために、本発明に係る顔正面度算出方法は、下記(5)を特徴としている。
(5) 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出する顔正面度算出方法であって、
前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出することを特徴とする。
In order to achieve the above-described object, the face front degree calculation method according to the present invention is characterized by the following (5).
(5) A face front degree calculation method for calculating a face front degree representing a degree that the face is facing the front from a face image photographed so as to include a face,
The face front degree is calculated by comparing the first image data in which the face image is reduced in resolution and the second image data in which the image obtained by horizontally inverting the face image is reduced in resolution. Features.
上記(5)の構成の顔正面度算出方法によれば、顔の左右を反転した画像同士を対比するので、顔が正面を向いている度合を単純な計算処理だけで検知できる。しかも、対比する前に画像を低解像度化するので、処理対象のデータ量が削減され計算量が減る。また、低解像度化により、例えば顔の中にある黒子のような身体における局所的な差異の影響を除外できるので、個人差により検出精度が低下することもなくなる。 According to the face front degree calculation method having the configuration (5) described above, since the images obtained by inverting the left and right faces are compared, the degree to which the face is facing the front can be detected only by a simple calculation process. In addition, since the resolution of the image is reduced before the comparison, the amount of data to be processed is reduced and the amount of calculation is reduced. In addition, by reducing the resolution, the influence of local differences in the body, such as the mole in the face, can be excluded, so that the detection accuracy is not lowered due to individual differences.
本発明の車載器および顔正面度算出方法によれば、撮影された顔画像中で顔の向きが正面を向いているか否かを精度よく検出することが可能である。 According to the vehicle-mounted device and the face front degree calculation method of the present invention, it is possible to accurately detect whether or not the face is facing the front in the captured face image.
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .
本発明の車載器および顔正面度算出方法に関する具体的な実施の形態について、各図を参照しながら以下に説明する。 Specific embodiments of the vehicle-mounted device and the face front degree calculation method of the present invention will be described below with reference to the drawings.
<本発明が適用される環境の具体例>
本発明の実施形態における車載器の配置状態の具体例を図1に示す。
図1に示した例では、車両の車室内10にカメラ12および処理部13が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ12で撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所にカメラ12が設置されている。
<Specific examples of environment to which the present invention is applied>
The specific example of the arrangement | positioning state of the onboard equipment in embodiment of this invention is shown in FIG.
In the example shown in FIG. 1, a camera 12 and a processing unit 13 are installed in a vehicle interior 10 of a vehicle. Specifically, the person 11 sitting in the driver's seat, that is, the face including the driver's eye area 11a can be photographed with the camera 12 in the meter unit in front of the driver's seat or in the column cover. A camera 12 is installed.
処理部13は、カメラ12が人物11の顔を撮影した得られる二次元画像データを処理し、主に目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部13が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途に利用可能である。したがって、本発明の車載器は、例えば図1中の処理部13、あるいはその一部として構成することが想定される。 The processing unit 13 processes the two-dimensional image data obtained by the camera 12 capturing the face of the person 11, and estimates information indicating the direction of the line of sight 11b mainly from the data of the eye region 11a. The information on the line of sight 11b estimated by the processing unit 13 can be used for the vehicle-mounted device to recognize whether or not the driver driving the vehicle is moving the line of sight for safety confirmation. Of course, such line-of-sight information can be used for various purposes. Therefore, it is assumed that the vehicle-mounted device of the present invention is configured as, for example, the processing unit 13 in FIG. 1 or a part thereof.
なお、本実施形態の車載器は、後述するように、カメラ12が撮影した二次元画像データに基づいて、眼球中心位置を自動的に校正する機能を搭載している。したがって、車載器の視線検出機能を校正するために、図1に示した構成以外に、特別な校正機材を用意する必要はない。また、人物11も校正のために特別な調整の操作を実施する必要がない。 Note that the vehicle-mounted device of the present embodiment has a function of automatically calibrating the center position of the eyeball based on two-dimensional image data captured by the camera 12, as will be described later. Therefore, in order to calibrate the gaze detection function of the vehicle-mounted device, it is not necessary to prepare special calibration equipment other than the configuration shown in FIG. Also, the person 11 does not need to perform a special adjustment operation for calibration.
<視線検出アルゴリズムの概要>
3次元眼球モデルを利用して、顔画像に基づき視線検出する場合の処理手順の概要を図2に示す。すなわち、車載器のコンピュータが所定のプログラムを実行することにより、図2に示した視線検出アルゴリズムに従った動作が順次に行われる。
<Outline of eye-gaze detection algorithm>
FIG. 2 shows an outline of a processing procedure in the case where a gaze is detected based on a face image using a three-dimensional eyeball model. That is, when the computer of the vehicle-mounted device executes a predetermined program, operations according to the line-of-sight detection algorithm shown in FIG. 2 are sequentially performed.
カメラ12は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。車載器のコンピュータは、ステップS11でカメラ12から映像の信号を1フレーム分取り込む。また、実際にはグレースケール化を含む、画像のデータ形式の変換などの「下処理」をS11で行う。例えば、1フレーム内の各画素位置毎に、輝度を「0〜255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向(y)及び横方向(x)に並べた二次元(2D)配列の画像データを生成する。 The camera 12 constantly shoots an image of an area including the face of the person 11 at a constant cycle, and outputs a video signal. The computer of the vehicle-mounted device captures one frame of the video signal from the camera 12 in step S11. In addition, “down-processing” such as conversion of the image data format including gray scale is actually performed in S11. For example, for each pixel position in one frame, 8-bit data representing the luminance with gradations in the range of “0 to 255” is aligned in the vertical direction (y) and horizontal direction ( Image data of a two-dimensional (2D) array arranged in x) is generated.
ステップS12では、コンピュータがS11で入力された1フレームまたは複数フレームの二次元画像データを処理して、人物11の顔を検出する。具体例としては、「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。勿論、独自に開発した手法を利用して顔を検出してもよい。なお、「Viola-Jones法」の技術は以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
In step S12, the computer processes the one-dimensional or plural-frame two-dimensional image data input in step S11 to detect the face of the person 11. As a specific example, face detection is performed using the “Viola-Jones method”, and a region including a face is extracted as a rectangular region from one frame of two-dimensional image data. That is, a facial region is extracted using a detector that is characterized by the shadow difference of the face and created by learning using “Boosting”. Of course, the face may be detected by using a uniquely developed method. The technique of “Viola-Jones method” is shown in the following document.
"P.viola and MJJones," Rapid Object Detection Using a Boosted Cascade of Simple Features, "IEEE CVPR (2001)."
次のステップS13では、S12で抽出した顔の矩形領域内のデータを処理して、左右の黒目(虹彩)の各々を検出する。例えば、公知技術であるテンプレートマッチングを用いることにより黒目を検出できる。すなわち、例えば黒い円形パターンのような黒目の特徴を表すテンプレートの参照データを予め用意しておき、このテンプレートを処理対象画像上で順次に走査して特徴が一致する位置を特定する。なお、黒目の検出を実行する前に、顔の全体について様々な特徴点の位置または陰影差を検出し、左右の目の各々の領域の位置を把握する。これにより、左右の黒目の検出を行う際に、探索処理の対象となるデータの範囲を限定できるので、処理の時間を短縮できる。例えば、「Viola-Jones法」を用いることにより目の領域を検出できる。 In the next step S13, the data in the rectangular area of the face extracted in S12 is processed to detect each of the left and right black eyes (iris). For example, black eyes can be detected by using template matching which is a known technique. That is, for example, reference data of a template representing a feature of a black eye such as a black circular pattern is prepared in advance, and this template is sequentially scanned on the processing target image to specify a position where the feature matches. Note that before executing black-eye detection, the positions of various feature points or shading differences are detected for the entire face, and the positions of the regions of the left and right eyes are grasped. Thereby, when the left and right black eyes are detected, the range of data to be searched can be limited, so that the processing time can be shortened. For example, the eye region can be detected by using the “Viola-Jones method”.
また、本実施形態では3次元眼球モデルを用いるモデルベース手法によって視線を検出する場合を想定しているので、左右の各眼球の基準点として眼球中心位置を特定する必要がある。この眼球中心位置をコンピュータがステップS14で推定する。この処理には、目尻、目頭位置に基づいて眼球中心位置を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することが想定される。但し、本発明の実施形態においては、後述するように特別なアルゴリズムを用いて眼球中心位置を特定する。 In this embodiment, since it is assumed that the line of sight is detected by a model-based method using a three-dimensional eyeball model, it is necessary to specify the eyeball center position as a reference point for the left and right eyeballs. The computer estimates the eyeball center position in step S14. For this processing, it is assumed that a method for determining the center position of the eyeball based on the position of the corner of the eye and the position of the eyeball, or a method for calculating the center position of the eyeball by simultaneously estimating the skeleton from the facial feature points. However, in the embodiment of the present invention, the eyeball center position is specified using a special algorithm as described later.
ステップS15では、コンピュータが、検出した黒目位置、および眼球中心位置に基づき、3次元眼球モデルの状態(位置、角度)を決定し、その結果により視線の角度を算出する。 In step S15, the computer determines the state (position, angle) of the three-dimensional eyeball model based on the detected black eye position and eyeball center position, and calculates the angle of the line of sight based on the result.
ステップS16では、コンピュータが、ステップS15で得られた視線の角度に対して、必要に応じてデータの平均化、ノイズ除去などの処理を行い、視線の方向の情報を利用するアプリケーションプログラムや他の車載機器に対して視線を表すデータを送信する。 In step S16, the computer performs processing such as data averaging and noise removal on the line-of-sight angle obtained in step S15 as necessary, and uses other information such as an application program that uses information on the line-of-sight direction. Data representing the line of sight is transmitted to the in-vehicle device.
<3次元眼球モデルの説明>
二次元の入力画像と3次元眼球モデルとの関係の例を図3に示す。
図3に示した3次元眼球モデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。黒目(虹彩)32は、3次元眼球モデル30の眼球表面上に張り付いた半径Diの円盤状の領域であるとみなしている。黒目(虹彩)32の中心32aは瞳孔の中央部に相当する。なお、眼球の半径Rおよび黒目の半径Diの各寸法は、人体の寸法データおよびカメラ12の撮影系の各種パラメータに基づいて決めることができる。
<Description of 3D eyeball model>
An example of the relationship between the two-dimensional input image and the three-dimensional eyeball model is shown in FIG.
In the three-dimensional eyeball model 30 shown in FIG. 3, the eyeball is a sphere represented by an eyeball center 31 and a radius R. The black eye (iris) 32 is regarded as a disk-shaped region having a radius Di attached on the eyeball surface of the three-dimensional eyeball model 30. The center 32a of the black eye (iris) 32 corresponds to the center of the pupil. Note that the dimensions of the eyeball radius R and the black eye radius Di can be determined based on human body dimension data and various parameters of the imaging system of the camera 12.
この3次元眼球モデル30において、視線の方向は、眼球中心31から黒目32の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、黒目中心32aの座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。 In this three-dimensional eyeball model 30, the direction of the line of sight can be specified as the direction from the eyeball center 31 toward the center of the black eye 32, and the rotation angle yaw with respect to the reference direction in the horizontal plane and the rotation angle with respect to the reference direction in the vertical direction It can be represented by a pitch. Further, the coordinates of the black eye center 32a can be expressed by an eyeball radius R, a yaw, and a pitch when the eyeball center 31 is used as a reference.
一方、カメラ12が撮影する映像は特定の2次元平面を表している。したがって、入力画像として例えば図3に示した目の領域の二次元画像35が入力された場合には、3次元眼球モデル30を利用するために二次元/三次元の相互変換を行う必要がある。 On the other hand, the video imaged by the camera 12 represents a specific two-dimensional plane. Therefore, for example, when the two-dimensional image 35 of the eye region shown in FIG. 3 is input as the input image, it is necessary to perform two-dimensional / three-dimensional mutual conversion in order to use the three-dimensional eyeball model 30. .
具体的には、目の領域の二次元画像35の中で黒目中心32aの位置、および眼球中心31の位置の二次元座標をそれぞれ検出し、これらの二次元座標を3次元眼球モデル30の三次元座標上に投影する。これにより視線11bのベクトルを算出することができる。視線11bのベクトルと、各方向の回転角度yaw、pitchとの関係は次式で表される。 Specifically, the two-dimensional coordinates of the position of the black eye center 32 a and the position of the eyeball center 31 are respectively detected in the two-dimensional image 35 of the eye region, and these two-dimensional coordinates are obtained as the third order of the three-dimensional eyeball model 30. Project onto original coordinates. Thereby, the vector of the line of sight 11b can be calculated. The relationship between the vector of the line of sight 11b and the rotation angles yaw and pitch in each direction is expressed by the following equations.
X=−R×cos(pitch)×sin(yaw) ・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X = −R × cos (pitch) × sin (yaw) (1)
Y = R × sin (pitch) (2)
X: distance in the x direction from the eyeball center 31 on the two-dimensional image plane Y: distance in the y direction from the eyeball center 31 on the two-dimensional image plane
<特徴的な処理の説明>
<処理の概要>
3次元眼球モデル30における眼球中心31の位置を自動的に校正するための処理手順の概要を図4に示す。例えば、処理部13内部のコンピュータが、図2に示したステップS14として図4に示した処理を実行することにより、眼球中心31の位置が自動的に校正される。これにより、眼球中心31の位置精度が向上するので、視線検出精度も上がる。校正のために運転者等のユーザが特別な操作を行う必要もない。
<Description of characteristic processing>
<Outline of processing>
An outline of a processing procedure for automatically calibrating the position of the eyeball center 31 in the three-dimensional eyeball model 30 is shown in FIG. For example, the computer in the processing unit 13 executes the process shown in FIG. 4 as step S14 shown in FIG. 2, whereby the position of the eyeball center 31 is automatically calibrated. Thereby, since the positional accuracy of the eyeball center 31 is improved, the visual line detection accuracy is also improved. There is no need for a user such as a driver to perform a special operation for calibration.
図4のステップS101では、入力画像に映っている人物11の顔の正面度、すなわち「顔が正面を向いている度合」をコンピュータが計算する。そして、S101の計算結果に基づき、「顔が正面を向いている」とみなせる状態であれば、ステップS102からS103に進む。 In step S101 of FIG. 4, the computer calculates the front degree of the face of the person 11 shown in the input image, that is, “the degree that the face is facing the front”. Then, based on the calculation result of S101, if the state can be regarded as “the face is facing the front”, the process proceeds from step S102 to S103.
ステップS103では、入力画像に映っている人物11の視線の正面度、すなわち「視線の方向が正面を向いている度合」をコンピュータが計算する。そして、S103の計算結果に基づき、「視線の方向が正面を向いている」とみなせる状態であれば、ステップS104からS105に進む。 In step S103, the computer calculates the front degree of the line of sight of the person 11 shown in the input image, that is, “the degree that the direction of the line of sight is facing the front”. Then, based on the calculation result of S103, if the state can be regarded as “the direction of the line of sight is facing the front”, the process proceeds from step S104 to S105.
ステップS105では、入力画像に映っている人物11の現在の特徴に基づいて、最新の眼球中心位置を算出し、眼球中心位置を更新するために必要な補正値を求める。この補正値を次のステップS106で、3次元眼球モデル30の眼球中心31の座標に反映し校正を実行する。 In step S105, the latest eyeball center position is calculated based on the current characteristics of the person 11 shown in the input image, and a correction value necessary for updating the eyeball center position is obtained. In step S106, the correction value is reflected on the coordinates of the eyeball center 31 of the three-dimensional eyeball model 30 to execute calibration.
<「顔正面度」の計算の詳細>
「顔正面度」は、入力画像上において「顔が正面を向いている度合」を表す。「顔正面度」を計算するための具体的な処理手順を図5に示す。この処理手順を図4に示したステップS101で実行する。また、顔正面度を算出する際の処理前後の顔画像の状態変化を図6に示す。図5に示した「顔正面度計算」について以下に説明する。
<Details of “Face Facing” Calculation>
The “face front degree” represents “the degree to which the face is facing the front” on the input image. A specific processing procedure for calculating the “face front degree” is shown in FIG. This processing procedure is executed in step S101 shown in FIG. In addition, FIG. 6 shows changes in the state of the face image before and after processing when calculating the degree of face front. The “face front degree calculation” shown in FIG. 5 will be described below.
図5のステップS31では、図2のS12で検出された顔領域の画像データFを処理対象として入力する。顔領域の画像データFにおける顔の中心座標は、図6に示すようにx軸方向の顔の中央位置(facecen.x)と、y軸方向の中央位置(facecen.y)とで表される。 In step S31 of FIG. 5, the image data F of the face area detected in S12 of FIG. 2 is input as a processing target. The center coordinate of the face in the image data F of the face area is represented by the center position (facecen.x) of the face in the x-axis direction and the center position (facecen.y) in the y-axis direction as shown in FIG. .
図5のステップS32では、S31で入力した顔領域の画像データFを処理して、顔画像におけるx軸の中央(facecen.x)に対して左右を反転した左右反転画像データFLをコンピュータが作成する。 In step S32 of FIG. 5, the computer generates the left-right inverted image data FL obtained by processing the face area image data F input in S31 and inverting the left and right with respect to the center (facecen.x) of the x-axis in the face image. To do.
次のステップS33では、画像データFを処理することにより縮小画像データFsmallをコンピュータが作成する。この処理は画像の解像度を下げることを意味している。例えば、画像データFにおいてx方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりx方向の解像度を半分にして画素数も半分にすることができる。また間引きを行う際に、例えば隣接する2つの画素の輝度の平均値を算出して間引き後の画素の輝度に反映してもよい。同様に、画像データFにおいてy方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりy方向の解像度を半分にして画素数も半分にすることができる。このようにして画素数を減らすと、画像全体のサイズも縮小される。 In the next step S33, the computer generates reduced image data Fsmall by processing the image data F. This process means lowering the resolution of the image. For example, by thinning out one of two pixels adjacent to each other in the x direction in the image data F and reducing it to one pixel, the resolution in the x direction can be halved and the number of pixels can be halved. Further, when performing thinning, for example, an average value of the luminance of two adjacent pixels may be calculated and reflected in the luminance of the pixels after thinning. Similarly, by thinning out one of two pixels adjacent to each other in the y direction in the image data F and reducing it to one pixel, the resolution in the y direction can be halved and the number of pixels can be halved. When the number of pixels is reduced in this way, the size of the entire image is also reduced.
実際には、顔正面度の検出に適した解像度になるようにステップS33で縮小画像データFsmallを作成する。例えば黒子のような個人の身体的な特徴は排除し、且つ黒目の位置のように顔の向きと大きな関係のある情報が正しく残るように適切な解像度の縮小画像データFsmallを作成する。図6に示した例では、縮小画像データFsmallは、低解像度化により、x方向の画素数Mが「20」、y方向の画素数Nが「20」になり、総画素数(M×N)が元の画像データFに比べて大幅に減少している。 Actually, the reduced image data Fsmall is created in step S33 so that the resolution is suitable for the detection of the degree of face front. For example, the physical characteristics of an individual such as Kuroko are excluded, and reduced image data Fsmall having an appropriate resolution is created so that information having a large relationship with the face direction such as the position of the black eye remains correctly. In the example illustrated in FIG. 6, the reduced image data Fsmall has the resolution reduced, so that the number of pixels M in the x direction is “20”, the number of pixels N in the y direction is “20”, and the total number of pixels (M × N ) Is significantly reduced compared to the original image data F.
次のステップS34では、S32で作成した左右反転画像データFLを処理することにより縮小画像データFLsmallをコンピュータが作成する。この処理は画像の解像度を下げることを意味している。例えば、左右反転画像データFLにおいてx方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりx方向の解像度を半分にして画素数も半分にすることができる。また間引きを行う際に、例えば隣接する2つの画素の輝度の平均値を算出して間引き後の画素の輝度に反映してもよい。同様に、左右反転画像データFLにおいてy方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりy方向の解像度を半分にして画素数も半分にすることができる。図6に示した例では、縮小画像データFLsmallは、低解像度化により、x方向の画素数Mが「20」、y方向の画素数Nが「20」になり、総画素数(M×N)が処理前の画像データFLに比べて大幅に減少している。 In the next step S34, the computer creates reduced image data FLsmall by processing the horizontally reversed image data FL created in S32. This process means lowering the resolution of the image. For example, the resolution in the x direction can be halved and the number of pixels can be halved by thinning out one of two pixels adjacent to each other in the x direction and reducing it to one pixel in the horizontally reversed image data FL. Further, when performing thinning, for example, an average value of the luminance of two adjacent pixels may be calculated and reflected in the luminance of the pixels after thinning. Similarly, in the horizontally reversed image data FL, by thinning out one of two pixels adjacent to each other in the y direction and reducing it to one pixel, the resolution in the y direction can be halved and the number of pixels can be halved. In the example shown in FIG. 6, the reduced image data FLsmall is reduced in resolution so that the number of pixels M in the x direction is “20”, the number of pixels N in the y direction is “20”, and the total number of pixels (M × N ) Is significantly reduced compared to the image data FL before processing.
ステップS35では、S33の縮小画像データFsmallと、S34の縮小画像データFLsmallとの類似性を、コンピュータが顔正面度Dとして算出する。なお、この例では図6に示すように2つの縮小画像データFsmall、FLsmallの解像度が同じ場合を想定している。この場合の顔正面度Dは次式により算出される。 In step S35, the computer calculates the similarity between the reduced image data Fsmall of S33 and the reduced image data FLsmall of S34 as the face front degree D. In this example, it is assumed that the two reduced image data Fsmall and FLsmall have the same resolution as shown in FIG. The face front degree D in this case is calculated by the following equation.
N:x方向の解像度を表す画素数
M:y方向の解像度を表す画素数
Fsmall(i,j):縮小画像データFsmallにおける座標(i,j)の画素の輝度値
FLsmall(i,j):縮小画像データFLsmallにおける座標(i,j)の画素の輝度値
α:顔正面度を判定するための閾値
つまり、総画素数(N×M)が共通の第1の画像データ(Fsmall)と、第2の画像データ(FLsmall)とを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して顔正面度Dを算出する。 That is, the first image data (Fsmall) having the same total number of pixels (N × M) and the second image data (FLsmall) are compared for each pixel at the same position, and the pixels in the first image data are compared. The face front degree D is calculated by summing up the difference between the brightness of the pixel and the brightness of the pixel in the second image data.
なお、顔の中心位置を表すx座標の値(facecen.x)およびy座標の値(facecen.y)は、それぞれ顔領域の画像データFにおける横(x)方向の中央値、および縦(y)方向の中央値として算出できる。 Note that an x-coordinate value (facecen.x) and a y-coordinate value (facecen.y) representing the center position of the face are respectively the median value in the horizontal (x) direction and the vertical (y ) Can be calculated as the median of the direction.
上記第(3)式により算出した顔正面度Dを用いる場合には、図4のステップS102でこの顔正面度Dを閾値αと比較することにより、顔向きが正面か否かを識別できる。なお、閾値αの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。 When the face front degree D calculated by the above expression (3) is used, it is possible to identify whether or not the face direction is the front by comparing the face front degree D with the threshold value α in step S102 of FIG. As for the magnitude of the threshold value α, it is assumed that an optimum value is adopted in consideration of a parameter representing the photographing condition of the camera 12 and individual differences.
つまり、顔の特徴が顔の中央(facecen.x)に対して左右対称である場合を想定すれば、顔の中央から左側の特徴と右側の特徴とが等しい。したがって、画像データFと左右反転画像データFLとの類似性を反映した顔正面度Dは、顔向きが正面に近い状態で非常に小さくなり、顔向きが正面からずれると大きくなる。 In other words, assuming that the facial features are symmetrical with respect to the center of the face (facecen.x), the features on the left side and the features on the right side from the center of the face are equal. Therefore, the face front degree D reflecting the similarity between the image data F and the horizontally reversed image data FL is very small when the face direction is close to the front, and increases when the face direction is deviated from the front.
また、上記第(3)式においては、画像データF、FLの代わりに、これらよりも解像度が低い縮小画像データFsmall、FLsmallの類似性を顔正面度Dとして算出している。これにより次の(1)、(2)の利点が得られる。 In the above expression (3), instead of the image data F and FL, the similarity of the reduced image data Fsmall and FLsmall whose resolution is lower than these is calculated as the face front degree D. As a result, the following advantages (1) and (2) can be obtained.
(1)処理対象のデータ量、すなわち画素数が少なくなるので、計算の処理量が減る。したがって、車載器に高性能のコンピュータを搭載しなくても短時間で処理を完了できる。
(2)顔の向きとは無関係な画像上の左右の局所的な差異の影響を排除することが容易になる。例えば、個人の身体的な特徴である黒子の有無やその位置は、顔の向きとは無関係であるが、画像上の左右の差異として検出され、顔正面度Dの値に影響を及ぼす。しかし、解像度が低い縮小画像データFsmall、FLsmallを利用する場合には、小さい黒子の影響は無視されることになり、顔正面度Dの値に影響しなくなる。
(1) Since the data amount to be processed, that is, the number of pixels is reduced, the calculation processing amount is reduced. Therefore, the processing can be completed in a short time without mounting a high-performance computer on the vehicle-mounted device.
(2) It becomes easy to eliminate the influence of the left and right local differences on the image that are unrelated to the face orientation. For example, the presence / absence and position of moles, which are physical features of an individual, are not related to the orientation of the face, but are detected as a difference between left and right on the image and affect the value of the face front degree D. However, when the reduced image data Fsmall and FLsmall having a low resolution are used, the influence of small moles is ignored and the value of the face front degree D is not affected.
<「視線正面度」の計算の詳細>
顔画像における顔の中心線と左右の黒目位置との関係の具体例を図7に示す。
視線正面度FDは、入力画像に映っている人物11の視線の方向が正面を向いている度合、つまり、左右それぞれの目に3次元眼球モデル30を適用して得られた回転角度より計算される視線方向θ(yaw,pitch)が0度である度合を表す。
<Details of “Gaze frontality” calculation>
A specific example of the relationship between the face center line and the left and right black eye positions in the face image is shown in FIG.
The gaze front degree FD is calculated from the degree to which the gaze direction of the person 11 shown in the input image is facing the front, that is, the rotation angle obtained by applying the three-dimensional eyeball model 30 to the left and right eyes. Represents the degree to which the viewing direction θ (yaw, pitch) is 0 degrees.
本実施形態では、図4の通り「顔の向きが正面である」という条件を満たしていることを前提として、次式によりコンピュータが視線正面度FDを算出する。
irisR.x:右側の黒目の中心位置のx座標
irisL.x:左側の黒目の中心位置のx座標
facecen.x:顔の中心のx座標
β:視線の向きが正面か否かを識別するための閾値
In the present embodiment, as shown in FIG. 4, the computer calculates the gaze front degree FD according to the following expression on the premise that the condition that “the face direction is the front” is satisfied.
なお、本実施形態では、両眼などの左右の位置関係は、人物11に対する左右ではなく、カメラ12側から視た左右や、撮影により得られた二次元画像上の左右を表すものとして説明する。 In the present embodiment, the positional relationship between the left and right eyes such as both eyes is described as representing the left and right viewed from the camera 12 side and the left and right on the two-dimensional image obtained by photographing, not the left and right with respect to the person 11. .
つまり、上記第(4)式で表される視線正面度FDは、x軸方向について、左右の黒目中心の間の中央位置と、顔の中心線の位置(facecen.x)との差分を表している。したがって、例えば中心線の位置(facecen.x)から右側の黒目の中心位置までの距離と、左側の黒目の中心位置までの距離とが等距離であれば、視線の方向が正面を向いていると判定できる。また、x軸方向の位置関係に基づき視線の方向が正面を向いていると判断できる状況であれば、同時にy軸方向についても視線の方向が正面を向いていると考えることができる。 That is, the line-of-sight frontality FD represented by the above expression (4) represents the difference between the center position between the left and right black eye centers and the position of the face center line (facecen.x) in the x-axis direction. ing. Therefore, for example, if the distance from the center line position (facecen.x) to the center position of the right black eye and the distance to the center position of the left black eye are equal, the direction of the line of sight faces the front. Can be determined. Further, if it can be determined that the direction of the line of sight is facing the front based on the positional relationship in the x-axis direction, it can be considered that the direction of the line of sight is also facing the front in the y-axis direction at the same time.
また、視線正面度FDは、視線の方向が正面を向いている時に0になり、視線の方向が正面からずれるに従って大きくなる。したがって、上記第(4)式により算出した視線正面度FDを用いる場合には、図4のステップS104でこの視線正面度FDを閾値βと比較することにより、視線の向きが正面か否かを識別できる。なお、閾値βの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。 The line-of-sight front degree FD becomes 0 when the direction of the line of sight faces the front, and increases as the line of sight deviates from the front. Therefore, when using the gaze front degree FD calculated by the above expression (4), the gaze front degree FD is compared with the threshold β in step S104 of FIG. 4 to determine whether or not the gaze direction is front. Can be identified. As for the magnitude of the threshold value β, it is assumed that an optimum value is adopted in consideration of parameters representing photographing conditions of the camera 12 and individual differences.
<眼球中心位置の算出>
図4に示したステップS105で最新の眼球中心位置を算出するための処理について以下に説明する。
<Calculation of eyeball center position>
The process for calculating the latest eyeball center position in step S105 shown in FIG. 4 will be described below.
<x軸方向の顔の中心と画像の中心とが等しい場合>
3次元眼球モデルの眼球中心、黒目中心、視角の水平面(又はx,z軸と平行な面)内における位置関係の例を図8に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を図9に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の水平面内における位置関係の例を図10に示す。
<When the center of the face in the x-axis direction is equal to the center of the image>
FIG. 8 shows an example of the positional relationship in the horizontal plane (or plane parallel to the x and z axes) of the eyeball center, black eye center, and viewing angle of the three-dimensional eyeball model. FIG. 9 shows an example of the positional relationship between the center line and the center of the left and right eyes when the center of the face in the x-axis direction is equal to the center of the image. FIG. 10 shows an example of the positional relationship in the horizontal plane between the viewing angle, the distance, and the left and right black eye centers when the center of the face in the x-axis direction is equal to the center of the image.
左右の目のそれぞれについてほぼ同じ方法で計算できるので、以下の説明では右側の目のみを計算対象として処理する場合を想定している。
例えば、図8に示した状態においては、次の第(5)式の関係が成立する。
Since each of the left and right eyes can be calculated by substantially the same method, the following description assumes that only the right eye is processed as a calculation target.
For example, in the state shown in FIG. 8, the relationship of the following expression (5) is established.
Xeyer=irisR.x−Ro・sinθRyaw ・・・(5)
Xeyer:右側の眼球中心のx座標
irisR.x:右側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θRyaw:右側の目の視線角度(yaw方向)
Xeyer = irisR. x-Ro · sin θ Ryaw (5)
Xeyer: x coordinate of right eyeball center irisR. x: x coordinate of the right eye center Ro: radius of the eyeball (eg constant)
θRyaw: Eye angle of the right eye (yaw direction)
つまり、黒目中心の位置「irisR.x」および視線角度「θRyaw」が既知であれば、上記第(5)式から眼球中心のx座標「Xeyer」を算出できる。 That is, if the position “irisR.x” of the black eye center and the line-of-sight angle “θRyaw” are known, the x-coordinate “Xeyer” of the eyeball center can be calculated from the above equation (5).
また、図9に示すように画像中の顔中心位置のx座標「facecen.x」と、カメラで撮影した画像の中心のx座標「Icenter.x」とが等しく、且つ図10に示すような状況であることを想定すると、視線角度「θRyaw」は次の第(6)式で算出できる。
tanθRyaw=(irisR.x−Icenter.x)/Df ・・・(6)
Df:カメラと顔の間の距離
Also, as shown in FIG. 9, the x-coordinate “facecen.x” of the face center position in the image is equal to the x-coordinate “Icenter.x” of the center of the image taken by the camera, as shown in FIG. Assuming the situation, the line-of-sight angle “θRyaw” can be calculated by the following equation (6).
tan θRyaw = (irisR.x-Icenter.x) / Df (6)
Df: Distance between camera and face
距離Dfについては、例えば適当な距離センサを利用して計測すれば、既知情報として扱うことができる。また、例えば「特開2015−206764号公報」に開示されている技術を利用すれば、距離センサは不要になる。また、前述のように顔画像から黒目を検出できるので、黒目中心の位置「irisR.x」も既知情報として利用できる。更に、画像の中心のx座標「Icenter.x」としては例えば事前に定めた定数を利用することができる。 The distance Df can be treated as known information if it is measured using an appropriate distance sensor, for example. Further, for example, if a technique disclosed in “Japanese Patent Laid-Open No. 2015-206764” is used, a distance sensor becomes unnecessary. Further, since the black eye can be detected from the face image as described above, the position “irisR.x” of the center of the black eye can also be used as known information. Further, for example, a predetermined constant can be used as the x-coordinate “Icenter.x” of the center of the image.
したがって、上記第(6)式から視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と、黒目中心の位置「irisR.x」と、眼球の半径Roを前記第(5)式に代入することにより、右側の眼球中心のx座標Xeyerを算出できる。 Therefore, the line-of-sight angle “θRyaw” can be calculated from the equation (6). Further, the x-coordinate Xeyer of the right eyeball center can be calculated by substituting the line-of-sight angle “θRyaw”, the black eye center position “irisR.x”, and the eyeball radius Ro into the expression (5).
また、右側の眼球中心のy座標Yeyerについても、以下の第(7)式及び第(8)式を利用することにより同様に算出できる。
Yeyer=irisR.y−Ro・sinθRpitch ・・・(7)
Yeyer:右側の眼球中心のy座標
irisR.y:右側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θRpitch:右側の目の視線角度(pitch方向)
Also, the y-coordinate Yeyer at the right eyeball center can be similarly calculated by using the following expressions (7) and (8).
Yeyer = irisR. y-Ro · sinθRpitch (7)
Yyer: y-coordinate of the right eyeball center irisR. y: y coordinate of the right eye center Ro: radius of eyeball (for example, constant)
θRpitch: right eye's line-of-sight angle (pitch direction)
tanθRpitch=(irisR.y−Icenter.y)/Df・・(8)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
tan θRpitch = (irisR.y-Icenter.y) / Df (8)
Icenter. y: y coordinate of the center of the image Df: distance between the camera and the face
<x軸方向の顔の中心と画像の中心とがずれている場合>
顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を図11に示す。また、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の水平面(x,z軸と平行な面)内における位置関係の例を図12に示す。
<When the center of the face in the x-axis direction is shifted from the center of the image>
An example of the positional relationship between the center line and the center of the left and right eyes when the center of the face and the center of the image are not the same is shown in FIG. FIG. 12 shows an example of the positional relationship in the horizontal plane (plane parallel to the x and z axes) of the center of the left and right eyes when the face center and the image center are not the same.
例えば、図11に示すように顔の中心線のx座標「facecen.x」が、画像の中心のx座標「Icenter.x」からずれている場合であっても、図12に示すように顔はカメラ12を中心とし、半径が距離Dfで表される円周上に存在する。また、顔の中心位置「facecen.x」と、画像の中心「Icenter.x」とは顔回転角度「facerad」だけずれている。しかし、カメラ12に対して顔が正面を向き、且つ両眼の各々の視線がカメラ12に向いている状態であれば、右側の目の視線角度「θRyaw」は、図12のように画像の中心「Icenter.x」に対する目の位置の回転角度として表すことができる。 For example, as shown in FIG. 12, even if the x-coordinate “facecen.x” of the center line of the face is deviated from the x-coordinate “Icenter.x” of the center of the image as shown in FIG. Is centered on the camera 12 and exists on the circumference whose radius is represented by the distance Df. Further, the face center position “facecen.x” and the image center “Icenter.x” are shifted by a face rotation angle “facerad”. However, if the face is facing the camera 12 and the eyes of both eyes are facing the camera 12, the line-of-sight angle “θRyaw” of the right eye is as shown in FIG. It can be expressed as the rotation angle of the eye position with respect to the center “Icenter.x”.
したがって、x軸方向の顔の中心と画像の中心とがずれている場合であっても、前記第(6)式を用いて視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と前記第(5)式とに基づき、眼球中心のx座標「Xeyer」を算出できる。 Therefore, even when the center of the face in the x-axis direction is shifted from the center of the image, the line-of-sight angle “θRyaw” can be calculated using the above equation (6). Further, the x-coordinate “Xeyer” of the eyeball center can be calculated based on the line-of-sight angle “θRyaw” and the expression (5).
一方、左側の目について眼球中心の座標を算出する場合であっても、以下に示す各計算式を用いることにより上記と同様に計算できる。
Xeyel=irisL.x−Ro・sinθLyaw ・・・(9)
Xeyel:左側の眼球中心のx座標
irisL.x:左側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θLyaw:左側の目の視線角度(yaw方向)
tanθLyaw=(irisL.x−Icenter.x)/Df ・・・(10)
Df:カメラと顔の間の距離
On the other hand, even when the coordinates of the center of the eyeball are calculated for the left eye, it can be calculated in the same manner as described above by using the following calculation formulas.
Xeyel = irisL. x-Ro · sin θLyaw (9)
Xeyel: x-coordinate of left eyeball center irisL. x: x coordinate of the center of the black eye on the left side Ro: radius of eyeball (for example, constant)
θLyaw: Eye angle of the left eye (yaw direction)
tan θLyaw = (irisL.x-Icenter.x) / Df (10)
Df: Distance between camera and face
Yeyel=irisL.y−Ro・sinθLpitch ・・・(11)
Yeyel:左側の眼球中心のy座標
irisL.y:左側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θLpitch:左側の目の視線角度(pitch方向)
tanθLpitch=(irisL.y−Icenter.y)/Df・・(12)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
Yeyel = irisL. y-Ro · sinθLpitch (11)
Yeel: y-coordinate of left eyeball center irisL. y: y coordinate of the left eye center Ro: radius of eyeball (for example, constant)
θLpitch: Eye angle of the left eye (pitch direction)
tan θLpitch = (irisL.y-Icenter.y) / Df (12)
Icenter. y: y coordinate of the center of the image Df: distance between the camera and the face
<眼球中心位置の補正>
3次元眼球モデル30における眼球中心31の位置座標に誤差がある場合であっても、上述の計算により得られる最新の眼球中心位置を用いて補正することで誤差が小さくなるように校正することができる。補正値は例えば以下に示す式により算出できる。
<Correction of eyeball center position>
Even when there is an error in the position coordinates of the eyeball center 31 in the three-dimensional eyeball model 30, the correction can be performed so that the error can be reduced by correcting using the latest eyeball center position obtained by the above calculation. it can. The correction value can be calculated by, for example, the following formula.
dXeye=Xeye−Xeyemodel ・・・(13)
dYeye=Yeye−Yeyemodel ・・・(14)
dXeye:x座標の補正値(右又は左)
dYeye:y座標の補正値(右又は左)
Xeye:算出した最新の眼球中心位置のx座標(右又は左)
Yeye:算出した最新の眼球中心位置のy座標(右又は左)
Xeyemodel:3次元眼球モデルにおける補正前の眼球中心x座標(右又は左)
Yeyemodel:3次元眼球モデルにおける補正前の眼球中心y座標(右又は左)
dXeye = Xeye-Xeyemodel (13)
dYye = Yeye-Yeemodel (14)
dXeye: x coordinate correction value (right or left)
dYeye: y coordinate correction value (right or left)
Xeye: The latest x-coordinate of the calculated center position of the eyeball (right or left)
Yeye: the latest y-coordinate of the calculated center position of the eyeball (right or left)
Xeyemodel: eye center x coordinate (right or left) before correction in the three-dimensional eye model
Eyemodel: y-coordinate of the eyeball center before correction in the three-dimensional eyeball model (right or left)
<眼球中心位置補正1>
眼球中心位置の補正値dXeyeと3次元眼球モデルおよび入力画像との関係の例を図13に示す。
<Eyeball center position correction 1>
An example of the relationship between the correction value dXeye of the eyeball center position, the three-dimensional eyeball model, and the input image is shown in FIG.
図4に示したステップS105においては、顔正面度Dが閾値α以下であり、且つ視線正面度FDが閾値β以下であるので、最新の眼球中心位置の座標(Xeye,Yeye)を左右の目のそれぞれについて算出する。 In step S105 shown in FIG. 4, since the face front degree D is less than or equal to the threshold value α and the line-of-sight front degree FD is less than or equal to the threshold value β, the coordinates of the latest eyeball center position (Xeye, Yeye) are determined. It calculates about each of.
そして、上記第(13)式、第(14)式により補正値dXeye、dYeyeを左右の目のそれぞれについて算出する。更に、誤差が小さくなるように、補正値dXeye、dYeyeを用いて図13に示すように、3次元眼球モデル30における眼球中心31の位置座標を左右の目のそれぞれについて更新する。 Then, the correction values dXeye and dYeye are calculated for each of the left and right eyes by the above equations (13) and (14). Further, the position coordinates of the eyeball center 31 in the three-dimensional eyeball model 30 are updated for each of the left and right eyes as shown in FIG. 13 using the correction values dXeye and dYeye so as to reduce the error.
<眼球中心位置補正2>
眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を図14に示す。
図4に示した処理を車載器に適用する場合には、人物11が正面を向き、且つ視線も正面に向いた状態が検出される毎に、ステップS105が繰り返し実行される。したがって、車載器に電源が投入されてから動作が終了するまでの間に、新たな補正値を用いて眼球中心位置の更新を繰り返すことができる。
<Eyeball center position correction 2>
A specific example of processing for reflecting the correction value of the center position of the eyeball in the operation of the vehicle-mounted device is shown in FIG.
When the process shown in FIG. 4 is applied to the vehicle-mounted device, step S105 is repeatedly executed each time a state where the person 11 faces the front and the line of sight faces the front is detected. Therefore, the update of the eyeball center position can be repeated using the new correction value after the power is turned on to the vehicle-mounted device and before the operation is completed.
そこで、より適切な更新処理を行うために、例えば図14に示した「眼球中心位置補正2」の処理をコンピュータが実行する。なお、図14においてはx軸方向の座標のみを処理しているが、y軸方向の座標についても同様に処理できる。図14に示した処理により、眼球中心位置の座標を一定の値に収束させることができる。 Therefore, in order to perform a more appropriate update process, for example, the computer executes the process of “eyeball center position correction 2” shown in FIG. In FIG. 14, only the coordinate in the x-axis direction is processed, but the coordinate in the y-axis direction can be similarly processed. With the processing shown in FIG. 14, the coordinates of the eyeball center position can be converged to a certain value.
図14のステップS41では、上述の第(5)式、第(6)式、第(13)式に基づき、眼球中心位置の補正値dXeyeをコンピュータが算出する。また、ノイズの影響により生じる可能性のある明らかな外れ値を排除するために、次のステップS42で、補正値dXeyeを所定の閾値と比較する。 In step S41 of FIG. 14, the computer calculates a correction value dXeye for the center position of the eyeball based on the above-described equations (5), (6), and (13). In addition, in order to eliminate an apparent outlier that may occur due to the influence of noise, the correction value dXeye is compared with a predetermined threshold value in the next step S42.
補正値dXeyeが明らかな外れ値でない場合には、ステップS43で更新回数値Nに1を加算する(Nの初期値は0)。また、次のステップS44では今回の補正値dXeyeのデータを更新回数値Nに対応付けたメモリ位置に保存する。 If the correction value dXeye is not an obvious outlier, 1 is added to the update count value N in step S43 (the initial value of N is 0). In the next step S44, the data of the current correction value dXeye is stored in a memory location associated with the update count value N.
ステップS45では、コンピュータはメモリに保存されているN個の補正値dXeyeのデータを読み出して、これらを平均化した結果dXeye_Tを出力する。なお、平均化の具体的な方法については、単純な平均値、重み付けを行った平均値、移動平均値などの計算手法を適用可能である。 In step S45, the computer reads data of N correction values dXeye stored in the memory, and outputs a result dXeye_T obtained by averaging the data. As a specific method of averaging, calculation methods such as a simple average value, a weighted average value, and a moving average value can be applied.
図14に示したような処理を適用することにより、ノイズの影響による明らかな外れ値を更新対象から除外することができる。また、平均化により眼球中心位置の急激な変化を避けることができる。すなわち、ノイズに対してロバストになる。したがって、運転者の視線を監視する車載器のように、同一のユーザを対象とする動作を長時間にわたって行う環境においては、有効な眼球中心が随時更新されることによって高い視線検出精度が期待できる。 By applying the processing as shown in FIG. 14, it is possible to exclude an apparent outlier due to the influence of noise from the update target. Moreover, the rapid change of the eyeball center position can be avoided by averaging. That is, it is robust against noise. Therefore, in an environment where an operation targeting the same user is performed for a long time, such as an in-vehicle device that monitors the driver's line of sight, high eye-gaze detection accuracy can be expected by updating the effective eyeball center as needed. .
<車載器の利点>
上述の車載器においては、図5に示した処理に相当する顔正面度算出方法を適用することにより、人物11の顔が正面を向いている度合を単純な計算処理で正確に検出できる。更に、入力画像に比べて解像度を下げた縮小画像データFsmall、FLsmallを利用するので、計算の処理量を削減できる。また、黒子のような個人の身体的な特徴の影響による計算誤差を低減できる。
<Advantages of OBE>
In the above-described vehicle-mounted device, by applying the face front degree calculation method corresponding to the process shown in FIG. 5, the degree to which the face of the person 11 faces the front can be accurately detected by a simple calculation process. Further, since the reduced image data Fsmall and FLsmall whose resolution is lower than that of the input image are used, the calculation processing amount can be reduced. Also, calculation errors due to the influence of individual physical features such as Kuroko can be reduced.
また、図4に示した処理を実行し、人物11の顔が正面を向いていることを検知した状態でのみ眼球中心31の位置を補正することにより、校正における誤差を減らすことができる。更に、図4に示した処理のように、人物11の顔が正面を向き、且つ視線が正面を向いていることを検知した状態でのみ眼球中心31の位置を補正することで、誤差の発生を低減できる。また、この校正を行うためにユーザが特別な操作を実施する必要がなく、特別な校正機材を用意する必要もない。また、図14に示した処理を繰り返し実行することにより、ノイズの影響を排除したり、急激な変化を防止できるので、車載器の誤動作を避けることが可能になる。 Further, by performing the processing shown in FIG. 4 and correcting the position of the eyeball center 31 only in a state where it is detected that the face of the person 11 is facing the front, errors in calibration can be reduced. Further, as in the process shown in FIG. 4, an error is generated by correcting the position of the eyeball center 31 only when it is detected that the face of the person 11 faces the front and the line of sight faces the front. Can be reduced. Further, it is not necessary for the user to perform a special operation for performing this calibration, and it is not necessary to prepare special calibration equipment. Further, by repeatedly executing the processing shown in FIG. 14, it is possible to eliminate the influence of noise and prevent a sudden change, so that malfunction of the vehicle-mounted device can be avoided.
したがって、上述の技術は、車載カメラを用いた運転者の視線検出、わき見検出などに利用できる。また、例えばデジタルサイネージ(電子看板)の視認確認にも利用できる。 Therefore, the above-described technique can be used for driver's line-of-sight detection and side-view detection using an in-vehicle camera. Also, for example, it can be used for visual confirmation of digital signage (electronic signage).
ここで、上述した本発明に係る車載器及び顔正面度算出方法の実施形態の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出するデータ処理部を備える車載器であって、
前記データ処理部(処理部13)は、前記顔画像が低解像度化された第1の画像データ(Fsmall)と、前記顔画像を左右反転された画像が低解像度化された第2の画像データ(FLsmall)を対比することによって前記顔正面度(D)を算出する(S31〜S35)、
ことを特徴とする車載器。
[2] 前記データ処理部は、
前記顔正面度が条件を満たす場合、前記顔画像に含まれる眼球がモデル化された3次元眼球モデル(30)における中心が位置する眼球中心座標(眼球中心31)を算出する(S105)、
ことを特徴とする上記[1]に記載の車載器。
[3] 前記データ処理部は、
前記顔正面度が条件を満たすか否かを判定し(S102)、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し(S104)、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する(S105)
ことを特徴とする上記[2]に記載の車載器。
[4] 前記データ処理部は、
総画素数が共通の前記第1の画像データと、前記第2の画像データとを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して前記顔正面度を算出する(第(3)式参照)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
[5] 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出する顔正面度算出方法であって、
前記顔画像が低解像度化された第1の画像データ(Fsmall)と、前記顔画像を左右反転された画像が低解像度化された第2の画像データ(FLsmall)を対比することによって前記顔正面度(D)を算出する、
ことを特徴とする顔正面度算出方法。
Here, the features of the above-described embodiments of the vehicle-mounted device and the face front degree calculation method according to the present invention are summarized and listed in the following [1] to [5], respectively.
[1] An on-vehicle device including a data processing unit that calculates a face front degree representing a degree of the face facing the front from a face image photographed so as to include the face,
The data processing unit (processing unit 13) includes first image data (Fsmall) obtained by reducing the resolution of the face image, and second image data obtained by reducing the resolution of an image obtained by horizontally inverting the face image. The face front degree (D) is calculated by comparing (FLsmall) (S31 to S35),
In-vehicle device characterized by that.
[2] The data processing unit
When the face front degree satisfies the condition, the eyeball center coordinates (eyeball center 31) at which the center of the three-dimensional eyeball model (30) in which the eyeball included in the face image is modeled are calculated (S105),
The on-vehicle device according to [1] above, wherein
[3] The data processing unit
It is determined whether the face front degree satisfies a condition (S102),
It is determined whether or not the line of sight based on the position of the black eye included in the face image is facing the front (S104),
When it is determined that the face and line of sight are facing the front, the eyeball center coordinates in the three-dimensional eyeball model are calculated (S105).
The on-vehicle device according to [2] above,
[4] The data processing unit
The first image data having the same total number of pixels and the second image data are compared for each pixel at the same position, and the luminance of the pixel in the first image data and the second image data in the second image data are compared. Summing up the difference with the luminance of the pixel to calculate the face front degree (see equation (3)),
The vehicle-mounted device according to any one of [1] to [3], wherein
[5] A face front degree calculation method for calculating a face front degree representing a degree that the face is facing the front from a face image photographed so as to include the face,
By comparing the first image data (Fsmall) in which the face image is reduced in resolution and the second image data (FLsmall) in which the image obtained by horizontally inverting the face image is reduced in resolution, the front of the face Calculating the degree (D),
A method for calculating the degree of face front.
10 車両の車室内
11 人物
11a 目の領域
11b 視線
12 カメラ
13 処理部
30 3次元眼球モデル
31 眼球中心
32 黒目(虹彩)
32a 黒目中心(瞳孔)
35 目の領域の二次元画像
F 画像データ
FL 左右反転画像データ
Fsmall,FLsmall 縮小画像データ
α,β 閾値
DESCRIPTION OF SYMBOLS 10 Vehicle interior 11 Person 11a Eye area 11b Line of sight 12 Camera 13 Processing part 30 3D eyeball model 31 Eyeball center 32 Black eye (iris)
32a Center of black eyes (pupil)
35 Two-dimensional image of eye area F Image data FL Left-right inverted image data Fsmall, FLsmall Reduced image data α, β Threshold
Claims (5)
前記データ処理部は、前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出する、
ことを特徴とする車載器。 An in-vehicle device including a data processing unit that calculates a face front degree representing a degree that the face is facing the front from a face image photographed so as to include a face,
The data processing unit compares the first image data obtained by reducing the resolution of the face image with the second image data obtained by reducing the resolution of an image obtained by horizontally inverting the face image. Calculate the degree,
In-vehicle device characterized by that.
前記顔正面度が条件を満たす場合、前記顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出する、
ことを特徴とする請求項1に記載の車載器。 The data processing unit
When the face front degree satisfies the condition, an eyeball center coordinate where the center of the three-dimensional eyeball model in which the eyeball included in the face image is modeled is calculated;
The on-vehicle device according to claim 1.
前記顔正面度が条件を満たすか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
ことを特徴とする請求項2に記載の車載器。 The data processing unit
Determining whether the face front degree satisfies a condition;
Determining whether the line of sight based on the position of the black eye included in the face image is facing the front,
The in-vehicle device according to claim 2, wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated when it is determined that the face and the line of sight are facing the front.
総画素数が共通の前記第1の画像データと、前記第2の画像データとを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して前記顔正面度を算出する、
ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の車載器。 The data processing unit
The first image data having the same total number of pixels and the second image data are compared for each pixel at the same position, and the luminance of the pixel in the first image data and the second image data in the second image data are compared. The difference between the brightness of the pixels is totaled to calculate the face front degree.
The on-vehicle device according to any one of claims 1 to 3, wherein
前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出する、
ことを特徴とする顔正面度算出方法。 A face front degree calculation method for calculating a face front degree representing a degree to which the face faces the front from a face image photographed so as to include a face,
The face front degree is calculated by comparing the first image data in which the face image is reduced in resolution and the second image data in which an image obtained by horizontally inverting the face image is reduced in resolution.
A method for calculating the degree of face front.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016245795A JP2018101212A (en) | 2016-12-19 | 2016-12-19 | On-vehicle device and method for calculating degree of face directed to front side |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016245795A JP2018101212A (en) | 2016-12-19 | 2016-12-19 | On-vehicle device and method for calculating degree of face directed to front side |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018101212A true JP2018101212A (en) | 2018-06-28 |
Family
ID=62714380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016245795A Pending JP2018101212A (en) | 2016-12-19 | 2016-12-19 | On-vehicle device and method for calculating degree of face directed to front side |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018101212A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796029A (en) * | 2019-10-11 | 2020-02-14 | 北京达佳互联信息技术有限公司 | Face correction and model training method and device, electronic equipment and storage medium |
WO2020161813A1 (en) * | 2019-02-06 | 2020-08-13 | 三菱電機株式会社 | Information processing device, program, and information processing method |
JP2021502618A (en) * | 2018-09-28 | 2021-01-28 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Gaze point determination method and devices, electronic devices and computer storage media |
WO2023188171A1 (en) * | 2022-03-30 | 2023-10-05 | 日本電気株式会社 | Learning device, symmetry evaluation device, learning method, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002274265A (en) * | 2001-03-22 | 2002-09-25 | Honda Motor Co Ltd | Mirror adjusting device |
JP2004094491A (en) * | 2002-08-30 | 2004-03-25 | Nec Corp | Face orientation estimation device and method and its program |
JP2013109720A (en) * | 2011-11-24 | 2013-06-06 | Fuji Heavy Ind Ltd | Vehicle outside environment recognition device and method |
JP2015069379A (en) * | 2013-09-27 | 2015-04-13 | 富士重工業株式会社 | Vehicle exterior environment recognition device |
-
2016
- 2016-12-19 JP JP2016245795A patent/JP2018101212A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002274265A (en) * | 2001-03-22 | 2002-09-25 | Honda Motor Co Ltd | Mirror adjusting device |
JP2004094491A (en) * | 2002-08-30 | 2004-03-25 | Nec Corp | Face orientation estimation device and method and its program |
JP2013109720A (en) * | 2011-11-24 | 2013-06-06 | Fuji Heavy Ind Ltd | Vehicle outside environment recognition device and method |
JP2015069379A (en) * | 2013-09-27 | 2015-04-13 | 富士重工業株式会社 | Vehicle exterior environment recognition device |
Non-Patent Citations (1)
Title |
---|
"リアルタイム顔・視線計測システムの開発と知的インタフェースへの応用", 情報処理学会論文誌, JPN6021004229, 15 October 2006 (2006-10-15), ISSN: 0004583274 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502618A (en) * | 2018-09-28 | 2021-01-28 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Gaze point determination method and devices, electronic devices and computer storage media |
US11295474B2 (en) | 2018-09-28 | 2022-04-05 | Beijing Sensetime Technology Development Co., Ltd. | Gaze point determination method and apparatus, electronic device, and computer storage medium |
WO2020161813A1 (en) * | 2019-02-06 | 2020-08-13 | 三菱電機株式会社 | Information processing device, program, and information processing method |
JPWO2020161813A1 (en) * | 2019-02-06 | 2021-09-09 | 三菱電機株式会社 | Information processing equipment, programs and information processing methods |
CN110796029A (en) * | 2019-10-11 | 2020-02-14 | 北京达佳互联信息技术有限公司 | Face correction and model training method and device, electronic equipment and storage medium |
CN110796029B (en) * | 2019-10-11 | 2022-11-11 | 北京达佳互联信息技术有限公司 | Face correction and model training method and device, electronic equipment and storage medium |
WO2023188171A1 (en) * | 2022-03-30 | 2023-10-05 | 日本電気株式会社 | Learning device, symmetry evaluation device, learning method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6695503B2 (en) | Method and system for monitoring the condition of a vehicle driver | |
JP6586523B2 (en) | Eye tracking using structured light | |
US10878237B2 (en) | Systems and methods for performing eye gaze tracking | |
JP5230748B2 (en) | Gaze direction determination device and gaze direction determination method | |
US9244529B2 (en) | Point-of-gaze estimation robust to head rotations and/or device rotations | |
CN110913751B (en) | Wearable eye tracking system with slip detection and correction functions | |
EP4383193A1 (en) | Line-of-sight direction tracking method and apparatus | |
US11093032B2 (en) | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program | |
WO2015190204A1 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
JP6596678B2 (en) | Gaze measurement apparatus and gaze measurement method | |
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
US10866635B2 (en) | Systems and methods for capturing training data for a gaze estimation model | |
CN111854620B (en) | Monocular camera-based actual pupil distance measuring method, device and equipment | |
JP7168953B2 (en) | Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program | |
JP6906943B2 (en) | On-board unit | |
JP2018101212A (en) | On-vehicle device and method for calculating degree of face directed to front side | |
JP2018099174A (en) | Pupil detector and pupil detection method | |
WO2019135281A1 (en) | Line-of-sight direction calibration device, line-of-sight direction calibration method, and line-of-sight direction calibration program | |
JP2009064395A (en) | Pointing device, program for making computer to correct error between operator's gaze position and cursor position, and computer-readable recording medium with the program recorded | |
JP6669182B2 (en) | Occupant monitoring device | |
JP6452236B2 (en) | Eyeball identification device and eyeball identification method | |
JP2016099759A (en) | Face detection method, face detection device, and face detection program | |
US20190259279A1 (en) | Luminance control device, luminance control system, and luminance control method | |
JP3711053B2 (en) | Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program | |
JP2015232771A (en) | Face detection method, face detection system and face detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210331 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210831 |