[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015211741A - Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method - Google Patents

Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method Download PDF

Info

Publication number
JP2015211741A
JP2015211741A JP2014095122A JP2014095122A JP2015211741A JP 2015211741 A JP2015211741 A JP 2015211741A JP 2014095122 A JP2014095122 A JP 2014095122A JP 2014095122 A JP2014095122 A JP 2014095122A JP 2015211741 A JP2015211741 A JP 2015211741A
Authority
JP
Japan
Prior art keywords
time
line
image
sight
gazing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014095122A
Other languages
Japanese (ja)
Inventor
麻子 北浦
Asako Kitaura
麻子 北浦
佐野 聡
Satoshi Sano
聡 佐野
泰彦 中野
Yasuhiko Nakano
泰彦 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014095122A priority Critical patent/JP2015211741A/en
Publication of JP2015211741A publication Critical patent/JP2015211741A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a line-of-sight state determination device for determining a state of a line of sight of a user with high accuracy.SOLUTION: A gazing point image area estimation part 24 acquires information on a gazing point (gazing point and gazing point image area) respectively gazed by a driver at a time A and a time B. Then, a search window calculation part 26 specifies a prescribed range (search window) including a gazing point of the time A and a gazing point of the time B, and a tracking determination part 28 determines whether the line of sight of the driver tracks a visual recognition object on the basis of whether a common object is picked up within the range in the search window of an image at the time A and within the range in the search window of an image at the time B.

Description

本発明は、視線状態判定装置、視線状態判定プログラム及び視線状態判定方法
に関する。
The present invention relates to a gaze state determination device, a gaze state determination program, and a gaze state determination method.

従来、視線状態を解析する技術として、視線検出装置にて測定した視線方向と、該視線方向を撮影している車載映像を用いて、ユーザが何を見ているかを特定する方法が知られている(例えば、特許文献1,2等参照)。   Conventionally, as a technique for analyzing a line-of-sight state, there is known a method for identifying what a user is looking at using a line-of-sight direction measured by a line-of-sight detection device and an in-vehicle image capturing the line-of-sight direction. (For example, see Patent Documents 1 and 2).

例えば、特許文献1では、自車走行時の視認対象及びその追従視を判定するために、視線方向を含む領域を撮影している車載カメラ映像を、視線検出装置で測定した視線方向を中心とする視野画像へと変換する。そして、視野画像内の視線方向近傍の文字を認識し、現在の位置から絞り込んだ屋外物体情報から該文字を保持する屋外物体を特定する。   For example, in Patent Document 1, an in-vehicle camera image capturing a region including the line-of-sight direction is determined around the line-of-sight direction measured by the line-of-sight detection device in order to determine the object to be visually recognized during traveling of the host vehicle and its following vision. Convert to a visual field image. Then, a character near the line-of-sight direction in the visual field image is recognized, and an outdoor object holding the character is specified from outdoor object information narrowed down from the current position.

また、特許文献2には、車載カメラの車載映像と視線検出装置にて測定した視線方向とを用いて視認対象及び追従視を判定するために、車載映像内の視線方向に該当する領域のオプティカルフローと、視線方向の変化を比較する。   Further, in Patent Document 2, in order to determine a visual target and following vision using a vehicle-mounted image of a vehicle-mounted camera and a line-of-sight direction measured by a line-of-sight detection device, an optical of a region corresponding to the line-of-sight direction in the vehicle-mounted image is disclosed. Compare changes in flow and gaze direction.

特開2007−172378号公報JP 2007-172378 A 特開2010−39933号公報JP 2010-39933 A

しかしながら、上記特許文献1,2等の技術では、必ずしも同一の物体を追従視しているか否かを判断することができない可能性がある。例えば、特許文献1では、視認対象に文字等の特徴がない場合には、ユーザが視認する対象を判定するのが困難である。また、特許文献2では、映像を撮影するカメラ位置とユーザの視線位置が異なり、映像上の物体の動きと物体に追従する視線の動きが合致しなくなるような場合に対応することができない。   However, the techniques disclosed in Patent Documents 1 and 2 and the like may not necessarily determine whether or not the same object is being followed. For example, in Patent Document 1, when the visual recognition target does not have a feature such as a character, it is difficult to determine the target to be visually recognized by the user. Further, in Patent Document 2, it is impossible to cope with a case where a camera position for capturing a video is different from a user's line-of-sight position and the movement of an object on the video and the movement of the line of sight following the object do not match.

1つの側面では、本発明は、ユーザの視線の状態を精度よく判定することができる視線状態判定装置、視線状態判定プログラム及び視線状態判定方法を提供することを目的とする。   In one aspect, an object of the present invention is to provide a gaze state determination device, a gaze state determination program, and a gaze state determination method that can accurately determine a user's gaze state.

一つの態様では、視線状態判定装置は、第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備えている。   In one aspect, the line-of-sight state determination device includes: an acquisition unit that acquires information on a gaze point that a user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time; A specifying unit that specifies a predetermined range including a gaze point at one time and a gaze point at the second time, a range corresponding to the predetermined range of the image at the first time, and an image at the second time And a determination unit that determines the state of the user's line of sight based on whether or not an object common to the range corresponding to the predetermined range is imaged.

一つの態様では、視線状態判定プログラムは、第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、処理をコンピュータに実行させる視線状態判定プログラムである。   In one aspect, the line-of-sight state determination program acquires information on a gaze point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time, and the first time A predetermined range including the gazing point of the second time and the gazing point of the second time, and a range corresponding to the predetermined range of the image of the first time and a predetermined range of the image of the second time This is a line-of-sight state determination program for causing a computer to execute a process of determining the state of the line of sight of a user based on whether or not a common target exists in a range to be performed.

一つの態様では、視線状態判定方法は、第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、処理をコンピュータが実行する視線状態判定方法である。   In one aspect, the gaze state determination method acquires information on a gazing point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time, and the first time A predetermined range including the gazing point of the second time and the gazing point of the second time, and a range corresponding to the predetermined range of the image of the first time and a predetermined range of the image of the second time This is a line-of-sight state determination method in which a computer executes a process of determining a state of a user's line of sight based on whether or not a common target exists in a range to be performed.

ユーザの視線の状態を精度よく判定することができる。   The state of the user's line of sight can be accurately determined.

一実施形態に係る車載システムの構成を概略的に示す図である。It is a figure showing roughly composition of an in-vehicle system concerning one embodiment. 情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of information processing apparatus. 情報処理装置の機能ブロック図である。It is a functional block diagram of an information processor. 図4(a)、図4(b)は、視線方向に対するカメラの視差の算出方法を説明するための図である。FIG. 4A and FIG. 4B are diagrams for explaining a method of calculating the parallax of the camera with respect to the viewing direction. 図5(a)、図5(b)は、注視点画像領域の算出方法について示す模式図である。FIGS. 5A and 5B are schematic diagrams illustrating a method of calculating a gazing point image region. 注視点画像領域の調整例を示す図である。It is a figure which shows the example of adjustment of a gaze point image area | region. 探索窓の算出例を示す図である。It is a figure which shows the example of calculation of a search window. 図8(a)、図8(b)は、探索窓の調整例を示す図である。FIG. 8A and FIG. 8B are diagrams showing an example of adjusting the search window. 図9(a)、図9(b)は、フロー算出を説明するための図(その1)である。FIGS. 9A and 9B are diagrams (part 1) for explaining the flow calculation. 図10(a)、図10(b)は、フロー算出を説明するための図(その2)である。FIGS. 10A and 10B are diagrams (part 2) for explaining the flow calculation. 図11(a)、図11(b)は、フロー算出を説明するための図(その3)である。FIG. 11A and FIG. 11B are diagrams (part 3) for explaining the flow calculation. 図12(a)、図12(b)は、フロー算出を説明するための図(その4)である。FIG. 12A and FIG. 12B are diagrams (part 4) for explaining the flow calculation. 図13(a)、図13(b)は、追従判定部による追従判定処理の一例を示す図である。FIGS. 13A and 13B are diagrams illustrating an example of the tracking determination process performed by the tracking determination unit. 図13(b)の2倍の時間長さのフロー算出結果を用いて追従視を判定する例を示す図である。It is a figure which shows the example which determines a follow-up vision using the flow calculation result of twice the time length of FIG.13 (b). 視線方向の時間変化の一例を示す図である。It is a figure which shows an example of the time change of a gaze direction. 情報処理装置による処理の一例を示すフローチャート(その1)である。5 is a flowchart (part 1) illustrating an example of processing by the information processing apparatus. 情報処理装置による処理の一例を示すフローチャート(その2)である。12 is a flowchart (part 2) illustrating an example of processing by the information processing apparatus. 情報処理装置による処理の一例を示すフローチャート(その3)である。12 is a flowchart (part 3) illustrating an example of processing by the information processing apparatus. 視認対象が移動する場合に、視線方向の変化ベクトルと画像上での視認対象の移動ベクトルがほぼ反対向きになる場合の例を示す図である。It is a figure which shows the example in case a visual recognition direction moves and the change vector of a gaze direction and the movement vector of the visual recognition object on an image become a reverse direction substantially.

以下、車載システムの一実施形態について、図1〜図19に基づいて詳細に説明する。図1には、一実施形態にかかる車載システム100の構成が概略的に示されている。図1の車載システム100は、移動体(例えば車)に搭載され、ユーザ(以下、ドライバと呼ぶ)の視線の状態を判定するシステムである。車載システム100は、図1に示すように、複数のカメラ10と、視線検出装置12と、車載センサ群14と、視線状態判定装置としての情報処理装置20と、を備える。   Hereinafter, an embodiment of an in-vehicle system will be described in detail with reference to FIGS. FIG. 1 schematically shows the configuration of an in-vehicle system 100 according to an embodiment. The in-vehicle system 100 in FIG. 1 is a system that is mounted on a moving body (for example, a car) and determines the state of the line of sight of a user (hereinafter referred to as a driver). As shown in FIG. 1, the in-vehicle system 100 includes a plurality of cameras 10, a line-of-sight detection device 12, a vehicle-mounted sensor group 14, and an information processing device 20 as a line-of-sight state determination device.

カメラ10は、車に搭載された周辺環境を撮影するカメラである。カメラの設置位置および画角による死角を削減し、ドライバの視認領域をカバーするよう、車内には複数のカメラが設置されていることが好ましいが、1つの広角カメラのみが設置されていてもよい。なお、本実施形態では、車にカメラ10が複数搭載されているものとする。なお、各カメラ10が車のどの位置に設置され、どの方向を撮像するかの情報は、後述するカメラ情報DB40(図3参照)にあらかじめ記憶されているものとする。   The camera 10 is a camera that photographs a surrounding environment mounted on a car. It is preferable that a plurality of cameras are installed in the vehicle so as to reduce the blind spot due to the camera installation position and angle of view and cover the driver's visual recognition area, but only one wide-angle camera may be installed. . In the present embodiment, it is assumed that a plurality of cameras 10 are mounted on the car. It should be noted that information on which position of each camera 10 is installed and in which direction the camera 10 is imaged is stored in advance in a camera information DB 40 (see FIG. 3) described later.

視線検出装置12は、既知の方式でドライバの視線方向を取得する。たとえば、視線検出装置12は、ドライバの顔を撮像できる車載カメラと、ドライバの眼に向けて発光するLEDライト等を用いてドライバの瞳孔反射からドライバの視線方向を推定するセンサとを有する。なお、視線検出装置12としては、視線方向を直接取得するのではなく、撮影したドライバの顔や頭の向きから視線方向を推定することとしてもよい。なお、視線方向は、左右の眼の視線方向それぞれを取得してもよいし、左右の眼の視線方向から1つの視線方向を特定してもよい。後者の場合、視線方向として、左右の眼それぞれの視線方向を用いた任意の方向、たとえば各視線方向の平均値を特定してもよい。また、基本的に左右の眼の視線方向を取得することとし、外光や振動、メガネの影響などから片眼の視線方向しか取得できない場合に片眼の視線方向のみを取得する、というように視線方向の取得数を随時変更するようにしてもよい。   The line-of-sight detection device 12 acquires the line-of-sight direction of the driver by a known method. For example, the line-of-sight detection device 12 includes an in-vehicle camera that can capture the driver's face and a sensor that estimates the driver's line-of-sight direction from the driver's pupil reflection using an LED light that emits light toward the driver's eyes. Note that the line-of-sight detection device 12 may estimate the line-of-sight direction from the direction of the face or head of the photographed driver, instead of directly acquiring the line-of-sight direction. Note that the gaze direction may be acquired for each of the left and right eyes, or one gaze direction may be specified from the left and right eyes. In the latter case, as the line-of-sight direction, an arbitrary direction using the line-of-sight directions of the left and right eyes, for example, an average value of each line-of-sight direction may be specified. In addition, basically, the right and left eye gaze directions are acquired, and only one eye gaze direction is obtained when only one eye gaze direction can be obtained due to the influence of external light, vibration, glasses, etc. You may make it change the acquisition number of a gaze direction at any time.

車載センサ群14は、車に搭載された、走行中に各種データを取得するセンサ群であり、速度センサや、GPS(Global Positioning System)測位装置、降雨センサ、照度センサ、振動センサなどを含む。   The in-vehicle sensor group 14 is a sensor group that is mounted on a vehicle and acquires various data during traveling, and includes a speed sensor, a GPS (Global Positioning System) positioning device, a rainfall sensor, an illuminance sensor, a vibration sensor, and the like.

情報処理装置20は、カメラ10、視線検出装置12、車載センサ群14から画像やデータを取得し、取得した画像やデータに基づいてドライバの視線の状態を判定する装置である。   The information processing apparatus 20 is an apparatus that acquires images and data from the camera 10, the line-of-sight detection device 12, and the in-vehicle sensor group 14, and determines the state of the driver's line of sight based on the acquired images and data.

図2は、情報処理装置20のハードウェア構成が概略的に示されている。この図2に示すように、情報処理装置20は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、入出力インタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これら情報処理装置20の構成各部は、バス98に接続されている。情報処理装置20では、ROM92あるいはHDD96に格納されているプログラム(視線状態判定プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(視線状態判定プログラムを含む)をCPU90が実行することにより、図3に示す、各部の機能が実現される。   FIG. 2 schematically shows the hardware configuration of the information processing apparatus 20. As shown in FIG. 2, the information processing apparatus 20 includes a CPU (Central Processing Unit) 90, a ROM (Read Only Memory) 92, a RAM (Random Access Memory) 94, and a storage unit (here, an HDD (Hard Disk Drive)). 96, an input / output interface 97, a portable storage medium drive 99, and the like. Each component of the information processing apparatus 20 is connected to a bus 98. In the information processing apparatus 20, a program (including a line-of-sight determination program) stored in the ROM 92 or the HDD 96, or a program (including a line-of-sight determination program) read from the portable storage medium 91 by the portable storage medium drive 99. 3 is implemented by the CPU 90.

図3には、情報処理装置20の機能ブロック図が示されている。情報処理装置20のCPU90がプログラムを実行することで、図3に示すように、カメラ選定部22、取得部としての注視点画像領域推定部24、特定部としての探索窓算出部26、判定部としての追従判定部28、視認時間計算部30、必要視認時間決定部32、視認判定部34、およびわき見判定部36としての機能が実現されている。なお、図3には、HDD96等に格納されているカメラ情報DB40、地図DB42および対象画像特徴DB44も図示されている。   FIG. 3 shows a functional block diagram of the information processing apparatus 20. When the CPU 90 of the information processing apparatus 20 executes the program, as shown in FIG. 3, the camera selection unit 22, the gazing point image region estimation unit 24 as the acquisition unit, the search window calculation unit 26 as the identification unit, and the determination unit Functions as the follow-up determination unit 28, the visual recognition time calculation unit 30, the necessary visual recognition time determination unit 32, the visual recognition determination unit 34, and the side-view determination unit 36 are realized. 3 also shows a camera information DB 40, a map DB 42, and a target image feature DB 44 stored in the HDD 96 or the like.

カメラ選定部22は、処理に用いるカメラ10を複数のカメラから選定する。具体的には、カメラ選定部22は、ドライバの視認状態を判定したい時刻に十分近い2つの時刻(第1の時刻および第2の時刻)で視線検出装置12が検知したドライバの視線方向と、各車載カメラの設置位置関係から、視差をそれぞれ求め、2つの時刻双方で最も視差が少ないカメラを選定する。この場合、カメラ選定部22は、カメラ情報DB40に格納されている情報を参照する。カメラ情報DB40には、複数のカメラ10それぞれの位置、ドライバの視点の位置等が格納されているものとする。   The camera selection unit 22 selects the camera 10 used for processing from a plurality of cameras. Specifically, the camera selection unit 22 detects the driver's line-of-sight direction detected by the line-of-sight detection device 12 at two times (a first time and a second time) sufficiently close to the time at which the driver's visual state is to be determined. The parallax is obtained from the installation position relationship of each in-vehicle camera, and the camera with the least parallax is selected at both times. In this case, the camera selection unit 22 refers to information stored in the camera information DB 40. It is assumed that the camera information DB 40 stores the position of each of the plurality of cameras 10, the position of the driver's viewpoint, and the like.

なお、カメラ選定部22は、2つの時刻を選定する場合、例えば視認状態を判定したい時刻が現在時刻ならば、現在より少し前の時刻と現在時刻、あるいは現在時刻と現在より少し後の時刻、というように選定する。なお、前者の場合、厳密には判定したい時刻以前の状態を、後者は判定したい時刻以後の状態を判定することとなる。   In addition, when the camera selection unit 22 selects two times, for example, if the time at which the visual recognition state is to be determined is the current time, the time slightly before the current time and the current time, or the current time and the time slightly later than the current time, Select as follows. In the former case, strictly, the state before the time to be determined is determined, and the latter is the state after the time to be determined.

図4(a)、図4(b)には、視線方向に対するカメラの視差の算出方法を説明する図が示されている。図4(a)に示すように、カメラ選定部22は、ある時刻において、視線検出装置12で検出した視線方向(視線角Kの方向)にあり、任意に決定した距離(R)だけドライバ視点(E)から離れた場所に存在する視認対象(K1)を仮定し、視認対象(K1)とカメラ10の中心(C)を結ぶベクトルK1−Cを算出する。そして、カメラ選定部22は、ベクトルK1−Cと、視線検出装置12による視線方向ベクトルK1−Eとの成す角αKを求め、視差を成す角αKに比例した任意の値として算出する。図4(a)には、比較参考のため、別の2つの視線方向(視線角L,Mの方向)、視認対象(L1、M1)、及びなす角αL、αMを示している。また、図4(a)では、視認対象(K1、L1,M1)が視点から等距離(半径R)にあることを示すため、便宜的にドライバ視点Eを中心とする半径Rの円弧を記載している。なお、カメラ選定部22では、複数のカメラ10において、同時刻における視差を算出し、最も視差が小さいカメラ10をドライバの視線の状態を判定するために用いるカメラとして選定する。   FIGS. 4A and 4B are diagrams illustrating a method for calculating the parallax of the camera with respect to the viewing direction. As shown in FIG. 4A, the camera selection unit 22 is in the direction of the line of sight (direction of the line of sight angle K) detected by the line-of-sight detection device 12 at a certain time, and is a driver viewpoint for an arbitrarily determined distance (R). Assuming a visual target (K1) that exists at a location away from (E), a vector K1-C that connects the visual target (K1) and the center (C) of the camera 10 is calculated. And the camera selection part 22 calculates | requires the angle (alpha) K which the vector K1-C and the gaze direction vector K1-E by the gaze detection apparatus 12 comprise, and calculates as arbitrary values proportional to the angle (alpha) K which comprises parallax. FIG. 4A shows another two line-of-sight directions (directions of the line-of-sight angles L and M), objects to be visually recognized (L1, M1), and angles αL and αM formed for comparison purposes. Also, in FIG. 4A, for the sake of convenience, an arc having a radius R centered on the driver viewpoint E is shown to indicate that the visual recognition target (K1, L1, M1) is equidistant from the viewpoint (radius R). doing. The camera selection unit 22 calculates the parallax at the same time in the plurality of cameras 10 and selects the camera 10 having the smallest parallax as a camera used to determine the state of the driver's line of sight.

なお、図4(a)は、ドライバ視点E及び視線方向がある時刻に対して1つの値である場合の算出方法を示しているが、例えば、左右眼の位置および左右眼の視線方向を取得できる場合には、カメラ選定部22は、それらに基づいて視差を算出することとしてもよい。この場合、図4(b)に示すように、左眼位置から左視線方向に延びる直線と、右眼位置から右視線方向に延びる直線との交点を視認対象K1の位置とすることができるので、図4(a)のように距離Rを使わずになす角を算出することができる。図4(b)の方法を採用した方が、図4(a)の方法より正確に視認対象の位置及び成す角を算出できる。ただし、左右両眼の視点位置及び視線方向が取得できない場合には活用できないため、2時刻での視線データの双方で、左右両眼に対する視点及び視線方向を取得できるときだけ図4(b)の方法を採用し、その他の場合には図4(a)の方法を採用することとしてもよい。   4A shows a calculation method in the case where the driver viewpoint E and the line-of-sight direction have a single value for a certain time. For example, the positions of the left and right eyes and the line-of-sight directions of the left and right eyes are acquired. If possible, the camera selection unit 22 may calculate the parallax based on them. In this case, as shown in FIG. 4B, the intersection of a straight line extending from the left eye position in the left visual line direction and a straight line extending from the right eye position in the right visual line direction can be set as the position of the visual target K1. As shown in FIG. 4A, the angle formed without using the distance R can be calculated. When the method of FIG. 4B is adopted, the position and angle formed can be calculated more accurately than the method of FIG. However, since it cannot be used when the viewpoint position and line-of-sight direction of both left and right eyes cannot be acquired, only when the viewpoint and line-of-sight direction for both left and right eyes can be acquired from both the line-of-sight data at two times, as shown in FIG. The method shown in FIG. 4A may be adopted in other cases.

なお、図4(a)ではドライバ視点Eを中心として距離Rだけ離れた視認対象を仮定することとしているが、これに代えて、カメラ10の位置Cを中心とした距離Rの視認対象を求めてもよい。この場合、カメラ10の位置Cを中心とする半径Rの円弧を描き、視点から視線方向へ伸びる直線と円の交点を視認対象とする。なお、このようにすると、仮定する視認対象の位置(K1〜M1)が図4(a)とは若干異なるが、視差が最も小さいカメラを図4(a)の場合と同様に選定することが可能である。   In FIG. 4A, it is assumed that a visual target is separated from the driver viewpoint E by a distance R. Instead, a visual target having a distance R centered on the position C of the camera 10 is obtained. May be. In this case, an arc having a radius R centered on the position C of the camera 10 is drawn, and an intersection of a straight line and a circle extending from the viewpoint in the line-of-sight direction is set as a visual recognition target. In this case, the assumed visual target position (K1 to M1) is slightly different from that in FIG. 4A, but the camera with the smallest parallax can be selected as in FIG. 4A. Is possible.

なお、2時刻で最も視差が少ないカメラを選定するためには、例えば、各カメラで各時刻の視線との視差を求めておき、各時刻での視差の和、平均、最大、最小のいずれかの値を求めて、全カメラでその値の比較を行い、最も値が小さいカメラを選定することとすればよい。   In order to select the camera with the least parallax at two times, for example, the parallax with the line of sight at each time is obtained for each camera, and the sum, average, maximum, or minimum of the parallax at each time is obtained. It is sufficient to obtain the value of, compare the values of all the cameras, and select the camera with the smallest value.

なお、上述したカメラ選定方法は一例である。すなわち、例えば、視線に対して左側の視認対象を見ていることが検知された場合に、カメラ選定部22は、単純に、車の左側に設置されたカメラを選定するようにしてもよい。また、予めカメラ情報DB40において、ドライバの視線方向と、選定すべきカメラ10とを対応付けたテーブルを用意しておき、カメラ選定部22は、該テーブルに基づいてカメラ10を選定することとしてもよい。この場合、仮に、各時刻で選定されるカメラが異なった場合には、カメラ選定部22は、選定された2つのカメラについての視差だけを算出し、該視差に基づいてカメラを選定することとしてもよい。あるいは、カメラ選定部22は、あらかじめカメラの優先順位を決めておき、各時刻で選定されるカメラが異なった場合にはより優先順位の高いカメラを選定することとしてもよい。   The camera selection method described above is an example. That is, for example, when it is detected that the object to be viewed on the left side is viewed with respect to the line of sight, the camera selection unit 22 may simply select a camera installed on the left side of the vehicle. In addition, in the camera information DB 40, a table in which the driver's line-of-sight direction is associated with the camera 10 to be selected is prepared in advance, and the camera selection unit 22 may select the camera 10 based on the table. Good. In this case, if the cameras selected at each time are different, the camera selection unit 22 calculates only the parallax for the two selected cameras, and selects the camera based on the parallax. Also good. Alternatively, the camera selection unit 22 may determine the camera priority order in advance, and may select a camera with a higher priority when the cameras selected at each time are different.

なお、カメラ選定は、視線検出装置12の測定間隔、および、カメラ10の撮像間隔ごとに実施してもよいが、例えば、視線検出装置12の検出する視線方向が所定の閾値以上になったタイミングで実施することとしてもよい。あるいは、時間の経過とともに視線が頻繁に移動する場合には、選定されるカメラが頻繁に変わることを避けるため、カメラの選定を所定時間間隔で行ってもよい。なお、車にカメラが複数設けられていない場合には、カメラ選定部22を省略してもよい。   The camera selection may be performed at every measurement interval of the line-of-sight detection device 12 and every imaging interval of the camera 10, but for example, timing when the line-of-sight direction detected by the line-of-sight detection device 12 becomes a predetermined threshold or more. It is good also as implementing in. Alternatively, when the line of sight moves frequently with the passage of time, the cameras may be selected at predetermined time intervals in order to avoid frequent changes of the selected cameras. In addition, when a plurality of cameras are not provided in the car, the camera selection unit 22 may be omitted.

図3に戻り、注視点画像領域推定部24は、前述した2時刻それぞれにおける、視線検出装置12と選定されたカメラ10との位置関係から、視線検出装置12で検出された視線に対応する、選定されたカメラ10により撮像された画像(以下、「シーン画像」と呼ぶ)上の注視点を特定する。また、注視点画像領域推定部24は、特定された注視点の周辺に、任意の大きさの画像領域(以下、「注視点画像領域」と呼ぶ)を設定する。   Returning to FIG. 3, the gazing point image region estimation unit 24 corresponds to the line of sight detected by the line-of-sight detection device 12 from the positional relationship between the line-of-sight detection device 12 and the selected camera 10 at each of the two times described above. A gazing point on an image (hereinafter, referred to as “scene image”) captured by the selected camera 10 is specified. In addition, the gazing point image area estimation unit 24 sets an image area of an arbitrary size (hereinafter referred to as a “gaze point image area”) around the specified gazing point.

図5(a)、図5(b)は、注視点画像領域の算出方法について示す模式図である。注視点画像領域推定部24は、幾何学的に、選定されたカメラ位置とカメラの撮像画角に基づいて定まる撮像範囲と、視点位置(図5(a)では左右眼の位置の中心として記載)とから視線方向に延びる直線の交点を注視点として算出する。そして、注視点画像領域推定部24は、図5(b)に示すように、算出した注視点を中心とし、誤差幅(R1,R2)の大きさを持つ領域を、シーン画像上の注視点画像領域とする。なお、注視点画像領域の形状は任意だが、簡単な形状、たとえば矩形等が計算の容易性等を考慮すると好ましい。   FIGS. 5A and 5B are schematic diagrams illustrating a method of calculating a gazing point image region. The gazing point image area estimation unit 24 is described geometrically as the imaging range determined based on the selected camera position and the imaging angle of view of the camera, and the viewpoint position (the center of the left and right eye positions in FIG. 5A). ) And the intersection of straight lines extending in the line-of-sight direction is calculated as the point of gaze. Then, as shown in FIG. 5B, the gazing point image area estimation unit 24 determines an area having the error width (R1, R2) around the calculated gazing point as the gazing point on the scene image. The image area. The shape of the gazing point image area is arbitrary, but a simple shape such as a rectangle is preferable in consideration of the ease of calculation.

なお、図5(a)においては注視点画像領域の算出方法として、幾何学的な算出方法を示したが、これに限られるものではない。例えば、幾何学的に注視点画像位置を求める場合以外に、様々な視線方向を見たときのシーン画像上の画素位置の対応関係をキャリブレーション情報として事前取得しておき、それらの視線方向と画素位置の対応関係を用いて、任意視線方向に対する画素位置、すなわち注視点位置を特定してもよい。   In FIG. 5A, the geometric calculation method is shown as the method of calculating the gazing point image region, but the present invention is not limited to this. For example, in addition to the case where the gaze image position is determined geometrically, the correspondence between the pixel positions on the scene image when viewing various gaze directions is acquired in advance as calibration information, and the gaze direction You may identify the pixel position with respect to arbitrary gaze directions, ie, a gaze point position, using the correspondence of a pixel position.

ここで、注視点画像領域の大きさ(誤差幅R1、R2)は、例えば、視線検出装置12の測定誤差や測定誤差可能性の大きさに基づいて決定することができる。なお、測定誤差とは、視線検出装置12の測定性能及び視線検出装置12が出力する測定精度値を意味し、測定誤差可能性とは、測定結果を悪化させる要因の有無を意味する。測定結果を悪化させる要因としては、例えば、視線として両眼の視線を測定したかどうか、車載センサ群14に含まれる加速度センサの計測結果(加速度値等)、GPS測位装置の計測結果(走行位置)と地図DB42に格納されている地図情報等から凹凸の大きな走行路での走行を検知したかどうか、照光センサの検出結果から車外の輝度が明るく、逆光に近い環境であることを検知したかどうか、などが挙げられる。これらは、いずれも視線検出装置12で取得した視線データの精度が低くなると思われる状況である。注視点画像領域推定部24は、シーン画像上の注視点の周辺に、これらの視線検出装置12の測定誤差や測定誤差可能性が大きいほど、領域の大きさが大きくなるように注視点画像領域を決定する。なお、地図DB42には、現在位置の周辺状況を大まかに推定することが可能な地図情報が格納されている。地図情報としては、一般的なデジタル道路地図などを採用することができる。   Here, the size (error width R1, R2) of the gazing point image area can be determined based on, for example, the measurement error of the line-of-sight detection device 12 or the magnitude of the measurement error possibility. Note that the measurement error means the measurement performance of the line-of-sight detection device 12 and the measurement accuracy value output by the line-of-sight detection device 12, and the possibility of measurement error means the presence or absence of a factor that deteriorates the measurement result. Factors that deteriorate the measurement results include, for example, whether or not the eyes of both eyes were measured as the lines of sight, the measurement results (acceleration values, etc.) of the acceleration sensors included in the in-vehicle sensor group 14, and the measurement results (traveling position) of the GPS positioning device ) And the map information stored in the map DB 42, and whether or not it is detected that the environment is close to backlight due to the brightness outside the vehicle being bright from the detection result of the illumination sensor. Please mention. These are situations where the accuracy of the line-of-sight data acquired by the line-of-sight detection device 12 seems to be low. The point-of-gaze image area estimation unit 24 increases the size of the point-of-gaze image area around the point of interest on the scene image so that the larger the measurement error or the possibility of measurement error of the line-of-sight detection device 12 is, the larger the area is. To decide. The map DB 42 stores map information that can roughly estimate the surrounding situation of the current position. As the map information, a general digital road map or the like can be adopted.

なお、本実施形態では、注視点画像領域推定部24は、注視点画像領域の大きさを前述した視線検出装置12と選定されたカメラ10との間の視差に基づいて決定することとしてもよい。視線検出装置12と選定されたカメラの視差が大きいと、シーン画像上で視認対象が動く状況と、視線の移動により大きな乖離が発生しやすいため、注視点画像領域を計算する際に参照した、視線検出装置12の注視点位置に誤差があると、画像領域の位置決めに大きな誤差が発生しやすい。このため、画像領域の大きさとして、視線検出装置12の誤差以外に、視差の大きさも考慮して、視差の大きさが大きいほど、注視点画像領域を大きくするように決定してもよい。この結果、視差による誤差影響拡大を防ぐことができる。   In the present embodiment, the gazing point image area estimation unit 24 may determine the size of the gazing point image area based on the parallax between the line-of-sight detection device 12 and the selected camera 10 described above. . When the parallax between the gaze detection device 12 and the selected camera is large, a situation in which the visual target moves on the scene image and a large divergence due to movement of the gaze are likely to occur. If there is an error in the gazing point position of the line-of-sight detection device 12, a large error is likely to occur in the positioning of the image area. For this reason, as the size of the image area, in addition to the error of the line-of-sight detection device 12, the magnitude of the parallax may be taken into consideration, and the larger the size of the parallax, the larger the gazing point image area may be determined. As a result, it is possible to prevent the error influence from expanding due to parallax.

さらに、注視点画像領域推定部24は、注視点画像領域の大きさを2時刻の視線方向の変化を用いて調整してもよい。たとえば、注視点画像領域推定部24は、2時刻の視線方向を比較して、視線の変化している方向の注視点画像領域を大きくするよう、2時刻のうちの後時刻での注視点画像領域を調整してもよい。同様に、注視点画像領域推定部24は、視線の変化している方向と逆の注視点画像領域を大きくするよう、2時刻のうちの前時刻における注視点画像領域を調整してもよい。図6では、この調整例について図示している。図6においては、斜め右への視線移動に対して、前時刻の注視点画像領域の左側、後時刻の注視点画像領域の右側を大きめに調整している。それぞれの拡大した大きさの幅は、例えば次式(1)、(2)から算出することができる。
前時刻の差分大きさ(左側)=k1×|移動方向の横成分| …(1)
後時刻の差分大きさ(右側)=k2×|移動方向の横成分| …(2)
ここで、k1,k2は任意パラメータである。
Further, the gazing point image area estimation unit 24 may adjust the size of the gazing point image area using a change in the gaze direction at two times. For example, the gazing point image region estimation unit 24 compares the gazing directions at two times and enlarges the gazing point image region in the direction in which the sight line changes, so that the gazing point image at a later time of the two times is increased. The area may be adjusted. Similarly, the gazing point image region estimation unit 24 may adjust the gazing point image region at the previous time of the two times so as to enlarge the gazing point image region opposite to the direction in which the line of sight changes. FIG. 6 illustrates this adjustment example. In FIG. 6, the left side of the gazing point image area at the previous time and the right side of the gazing point image area at the later time are adjusted to be larger with respect to the line-of-sight movement to the right. The width of each enlarged size can be calculated from the following equations (1) and (2), for example.
Difference size of previous time (left side) = k1 × | transverse component in moving direction | (1)
Later time difference size (right side) = k2 × | transverse component in moving direction | (2)
Here, k1 and k2 are arbitrary parameters.

なお、図6では説明の便宜上、左右方向に対してのみ大きさ調整を行う場合について説明したが、左右方向ではなく、斜め右の移動方向の縦成分を用いて、上下方向の調整を行ってもよい。また、左右方向の調整とともに上下方向の調整を行ってもよい。これにより、2時刻での実際の視線移動方向に合わせて、各時刻で誤差が発生しやすい部分の大きさを大きめにした注視点画像領域を設定することができるので、追従判定を精度よく行うことができる。   For convenience of explanation, FIG. 6 illustrates the case where the size adjustment is performed only in the left-right direction. However, the vertical component is used to adjust the vertical direction using the vertical component of the diagonally right movement direction instead of the left-right direction. Also good. Further, the adjustment in the vertical direction may be performed together with the adjustment in the horizontal direction. As a result, it is possible to set a gazing point image area in which the size of a portion where an error is likely to occur at each time is set in accordance with the actual line-of-sight movement direction at two times. be able to.

なお、注視点画像領域推定部24は、予め定められた大きさに基づいて注視点画像領域を推定してもよい。   Note that the gazing point image area estimation unit 24 may estimate the gazing point image area based on a predetermined size.

図3に戻り、探索窓算出部26は、注視点画像領域推定部24にて推定した注視点画像領域(及び注視点)を含むシーン画像の領域を、追従判定部28におけるフロー算出に用いる探索窓として算出する。   Returning to FIG. 3, the search window calculation unit 26 uses the scene image region including the gazing point image region (and the gazing point) estimated by the gazing point image region estimation unit 24 for the flow calculation in the follow-up determination unit 28. Calculate as a window.

探索窓算出部26は、2時刻で算出した各シーン画像内の注視点画像領域の双方を含む範囲を探索窓Lとする。図7には探索窓Lの算出例が示されている。たとえば、1時刻目と2時刻目における注視点画像領域が図7に示す領域であるとすると、探索窓算出部26は、両方の注視点画像領域を内包する十分大きな領域を探索窓Lとして設定する。なお、図7では、探索窓Lを2時刻の注視点画像領域の外接矩形とした例を示している。ただし、これに限らず、例えば、探索窓Lの大きさを、2時刻の注視点画像領域の外接形状の1.5倍程度の大きさ等としてもよい。このように、探索窓Lを大きめに確保すれば、誤差の影響をさほど受けずに、後述するフロー算出を行うことができる。   The search window calculation unit 26 sets a range including both the gazing point image areas in each scene image calculated at two times as the search window L. FIG. 7 shows a calculation example of the search window L. For example, if the gazing point image areas at the first time and the second time are the areas shown in FIG. 7, the search window calculation unit 26 sets a sufficiently large area including both the gazing point image areas as the search window L. To do. FIG. 7 shows an example in which the search window L is a circumscribed rectangle of the gazing point image area at 2 hours. However, the present invention is not limited to this. For example, the size of the search window L may be about 1.5 times the circumscribed shape of the gazing point image area at two times. As described above, if the search window L is secured to be large, the flow calculation described later can be performed without much influence of the error.

また、探索窓算出部26は、例えば、2時刻の視線変化方向から探索窓Lの大きさを調整してもよい。例えば、前述した注視点画像領域推定部24で視線方向の変化から各時刻の注視点画像領域を調整した場合(図6参照)と同様、図8(a)、図8(b)に示すように、探索窓を調整し、調整後の探索窓L1、L2を作成する。この場合、探索窓L1として、移動方向と反対側に前時刻(1時刻目)の注視点画像領域近傍を拡大する調整したものを作成し、探索窓L2として、移動方向と同じ側に後時刻(2時刻目)の注視点画像領域近傍を拡大したものを作成する。   Moreover, the search window calculation part 26 may adjust the magnitude | size of the search window L from the gaze change direction of 2 time, for example. For example, as shown in FIGS. 8A and 8B, as in the case where the gazing point image region estimation unit 24 adjusts the gazing point image region at each time from the change in the gaze direction (see FIG. 6). Then, the search window is adjusted, and adjusted search windows L1 and L2 are created. In this case, the search window L1 is adjusted to enlarge the vicinity of the gazing point image area at the previous time (first time) on the opposite side to the moving direction, and the search window L2 is set to the later side on the same side as the moving direction. An enlarged view of the vicinity of the gazing point image area at (second time) is created.

その他、探索窓の大きさとして、選定されたカメラと視線検出装置12の位置関係から求めた視差の大きさに基づく大きさを採用することとしてもよい。ここで、視差が大きいと、2時刻でシーン画像上で視認対象が動く状況と視線の移動に、大きな乖離が発生しやすいため、画像領域の位置決めに大きな誤差が発生しやすい。したがって、視差が大きいときに探索窓の大きさを大きくとることで、誤差による後述するフロー算出の精度向上が期待できる。   In addition, as the size of the search window, a size based on the size of the parallax obtained from the positional relationship between the selected camera and the line-of-sight detection device 12 may be employed. Here, if the parallax is large, a large deviation is likely to occur in the situation in which the visual target moves on the scene image at two times and the movement of the line of sight, so that a large error is likely to occur in the positioning of the image area. Therefore, by increasing the size of the search window when the parallax is large, it can be expected to improve the accuracy of flow calculation described later due to an error.

追従判定部28は、探索窓算出部26が算出した探索窓L(又はL1,L2)を用いて、2時刻のシーン画像で注視点画像領域に対応する領域に最も合致する領域を探し、領域の移動ベクトルであるフロー(オプティカルフロー)を算出する。   The follow-up determination unit 28 uses the search window L (or L1, L2) calculated by the search window calculation unit 26 to search for an area that best matches the area corresponding to the gazing point image area in the two-time scene image. The flow (optical flow) that is the movement vector of is calculated.

図9、図10は、探索窓Lによるフロー算出の一例を示す。前提として、2時刻T1、T2で撮像された各シーン画像内で、各時刻での視線検出装置12の値を用いて、ドライバがどこを見たかを示す注視点画像領域と、それぞれにおける探索窓Lが算出されているとする。なお、図9(a)では、時刻T1における注視点画像領域を黒色矩形枠で示し、図9(b)では、時刻T2における注視点画像領域を白色矩形枠で示している。   9 and 10 show an example of flow calculation by the search window L. FIG. As a premise, in each scene image captured at two times T1 and T2, using the value of the line-of-sight detection device 12 at each time, a gazing point image region indicating where the driver saw and a search window in each Assume that L is calculated. In FIG. 9A, the gazing point image area at time T1 is indicated by a black rectangular frame, and in FIG. 9B, the gazing point image area at time T2 is indicated by a white rectangular frame.

このとき、追従判定部28は、時刻T1のシーン画像(図9(a)、図10(a))において、時刻T2の画像の一部である時刻T2における注視点画像領域(図9(b)の白色太線矩形領域)が、時刻T1のシーン画像の探索窓Lに対応する範囲(図10(a)の破線領域)内で最も類似する箇所を探す。そして、時刻T2の画像内での位置からの移動量を、フローF1として算出する。   At this time, the follow-up determination unit 28 in the scene image at time T1 (FIG. 9A and FIG. 10A), the gazing point image area at time T2, which is a part of the image at time T2 (FIG. 9B). ) In the range corresponding to the search window L of the scene image at the time T1 (broken line area in FIG. 10A) is searched for. Then, the movement amount from the position in the image at time T2 is calculated as a flow F1.

同様に、時刻T2のシーン画像(図9(b)、図10(b))において、時刻T1の画像の一部である時刻T1の注視点画像領域(図9(a)の黒色太線矩形領域)が、時刻T2のシーン画像の探索窓Lに対応する範囲(図10(b)の破線領域)内で最も類似する箇所を探す。そして、時刻T1の画像内での位置からの移動量をフローF2として算出する。なお、フローF1、F2のいずれか一方のみを算出してもよい。   Similarly, in the scene image at time T2 (FIGS. 9B and 10B), the gazing point image area at time T1, which is a part of the image at time T1 (black thick line rectangular area in FIG. 9A). ) Is searched for the most similar part in the range corresponding to the search window L of the scene image at time T2 (broken line area in FIG. 10B). Then, the movement amount from the position in the image at time T1 is calculated as a flow F2. Only one of the flows F1 and F2 may be calculated.

なお、上記フロー算出処理は、時刻T1の画像の探索窓Lに対応する範囲と、時刻T2の画像の探索窓Lに対応する範囲とにおいて共通する対象が撮像されているか否かを特定しているともいえる。また、フローF2を算出する処理は、時刻T1の画像における時刻T1の注視点に対応する範囲(注視点画像領域)の画像と類似する画像が時刻T2の画像の探索枠Lに対応する範囲に存在しているかを特定しており、フローF1を算出する処理は、時刻T2の画像における時刻T2の注視点に対応する範囲(注視点画像領域)の画像と類似する画像が時刻T1の画像の探索枠Lに対応する範囲に存在しているかを特定しているといえる。   Note that the flow calculation process specifies whether or not a common object is captured in the range corresponding to the search window L of the image at time T1 and the range corresponding to the search window L of the image at time T2. It can be said that there is. In addition, the process of calculating the flow F2 is performed so that an image similar to an image in a range corresponding to the gazing point at time T1 (gaze point image region) in the image at time T1 corresponds to the search frame L of the image at time T2. The processing for calculating the flow F1 is performed by determining whether an image similar to the image in the range corresponding to the gazing point at the time T2 (the gazing point image region) in the image at the time T2 is the image at the time T1. It can be said that it is specified whether it exists in the range corresponding to the search frame L.

なお、追従判定部28は、注視点画像領域が最も類似する範囲を探す場合、探索窓L内において1画素ずつ注視点画像領域を移動させる。そして、追従判定部28は、各位置で注視点画像領域の各画素と対応する探索窓L内の各画素の輝度差を求め、それらの総和が最小となったときの注視点画像領域の位置を、最も類似する箇所とする。ただし、輝度差の総和の最小値が規定値を超えている場合には、フロー算出できなかったとみなす。   The follow-up determination unit 28 moves the gazing point image region pixel by pixel within the search window L when searching for a range in which the gazing point image region is most similar. Then, the follow-up determination unit 28 obtains a luminance difference between each pixel in the search window L corresponding to each pixel of the gazing point image region at each position, and the position of the gazing point image region when the sum thereof is minimized. Is the most similar part. However, if the minimum value of the sum of the luminance differences exceeds the specified value, it is considered that the flow cannot be calculated.

図11、図12には、フロー算出ができない場合の例が示されている。なお、図11(a)では、時刻T1における注視点画像領域を黒色矩形枠で示し、図11(b)では、時刻T2における注視点画像領域を白色矩形枠で示している。追従判定部28は、時刻T1のシーン画像(図11(a)、図12(a))において、時刻T2の画像の一部である時刻T2における注視点画像領域(白色太線矩形領域)が、時刻T1のシーン画像の探索窓Lに対応する範囲(図12(a)の破線領域)内で最も類似するところを探す。また、追従判定部28は、時刻T2のシーン画像(図11(b)、図12(b))において、時刻T1の画像の一部である時刻T1の注視点画像領域(黒色太線矩形領域)が、時刻T2のシーン画像の探索窓Lに対応する範囲(図12(b)の破線領域)内で最も類似するところを探す。図12(b)の場合、探索窓L内に時刻T1の注視点画像領域と類似する箇所がないため、フローF2を算出できないことになる。   FIG. 11 and FIG. 12 show examples when the flow cannot be calculated. In FIG. 11A, the gazing point image area at time T1 is indicated by a black rectangular frame, and in FIG. 11B, the gazing point image area at time T2 is indicated by a white rectangular frame. In the scene image at time T1 (FIGS. 11A and 12A), the follow-up determination unit 28 determines that the gazing point image region (white thick line rectangular region) at time T2, which is a part of the image at time T2, The most similar place is searched for in the range corresponding to the search window L of the scene image at time T1 (broken line area in FIG. 12A). The follow-up determination unit 28 also includes a gazing point image area (black thick line rectangular area) at time T1, which is a part of the image at time T1, in the scene image at time T2 (FIGS. 11B and 12B). However, the most similar place is searched in the range (broken line area in FIG. 12B) corresponding to the search window L of the scene image at time T2. In the case of FIG. 12B, since there is no portion similar to the gazing point image area at time T1 in the search window L, the flow F2 cannot be calculated.

なお、上記例では、2時刻の探索窓が共通である場合について説明したが、図8(a)、図8(b)のように、2時刻に対して異なる探索窓L1,L2を算出した場合には、各時刻の探索窓L1,L2を利用する。すなわち、前時刻の注視点画像領域と同じ画像領域を後時刻の画像内から探すときの探索窓には図8(a)に示す探索窓L1を用い、後時刻の注視点画像領域と同じ画像領域を前時刻の画像内から探す時の探索窓には図8(b)に示す探索窓L2を用いればよい。   In the above example, the case where the search windows at two times are common has been described. However, as shown in FIGS. 8A and 8B, different search windows L1 and L2 are calculated for two times. In this case, search windows L1 and L2 at each time are used. That is, a search window L1 shown in FIG. 8A is used as a search window when searching for the same image area as the gazing point image area at the previous time from the image at the later time, and the same image as the gazing point image area at the later time is used. A search window L2 shown in FIG. 8B may be used as a search window when searching for an area from the image at the previous time.

追従判定部28は、更に、算出したフローの情報等に基づいて、ドライバの追従視を判定する。図13は、追従判定部28による追従判定の一例を示した図である。   The follow-up determination unit 28 further determines the driver's follow-up vision based on the calculated flow information and the like. FIG. 13 is a diagram illustrating an example of tracking determination by the tracking determination unit 28.

図13(b)は、図13(a)のように時刻T1、T2、…、T7で画像が撮影される場合における、前後する2時刻(時刻ペア:T1とT2、T2とT3、…T6とT7)の各画像、算出対象、フロー算出結果を示す表である。図13(b)においては、2時刻のペアごとに、2種類のフロー算出結果が得られる。両方ともフロー算出ができた場合(例えば、T2&T3、T6&T7)、追従判定部28は、追従判定を追従中(○)とする。また、一方のみフロー算出ができた場合(例えば、T1&T2、T5&T6)、追従判定部28は、やや判断精度が低いか、追従対象の変更を始める予兆があるとみなし、追従中である(△)と判定する。また、両方ともフロー算出できなかった場合(例えば、T3&T4、T4&T5)、追従判定部28は、追従していない(ドライバの追従対象が変化した)(×)と判定する。   FIG. 13B shows two successive times (time pairs: T1 and T2, T2 and T3,... T6) when an image is taken at times T1, T2,..., T7 as shown in FIG. And T7) are images, calculation targets, and flow calculation results. In FIG. 13B, two types of flow calculation results are obtained for each pair of two times. When both have been able to calculate the flow (for example, T2 & T3, T6 & T7), the follow-up determination unit 28 sets the follow-up determination to follow-up (O). When only one of the flows can be calculated (for example, T1 & T2, T5 & T6), the follow-up determination unit 28 considers that the determination accuracy is slightly low or there is a sign of starting to change the follow-up target, and is following (Δ) Is determined. If neither of the flows can be calculated (for example, T3 & T4, T4 & T5), the follow-up determining unit 28 determines that the driver does not follow (the driver's follow-up target has changed) (×).

なお、上記においては、追従判定部28は、各時刻ペアにおけるフロー算出判定結果を用いて、ドライバの追従視を判定する場合について説明したが、これに限られるものではない。追従判定部28は、より多くの時刻、より長い時間のフロー算出結果を用いてドライバの追従視を判定してもよい。   In the above description, the follow-up determination unit 28 has been described using the flow calculation determination result in each time pair to determine the driver's follow-up vision. However, the present invention is not limited to this. The tracking determination unit 28 may determine the driver's tracking vision using the flow calculation results for more times and longer times.

図14には、図13(b)の2倍の時間長さのフロー算出結果を用いて追従視を判定する例が示されている。例えば、T1&T2のペアから2つのフロー算出結果、T2&T3のペアから2つのフロー算出結果を取得し、合計4つのフロー算出結果を用いて、フロー算出できた確率(3/4)に基づいて、追従視していたかどうかを判定する。フロー算出できた確率が3/4であれば、追従判定値(図14では、算出率と表記)は75%となる。ここで、追従中と見做す際の追従判定値の閾値を例えば0.25としておくと、T1〜T3における追従判定値は0.75(>0.25)なので、追従判定部28は、追従中(追従視あり)と判定する。   FIG. 14 shows an example in which tracking vision is determined using a flow calculation result twice as long as that in FIG. For example, two flow calculation results are obtained from a pair of T1 & T2, and two flow calculation results are obtained from a pair of T2 & T3, and a total of four flow calculation results are used to follow the probability based on the flow (3/4). Determine if you were watching. If the probability that the flow can be calculated is 3/4, the follow-up determination value (indicated as a calculation rate in FIG. 14) is 75%. Here, if the threshold value of the tracking determination value when assuming that tracking is in progress is set to 0.25, for example, the tracking determination value in T1 to T3 is 0.75 (> 0.25). It is determined that tracking is in progress (with tracking vision).

同様にして、T2〜T4では、追従判定値が0.5であり、T5〜T7では、追従判定値が0.75であるので、追従判定部28は、各時間において追従中と判定する。一方で、T3〜T5、T4〜T6では、追従判定値がそれぞれ0、0.25であり、判定閾値以下であるので、追従判定部28は追従中は判定しない。このように、フロー算出の時間長さを長くしても追従判定を行うことができる。なお、視線検出装置12などの突発的な誤差(スパイクノイズなど)を丸めるためには、フロー算出の時間長さを長くして追従判定をした方がよい。   Similarly, since the follow-up determination value is 0.5 at T2 to T4 and the follow-up determination value is 0.75 at T5 to T7, the follow-up determination unit 28 determines that the follow-up is in progress at each time. On the other hand, in T3 to T5 and T4 to T6, the follow-up determination values are 0 and 0.25, respectively, which are equal to or less than the determination threshold value, and therefore the follow-up determination unit 28 does not determine during the follow-up. Thus, the follow-up determination can be performed even if the time length of the flow calculation is increased. In order to round off an unexpected error (such as spike noise) of the line-of-sight detection device 12 or the like, it is better to make the follow-up determination by increasing the flow calculation time length.

図3に戻り、視認時間計算部30は、追従判定部28で判定した各時刻の追従判定結果を用いて、連続してどれくらい追従しているかどうか、すなわち追従連続時間(視認対象を視認した時間)を推定計算する。   Returning to FIG. 3, the visual recognition time calculation unit 30 uses the follow-up determination result at each time determined by the follow-up determination unit 28 to determine how long it is continuously following, that is, the follow-up continuous time (the time when the visual target is visually recognized). ) Is estimated.

視認時間計算部30は、追従連続時間を、例えば、1回でも追従判定で追従していないと判定された時点を追従終了時点とみなして算出する。なお、視認時間計算部30は、複数回続けて追従していないと判断された時点を追従終了時点とみなしてもよい。前者では、より細かい追従の切れ目が把握できるという利点がある。また、後者では、視線検出装置12等の誤差の影響を受けにくいという利点がある。   The visual recognition time calculation unit 30 calculates the follow-up continuous time by regarding, for example, a time point when it is determined that the follow-up determination has not been followed even once, as a follow-up end time. In addition, the visual recognition time calculation unit 30 may regard a time point when it is determined that tracking is not continued for a plurality of times as a tracking end time. The former has an advantage that a finer follow-up break can be grasped. In the latter case, there is an advantage that it is hardly affected by errors of the line-of-sight detection device 12 and the like.

図13(b)において、例えば、1回および2回以上、追従してないと判定された時点を追従終了とみなす場合には、T3〜T6の近傍で追従連続時間が途切れることとなる。一方で、3回以上追従していないという判定された時点で追従終了とみなす場合には、図13(b)ではT1〜T7まで、追従連続時間が途切れることはない。   In FIG. 13B, for example, when it is considered that the follow-up has been completed once and twice or more times, the follow-up continuous time is interrupted in the vicinity of T3 to T6. On the other hand, when it is determined that the follow-up is completed when it is determined that the follow-up is not performed three times or more, the follow-up continuous time is not interrupted from T1 to T7 in FIG.

なお、視認時間計算部30は、例えば、追従対象変更(途切れ)が発生した場合には、途切れている間の全時刻を視認時間として加算しないようにしてもよい。この場合、図13(b)の例では、T3&T4とT4&T5の2ペア、T4&T5とT5&T6の2ペアの2つで追従対象変更とされたため、T3〜T5は追従の連続時間の加算から外し、T1〜T2までの連続時間と、T7から先の連続時間を算出する。   Note that, for example, when a follow-up target change (discontinuity) occurs, the visual recognition time calculation unit 30 may not add the entire time during the interruption as the visual recognition time. In this case, in the example of FIG. 13B, since the tracking target is changed in two pairs of T3 & T4 and T4 & T5 and two pairs of T4 & T5 and T5 & T6, T3 to T5 are excluded from the addition of the continuous time of tracking. The continuous time from ~ T2 and the continuous time from T7 are calculated.

あるいは、視認時間計算部30は、追従開始時を追従判定において×から○又は△になった二時刻のうち遅い方(図13(b)のT5&T6の場合、T6)、追従終了時を○又は△から×になった二時刻のうち早い方(図13(b)のT3&T4の場合、T3)としてもよい。この場合、T4〜T5のみが、追従中と判断するのに用いられなかった時刻なので、T1〜T3、T6〜T7が連続追従時間として算出される。   Alternatively, the visual recognition time calculation unit 30 indicates the later of the two times when the follow-up determination is changed from x to ○ or Δ in the follow-up determination (in the case of T5 & T6 in FIG. 13B, T6), It may be the earlier of the two times from Δ to × (T3 in the case of T3 & T4 in FIG. 13B). In this case, since only T4 to T5 are times that are not used to determine that tracking is in progress, T1 to T3 and T6 to T7 are calculated as continuous tracking times.

なお、視認時間計算部30は、図13(b)のT7より後の時刻、及びT1よりも前の時刻においても連続視認時間を計算する。   In addition, the visual recognition time calculation part 30 calculates continuous visual recognition time also in the time after T7 of FIG.13 (b), and the time before T1.

必要視認時間決定部32は、現在の視認対象を視認するのに必要な時間(必要視認時間)を算出する。この時間は、すべての視認対象に対して一律であってもよいし、視認対象によって値を変更しても構わない。   The necessary visual recognition time determination unit 32 calculates the time necessary for visually recognizing the current visual recognition target (necessary visual recognition time). This time may be uniform for all the visual targets, or the value may be changed depending on the visual targets.

例えば、より車の側方にある視認対象に対しては、道路周辺物の可能性が高く、通常は車前方を視認しているところから視線移動して把握を行う必要がある。このため、視認対象が側方に近い場合には、より視認に時間がかかると見做して、視認対象が車前方にある場合よりも必要視認時間を長めに設定しても構わない。現在の視認対象が側方にあるか否かは、例えば、視線データの視線方向と車の前方との成す角度が大きいか否かで判断できる。   For example, it is highly possible that the object to be viewed on the side of the car is a road peripheral object, and it is usually necessary to move the line of sight from the point of view of the front of the car and grasp it. For this reason, when the visual recognition target is close to the side, it may be assumed that the visual recognition takes more time, and the required visual recognition time may be set longer than when the visual recognition target is in front of the vehicle. Whether or not the current visual recognition target is on the side can be determined, for example, based on whether or not the angle formed by the line-of-sight direction of the line-of-sight data and the front of the vehicle is large.

さらに、必要視認時間決定部32は、例えば、注視点画像領域および、その近傍周辺画像の任意画像領域内の画素変化の大きさが大きい場合に、必要視認時間をより長い時間としてもよい。この場合、画素変化として、例えば、注視点画像領域内の画素輝度分散値を用いることができる。視認対象周辺に様々な物体が存在する場合には、画素の変化が大きいと考えられるため、より物体が多くて視認対象を把握するのが難しい。このため、視認に必要な時間を長めにすることで、より確実な視認推定判断ができる。なお、この画素変化は、2時刻の両方の時刻の画素変化を用いてもよいし、どちらか片方の時刻の画素変化を用いてもよい。   Furthermore, the necessary visual recognition time determination unit 32 may set the necessary visual recognition time to a longer time, for example, when the magnitude of pixel change in the arbitrary image region of the gazing point image region and its neighboring peripheral images is large. In this case, for example, a pixel luminance dispersion value in the gazing point image area can be used as the pixel change. When there are various objects around the visual recognition target, it is considered that the change of the pixel is large, and it is difficult to grasp the visual recognition target because there are more objects. For this reason, a more reliable visual estimation estimation can be performed by lengthening the time required for visual recognition. In addition, this pixel change may use the pixel change of both time of 2 time, and may use the pixel change of either one time.

さらに、必要視認時間決定部32は、車載センサ群14から取得した、各時刻の天候や、車の現在位置および現在位置と地図DB42から推定できる周辺状況などによって、必要視認対象時間を変動させてもよい。たとえば、雨天や照度の低い時刻は視認がしにくい、繁華街などの周辺に物体が多い場所は視認しにくい、車が高速移動中は側方の物体(沿道の物体)は視認しにくい、などを考慮して、必要視認時間を設定してもよい。   Furthermore, the necessary visual recognition time determination unit 32 varies the necessary visual recognition target time according to the weather at each time acquired from the in-vehicle sensor group 14, the current position of the car, and the surrounding situation that can be estimated from the map DB 42. Also good. For example, it is difficult to see in rainy weather or when the illumination is low, it is difficult to see places where there are many objects such as downtown, and side objects (roadside objects) are difficult to see while the car is moving at high speed. The necessary viewing time may be set in consideration of the above.

視認判定部34は、視認時間計算部30で視認対象ごとに計算した連続追従時間と、必要視認時間決定部32で計算した各対象に対する必要視認時間とに基づいて、対象を確実に視認できたかどうかを判定する。すなわち、ある時間以上の連続追従時間だった場合には、対象を視認できたと判断する。   The visual recognition determination unit 34 has been able to reliably visually recognize the target based on the continuous follow-up time calculated for each visual target by the visual recognition time calculation unit 30 and the necessary visual recognition time for each target calculated by the necessary visual recognition time determination unit 32. Determine if. That is, when it is a continuous follow-up time that is longer than a certain time, it is determined that the object has been visually recognized.

なお、視認判定部34は、厳密に時間比較をするのではなく、多少の時間推定誤差を勘案して、連続追従時間がやや短めでも視認していたと判断してもよい。また、視認判定部34は、時間だけでなく、その時の視線データの詳しい内容を用いて、さらに精密な判断を行ってもよい。例えば、2時刻間で測定される視線データ群の移動速度が閾値以上を占めているデータの割合を算出し、割合が大きい場合には、より判定時間を長めにとっても構わない。図15に示すように、例えば、視線データを移動速度の大きさによって3つの視線、サッカード、スムースパーシュート、固視に分別する。ここで、最も移動速度が大きい視線が、超高速な移動(跳び)を引き起こす眼球運動によるサッカードという視線である。また、低速移動する視認対象がある場合のみ発生し、ゆるやかな低速視線移動となるのがスムースパーシュートである。更に、厳密には非常に高速な微細振動を行うが大まかにはほぼ固定した視線であるのが固視である。視線データの移動速度が大きい場合は、視認している対象を認識するのが困難なサッカードである可能性が高い。したがって、視認判定部34は、サッカードに属する視線データが多い場合には判定時間を長めにとることで、視線データが実際に認識しているのかを勘案した視認状況の判断が可能となる。   Note that the visual recognition determination unit 34 may determine that the visual recognition is performed even if the continuous follow-up time is slightly shorter in consideration of some time estimation error, instead of strictly comparing the time. The visual recognition determination unit 34 may make a more precise determination using not only the time but also the detailed contents of the visual line data at that time. For example, the ratio of data in which the movement speed of the line-of-sight data group measured between two times occupies a threshold value or more is calculated, and if the ratio is large, the determination time may be longer. As shown in FIG. 15, for example, the line-of-sight data is classified into three lines of sight, saccade, smooth pursuit, and fixation according to the magnitude of the moving speed. Here, the line of sight with the highest movement speed is the line of saccade by eye movement that causes ultra-high-speed movement (jump). Further, the smooth pursuit occurs only when there is a visually recognizing object that moves at a low speed and causes a slow low-speed line-of-sight movement. Furthermore, strictly speaking, the fixation is performed with very high-speed fine vibrations but roughly with a substantially fixed line of sight. When the movement speed of the line-of-sight data is high, there is a high possibility that the saccade is difficult to recognize the object being viewed. Accordingly, the visual recognition determination unit 34 can determine the visual recognition state in consideration of whether the visual line data is actually recognized by taking a longer determination time when there is a large amount of visual line data belonging to the saccade.

わき見判定部36は、視認判定部34で判定した、各視認対象ごとの視認有無を活用し、わき見をしているか否かを判断する。例えば、車の側方に存在する視認対象を視認しているが、車の前方に存在する視認対象を長時間視認していない場合には、わき見判定部36は、わき見発生の可能性が高いと判断する。   The side-view determination unit 36 uses the presence / absence of visual recognition for each visual target determined by the visual recognition determination unit 34 to determine whether a side-view is being performed. For example, when the visual recognition target existing on the side of the car is visually recognized but the visual recognition target existing in front of the vehicle is not visually recognized for a long time, the side-view determination unit 36 has a high possibility of a side-view occurrence. Judge.

このほかに、視認すべき対象物の画像特徴を対象画像特徴DB44においてあらかじめ保持しておき、わき見判定部36は、それらと違う視認対象への長時間視認が発生した場合にわき見と判断してもよい。例えば、高速道路などの視認対象があらかじめ限定できる環境では、標識や先行車、などの大まかな視認すべき対象をあらかじめ用意しておくことが可能である。このようにすることで、よりわき見の判断を正確に実施することができる。   In addition to this, the image features of the object to be visually recognized are stored in advance in the object image feature DB 44, and the side-view determination unit 36 determines that it is a side-view when a long-term view of a different visual target occurs. Also good. For example, in an environment where a visual target such as an expressway can be limited in advance, a rough visual target such as a sign or a preceding vehicle can be prepared in advance. By doing in this way, it is possible to more accurately determine the side effect.

次に、カメラ選定部22、注視点画像領域推定部24、探索窓算出部26、追従判定部28、必要視認時間決定部32による処理の一例について、図16〜図18のフローチャートに沿って説明する。なお、既に説明した各部の処理の詳細については、省略するものとする。   Next, an example of processing by the camera selection unit 22, the gazing point image region estimation unit 24, the search window calculation unit 26, the follow-up determination unit 28, and the necessary visual recognition time determination unit 32 will be described with reference to the flowcharts of FIGS. To do. The details of the processing of each unit already described will be omitted.

図16のステップS10では、カメラ選定部22が、HDD96等に判定開始時刻として現在時刻を記録する。次いで、ステップS12では、カメラ選定部22が、(現在時刻−判定開始時刻)が2時刻の規定時間M以上になったか否かを判断する。ここでの判断が否定された場合には、ステップS14に移行し、カメラ選定部22は、現在時刻を更新した後、ステップS12に戻る。一方、ステップS12の判断が肯定された場合には、ステップS16に移行する。   In step S10 of FIG. 16, the camera selection unit 22 records the current time as the determination start time in the HDD 96 or the like. Next, in step S12, the camera selection unit 22 determines whether or not (current time−determination start time) is equal to or greater than the prescribed time M of 2 hours. If the determination is negative, the process proceeds to step S14, and the camera selection unit 22 updates the current time, and then returns to step S12. On the other hand, if the determination in step S12 is affirmative, the process proceeds to step S16.

ステップS16に移行すると、カメラ選定部22は、判定回数を0とする。次いで、ステップS18では、カメラ選定部22が、必要視認時間を規定初期値Tとし、2時刻の算出結果保存数N=T/Mを算出する。   In step S16, the camera selection unit 22 sets the number of determinations to zero. Next, in step S18, the camera selection unit 22 calculates the required number of viewing times as the specified initial value T and calculates the number of stored calculation results N = T / M at two times.

次いで、ステップS20では、カメラ選定部22が、2時刻として、時刻A(現在時刻−規定時刻M)、時刻B(現在時刻)を決定し、判定回数を1インクリメントする。次いで、ステップS22では、カメラ選定部22が、時刻A、Bにおいてカメラ10が撮像した画像、視線データ、車載センサ群14のデータを取得する。   Next, in step S20, the camera selection unit 22 determines time A (current time-specified time M) and time B (current time) as two times, and increments the determination count by one. Next, in step S <b> 22, the camera selection unit 22 acquires images captured by the camera 10 at times A and B, line-of-sight data, and data on the in-vehicle sensor group 14.

次いで、ステップS24では、カメラ選定部22が、視線方向変化が閾値以上になったか又はカメラ未選定であるか否かを判断する。ここでの判断が肯定された場合には、ステップS26に移行し、カメラ選定部22は、複数のカメラから、1つのカメラを選定し、図17のステップS28に移行する。一方、ステップS24の判断が否定された場合には、ステップS26を経ずに、図17のステップS28に移行する。   Next, in step S24, the camera selection unit 22 determines whether the line-of-sight direction change is equal to or greater than the threshold value or whether the camera is not selected. If the determination here is affirmed, the process proceeds to step S26, and the camera selection unit 22 selects one camera from the plurality of cameras, and proceeds to step S28 in FIG. On the other hand, if the determination in step S24 is negative, the process proceeds to step S28 in FIG. 17 without passing through step S26.

図17のステップS28に移行すると、注視点画像領域推定部24は、視線検出装置12と選定されたカメラ10の位置関係から注視点を特定する(図5(a)参照)。次いで、ステップS30では、注視点画像領域推定部24が、注視点画像領域の大きさを決定する。次いで、ステップS32では、注視点画像領域推定部24が、注視点画像領域を算出する(図5(b)、図6参照)。   When the process proceeds to step S28 in FIG. 17, the gazing point image region estimation unit 24 identifies the gazing point from the positional relationship between the line-of-sight detection device 12 and the selected camera 10 (see FIG. 5A). Next, in step S30, the gazing point image area estimation unit 24 determines the size of the gazing point image area. Next, in step S32, the gazing point image area estimation unit 24 calculates a gazing point image area (see FIGS. 5B and 6).

次いで、ステップS34では、探索窓算出部26が、探索窓を算出する(図7参照)。次いで、ステップS36では、探索窓算出部26が、探索窓を調整する(図8(a)、図8(b)参照)。次いで、ステップS38では、追従判定部28が、時刻Aにおいて撮影された画像でフローを算出する(図10(a)、図12(a)参照)。次いで、ステップS40では、追従判定部28が、時刻Bにおいて撮影された画像でフローを算出する(図10(b)、図12(b)参照)。次いで、ステップS42では、追従判定部28が、フロー算出結果をHDD96等に保存する。その後は、図18のステップS44に移行する。   Next, in step S34, the search window calculation unit 26 calculates a search window (see FIG. 7). Next, in step S36, the search window calculation unit 26 adjusts the search window (see FIGS. 8A and 8B). Next, in step S38, the follow-up determination unit 28 calculates a flow from the image taken at time A (see FIGS. 10A and 12A). Next, in step S40, the follow-up determination unit 28 calculates a flow using an image taken at time B (see FIGS. 10B and 12B). Next, in step S42, the follow-up determination unit 28 stores the flow calculation result in the HDD 96 or the like. Thereafter, the process proceeds to step S44 in FIG.

図18のステップS44に移行すると、必要視認時間決定部32が、必要視認時間が規定初期値Tであるか否かを判断する。このステップS44の判断が肯定された場合には、ステップS46に移行し、必要視認時間決定部32が、時刻Bの注視点画像領域内の輝度分散が閾値以上であるか否かを判断する。このステップS46の判断が否定されると、ステップS48に移行し、必要視認時間決定部32が、時刻Bで、高速走行、雨天、繁華街走行が検知できるか否かを判断する。このステップS48の判断が否定されると、ステップS50に移行し、必要視認時間決定部32が、時刻AB間の視線センサ群のデータに占めるサッカード視線の割合が閾値以上であるか否かを判断する。このステップS50の判断が否定されると、ステップS54に移行する。一方、ステップS44の判断が否定された場合、ステップS46、S48,S50の判断が肯定された場合には、ステップS52において、必要視認時間決定部32が、必要視認時間を長めに補正し、補正後の必要視認時間T’/規定時間Mから2時刻の算出結果保存数Nを補正し、N’とする。その後は、ステップS54に移行する。   When the process proceeds to step S44 in FIG. 18, the necessary visual recognition time determination unit 32 determines whether or not the necessary visual recognition time is the prescribed initial value T. If the determination in step S44 is affirmative, the process proceeds to step S46, and the necessary visual recognition time determination unit 32 determines whether or not the luminance variance in the gazing point image area at time B is equal to or greater than the threshold value. If the determination in step S46 is negative, the process proceeds to step S48, and the required visual recognition time determination unit 32 determines whether high-speed traveling, rainy weather, and downtown driving can be detected at time B. If the determination in step S48 is negative, the process proceeds to step S50, and the necessary visual recognition time determination unit 32 determines whether or not the ratio of the saccade line of sight to the data of the line-of-sight sensor group during time AB is greater than or equal to the threshold value. to decide. If the determination in step S50 is negative, the process proceeds to step S54. On the other hand, if the determination in step S44 is negative, or if the determinations in steps S46, S48, and S50 are affirmative, in step S52, the required visual recognition time determination unit 32 corrects the required visual recognition time to be longer and corrects it. The number of stored calculation results N at the second time is corrected from the necessary necessary viewing time T ′ / specified time M later, and is set to N ′. Thereafter, the process proceeds to step S54.

ステップS54に移行すると、追従判定部28は、現在の判定回数が、現在の2時刻の算出結果保存数N(N’)を超えたか否かを判断する。このステップS54の判断が否定された場合には、図16のステップS20に戻るが、肯定された場合には、ステップS56に移行する。   In step S54, the follow-up determination unit 28 determines whether or not the current determination count has exceeded the current two-time calculation result storage number N (N ′). If the determination in step S54 is negative, the process returns to step S20 in FIG. 16, but if the determination is positive, the process proceeds to step S56.

ステップS56に移行すると、追従判定部28は、保存しているすべての2時刻に対し、(フロー算出できた数/全時刻数)の算出率を求める(図14)。   When the process proceeds to step S56, the follow-up determination unit 28 obtains a calculation rate of (number of flow calculations / total number of times) for all two saved times (FIG. 14).

次いで、ステップS58では、追従判定部28が、算出数が閾値を超えたか否かを判断する。このステップS58の判断が肯定された場合には、追従判定部28は、ステップS60に移行し、時刻AB間で追従視が続行中であると判断し、図16のステップS16に戻る。一方、ステップS58の判断が否定された場合には、ステップS62において、追従判定部28が、時刻AB間で追従視が終了したと判断する。その後は、図16のステップS16に戻る。   Next, in step S58, the follow-up determination unit 28 determines whether or not the calculated number exceeds a threshold value. If the determination in step S58 is affirmative, the tracking determination unit 28 proceeds to step S60, determines that tracking vision is continuing between times AB, and returns to step S16 in FIG. On the other hand, if the determination in step S58 is negative, in step S62, the tracking determination unit 28 determines that the tracking vision has ended between times AB. Thereafter, the process returns to step S16 in FIG.

なお、視認時間計算部30、視認判定部34、わき見判定部36は、図16〜図18の処理の結果得られる情報を用いて、上述した処理を実行する。   Note that the visual recognition time calculation unit 30, the visual recognition determination unit 34, and the side-view determination unit 36 perform the above-described processing using information obtained as a result of the processing in FIGS.

以上、詳細に説明したように、本実施形態によると、注視点画像領域推定部24が、時刻A(1時刻目)と時刻B(2時刻目)のそれぞれにおいてドライバが注視する注視点の情報(注視点及び注視点画像領域)を取得する。そして、探索窓算出部26は、時刻Aの注視点と時刻Bの注視点を含む所定範囲(探索窓L)を特定し、追従判定部28は、時刻Aの画像の探索窓L内の範囲と、時刻Bの画像の探索窓L内の範囲とにおいて共通する対象が撮像されているか否かに基づいてドライバの視線が視認対象に追従しているか否かを判定する。これにより、例えば、図19に示すように、ドライバ視点とカメラに視差があり、視認対象が移動した場合の視線方向の変化ベクトルと、画像上での視認対象の移動ベクトルがほぼ反対向きになるような場合であっても、ドライバの視線が対象に追従しているか否かを精度よく判定することができる。また、本実施形態によれば、路肩静止物以外の物体をドライバが追従視している場合にも、物体の動きを考慮しつつ、ドライバの追従視の有無を精度よく判定することができる。   As described above in detail, according to the present embodiment, the gazing point image area estimation unit 24 is information of the gazing point that the driver gazes at each of time A (first time) and time B (second time). (Gaze point and gaze point image area) are acquired. Then, the search window calculation unit 26 specifies a predetermined range (search window L) including the watch point at time A and the watch point at time B, and the follow-up determination unit 28 sets the range within the search window L of the image at time A. Whether or not the driver's line of sight is following the visual recognition target is determined based on whether or not a common target is captured in the search window L of the image at time B. Accordingly, for example, as shown in FIG. 19, there is a parallax between the driver viewpoint and the camera, and the change vector of the line-of-sight direction when the visual target moves and the movement vector of the visual target on the image are almost opposite to each other. Even in such a case, it can be accurately determined whether or not the driver's line of sight follows the target. Further, according to the present embodiment, even when the driver is following an object other than a roadside stationary object, it is possible to accurately determine the presence or absence of the driver's follow-up while considering the movement of the object.

また、本実施形態では、追従判定部28は、時刻A(1時刻目)の画像における時刻Aの注視点に対応する範囲の画像と類似する画像が時刻B(2時刻目)の画像の探索窓Lの範囲に存在しているか、及び時刻Bの画像における時刻Bの注視点に対応する範囲の画像と類似する画像が時刻Aの画像の探索窓Lの範囲に存在しているか、に基づいて、ドライバの視線が視認対象に追従しているかを判定する。これにより、いずれか一方に基づいて判定する場合よりも、注視点画像領域や探索窓Lの誤差等による影響を受けずに、ドライバの視線が視認対象に追従しているかを精度よく判定することができる。   In this embodiment, the follow-up determination unit 28 searches for an image similar to the image in the range corresponding to the point of interest at time A in the image at time A (first time) at the time B (second time). Based on whether it exists in the range of the window L and whether an image similar to the image in the range corresponding to the gazing point at the time B in the image at the time B exists in the range of the search window L of the image at the time A Then, it is determined whether the driver's line of sight follows the object to be viewed. As a result, it is possible to accurately determine whether the driver's line of sight follows the visual target without being affected by the error of the gazing point image area or the search window L, as compared with the case where the determination is based on either one. Can do.

また、本実施形態では、車に搭載されている複数のカメラとドライバ視点との視差を考慮して、最適なカメラを選定するため、この点からもドライバの視線が視認対象に追従しているかを精度よく判定することができる。また、最適なカメラを選定することにより、カメラの死角による判定精度の低下を抑制することもできる。   In this embodiment, the optimal camera is selected in consideration of the parallax between a plurality of cameras mounted on the car and the driver viewpoint, so that the driver's line of sight also follows the visual target from this point. Can be accurately determined. Further, by selecting an optimal camera, it is possible to suppress a decrease in determination accuracy due to the blind spot of the camera.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備える視線状態判定装置。
(付記2) 前記判定部は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記1に記載の視線状態判定装置。
(付記3) 前記判定部は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記1又は2に記載の視線状態判定装置。
(付記4) 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータに実行させる視線状態判定プログラム。
(付記5) 前記判定する処理は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記4に記載の視線状態判定プログラム。
(付記6) 前記判定する処理は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記4又は5に記載の視線状態判定プログラム。
(付記7)
第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータが実行する視線状態判定方法。
(付記8) 前記判定する処理は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記7に記載の視線状態判定方法。
(付記9) 前記判定する処理は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記7又は8に記載の視線状態判定方法。
In addition, the following additional remarks are disclosed regarding description of the above embodiment.
(Additional remark 1) The acquisition part which acquires the information of the gaze point which a user gazes in each of 1st time and 2nd time which passed predetermined time from this 1st time,
A specifying unit for specifying a predetermined range including the gazing point at the first time and the gazing point at the second time;
The user's line of sight based on whether or not a common object is captured in a range corresponding to the predetermined range of the image at the first time and a range corresponding to the predetermined range of the image at the second time. A line-of-sight state determination apparatus comprising: a determination unit that determines the state of
(Supplementary Note 2) In the determination unit, an image similar to an image in a range corresponding to the gazing point at the first time in the image at the first time corresponds to the predetermined range of the image at the second time. An image that exists in the range and / or is similar to the image in the range corresponding to the gaze point at the second time in the image at the second time corresponds to the predetermined range of the image at the first time The line-of-sight state determination apparatus according to appendix 1, wherein the line-of-sight state of the user is determined based on whether the line of sight exists within a range to be displayed.
(Additional remark 3) The said determination part determines whether the user's gaze is following the said object, The gaze state determination apparatus of Additional remark 1 or 2 characterized by the above-mentioned.
(Supplementary Note 4) Acquiring information on a gazing point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time,
A predetermined range including the gazing point at the first time and the gazing point at the second time,
The user's line of sight based on whether there is a common target in the range corresponding to the predetermined range of the image at the first time and the range corresponding to the predetermined range of the image at the second time. Determine the status of
A line-of-sight determination program that causes a computer to execute processing.
(Supplementary Note 5) In the determination process, an image similar to an image in a range corresponding to the gazing point at the first time in the image at the first time corresponds to the predetermined range of the image at the second time. And / or an image similar to the image in the range corresponding to the gaze point at the second time in the image at the second time is in the predetermined range of the image at the first time. The visual line state determination program according to appendix 4, wherein the visual line state of the user is determined based on whether the line of sight exists in a corresponding range.
(Additional remark 6) The said determination process determines whether the user's visual line is following the said object, The visual line state determination program of Additional remark 4 or 5 characterized by the above-mentioned.
(Appendix 7)
Obtaining information of a gaze point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time;
A predetermined range including the gazing point at the first time and the gazing point at the second time,
The user's line of sight based on whether there is a common target in the range corresponding to the predetermined range of the image at the first time and the range corresponding to the predetermined range of the image at the second time. Determine the status of
A gaze state determination method in which processing is executed by a computer.
(Supplementary Note 8) In the determination process, an image similar to an image in a range corresponding to the gazing point at the first time in the image at the first time corresponds to the predetermined range of the image at the second time. And / or an image similar to the image in the range corresponding to the gaze point at the second time in the image at the second time is in the predetermined range of the image at the first time. The gaze state determination method according to appendix 7, wherein the gaze state of the user is determined based on whether or not it exists in a corresponding range.
(Additional remark 9) The said determination process determines whether the user's visual line is following the said object, The gaze state determination method of Additional remark 7 or 8 characterized by the above-mentioned.

20 情報処理装置(視線状態判定装置)
24 注視点画像領域推定部(取得部)
26 探索窓算出部(特定部)
28 追従判定部(判定部)
20 Information processing device (Gaze state determination device)
24 Gaze point image area estimation unit (acquisition unit)
26 Search window calculation part (specific part)
28 Tracking determination unit (determination unit)

Claims (5)

第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備える視線状態判定装置。
An acquisition unit that acquires information of a gaze point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time;
A specifying unit for specifying a predetermined range including the gazing point at the first time and the gazing point at the second time;
The user's line of sight based on whether or not a common object is captured in a range corresponding to the predetermined range of the image at the first time and a range corresponding to the predetermined range of the image at the second time. A line-of-sight state determination apparatus comprising: a determination unit that determines the state of
前記判定部は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする請求項1に記載の視線状態判定装置。   The determination unit includes an image similar to an image in a range corresponding to the gazing point at the first time in the image at the first time in a range corresponding to the predetermined range of the image at the second time. And / or an image similar to the image in the range corresponding to the gaze point at the second time in the image at the second time exists in the range corresponding to the predetermined range of the image at the first time The gaze state determination apparatus according to claim 1, wherein the gaze state of the user is determined based on whether or not 前記判定部は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする請求項1又は2に記載の視線状態判定装置。   The gaze state determination apparatus according to claim 1, wherein the determination unit determines whether a user's line of sight is following the target. 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータに実行させる視線状態判定プログラム。
Obtaining information of a gaze point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time;
A predetermined range including the gazing point at the first time and the gazing point at the second time,
The user's line of sight based on whether there is a common target in the range corresponding to the predetermined range of the image at the first time and the range corresponding to the predetermined range of the image at the second time. Determine the status of
A line-of-sight determination program that causes a computer to execute processing.
第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータが実行する視線状態判定方法。
Obtaining information of a gaze point that the user gazes at each of a first time and a second time after a predetermined time has elapsed from the first time;
A predetermined range including the gazing point at the first time and the gazing point at the second time,
The user's line of sight based on whether there is a common target in the range corresponding to the predetermined range of the image at the first time and the range corresponding to the predetermined range of the image at the second time. Determine the status of
A gaze state determination method in which processing is executed by a computer.
JP2014095122A 2014-05-02 2014-05-02 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method Withdrawn JP2015211741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014095122A JP2015211741A (en) 2014-05-02 2014-05-02 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014095122A JP2015211741A (en) 2014-05-02 2014-05-02 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method

Publications (1)

Publication Number Publication Date
JP2015211741A true JP2015211741A (en) 2015-11-26

Family

ID=54696428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014095122A Withdrawn JP2015211741A (en) 2014-05-02 2014-05-02 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method

Country Status (1)

Country Link
JP (1) JP2015211741A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019129461A (en) * 2018-01-26 2019-08-01 キヤノン株式会社 Subject recognition device
JP2020113066A (en) * 2019-01-11 2020-07-27 株式会社Jvcケンウッド Video processing device, video processing method, and program
JP2020170375A (en) * 2019-04-04 2020-10-15 国立大学法人京都工芸繊維大学 Gaze object identity determination device and gaze object identity determination program
JP7540711B2 (en) 2020-12-14 2024-08-27 学校法人帝京大学 Automatic eye movement recording system, calculation device, calculation method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019129461A (en) * 2018-01-26 2019-08-01 キヤノン株式会社 Subject recognition device
JP7030545B2 (en) 2018-01-26 2022-03-07 キヤノン株式会社 Subject recognition device
JP2022066266A (en) * 2018-01-26 2022-04-28 キヤノン株式会社 Subject recognition device
JP7358530B2 (en) 2018-01-26 2023-10-10 キヤノン株式会社 Object recognition device and method of controlling the object recognition device
JP2020113066A (en) * 2019-01-11 2020-07-27 株式会社Jvcケンウッド Video processing device, video processing method, and program
JP7275586B2 (en) 2019-01-11 2023-05-18 株式会社Jvcケンウッド Video processing device and video processing method
JP2020170375A (en) * 2019-04-04 2020-10-15 国立大学法人京都工芸繊維大学 Gaze object identity determination device and gaze object identity determination program
JP7287624B2 (en) 2019-04-04 2023-06-06 国立大学法人京都工芸繊維大学 Gaze Object Identity Judgment Device and Gaze Object Identity Judgment Program
JP7540711B2 (en) 2020-12-14 2024-08-27 学校法人帝京大学 Automatic eye movement recording system, calculation device, calculation method and program

Similar Documents

Publication Publication Date Title
EP3864491B1 (en) Method for hmd camera calibration using synchronised image rendered on external display
US10796171B2 (en) Object recognition apparatus, object recognition method, and object recognition program
US10204277B2 (en) Electronic device, traveling lane identifying system, and traveling lane identifying method
CN106740841B (en) Method for detecting lane lines, device and mobile unit based on dynamic control
JP4231884B2 (en) Gaze object detection device and gaze object detection method
US8452528B2 (en) Visual recognition area estimation device and driving support device
JP6092527B2 (en) Segmentation of spatio-temporal data based on user gaze data
KR101716928B1 (en) Image processing method for vehicle camera and image processing apparatus usnig the same
US11473921B2 (en) Method of following a vehicle
CN108162858B (en) Vehicle-mounted monitoring device and method thereof
JP2014181927A (en) Information provision device, and information provision program
US10733774B2 (en) Device and method of displaying heat map on perspective drawing
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
JP2015211741A (en) Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method
KR20180129044A (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
TW201929210A (en) Semiconductor device, imaging system, and program
JP2013109639A (en) Image processing system, server, portable terminal device and image processing method
JP2018005839A (en) Image processing apparatus and image processing method
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
JP2005293479A (en) Object danger decision device
JP7275586B2 (en) Video processing device and video processing method
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP2007218655A (en) Navigation device
JP5935661B2 (en) Intersection guidance system, method and program
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20171225