[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018136895A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2018136895A
JP2018136895A JP2017032855A JP2017032855A JP2018136895A JP 2018136895 A JP2018136895 A JP 2018136895A JP 2017032855 A JP2017032855 A JP 2017032855A JP 2017032855 A JP2017032855 A JP 2017032855A JP 2018136895 A JP2018136895 A JP 2018136895A
Authority
JP
Japan
Prior art keywords
parameter
moving image
determination
event
occurred
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017032855A
Other languages
Japanese (ja)
Other versions
JP6862905B2 (en
Inventor
塚本 明利
Akitoshi Tsukamoto
明利 塚本
渡辺 孝弘
Takahiro Watanabe
孝弘 渡辺
孝光 渡邉
Takamitsu Watanabe
孝光 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017032855A priority Critical patent/JP6862905B2/en
Publication of JP2018136895A publication Critical patent/JP2018136895A/en
Application granted granted Critical
Publication of JP6862905B2 publication Critical patent/JP6862905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To meet the need for the provision of a technology that makes it possible to determine with higher accuracy whether or not there is occurrence of a prescribed event in a moving image captured by an imaging device.SOLUTION: Provided is an image processing device comprising: a data acquisition unit for acquiring multiple combinations of candidate parameters arranged in an ascending or descending order from beginning to tail, and an input moving image; and a parameter specification unit for determining, using the multiple combinations of candidate parameters in order from the beginning, whether or not there is occurrence of a prescribed event in the input moving image, repeatedly until at least the determination result changes, and specifying a parameter for determination for determining, on the basis of a candidate parameter with which the determination result changes, whether or not there is occurrence of the event in the captured moving image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置およびプログラムに関する。   The present invention relates to an image processing apparatus and a program.

従来、撮像装置によって撮像された動画像に基づいて、撮像された動画像(撮像動画像)に所定の事象が生じているか否かを判定する技術が知られている。例えば、撮像動画像に写る被写体の動きを検出し、被写体の動きと所定のパラメータとを比較することによって、撮像動画像に所定の事象が生じているか否かを判定する技術が知られている(例えば、特許文献1参照)。かかる技術においては、撮像装置の設置場所、および、1秒あたりの撮像フレーム数に従って、パラメータが選択される。   2. Description of the Related Art Conventionally, a technique for determining whether or not a predetermined event has occurred in a captured moving image (captured moving image) based on a moving image captured by an imaging apparatus is known. For example, a technique is known in which whether or not a predetermined event has occurred in a captured moving image is detected by detecting the motion of the subject in the captured moving image and comparing the motion of the subject with a predetermined parameter. (For example, refer to Patent Document 1). In such a technique, parameters are selected according to the installation location of the imaging device and the number of imaging frames per second.

特開2004−248090号公報JP 2004-248090 A

しかしながら、撮像装置によって撮像された動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術が提供されることが望まれる。例えば、パラメータの特定をより適切に行うことによって、より適切に特定したパラメータに基づいて、動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術が提供されることが望まれる。   However, it is desirable to provide a technique that can determine with high accuracy whether or not a predetermined event has occurred in a moving image captured by an imaging device. For example, a technique is provided that makes it possible to more accurately determine whether or not a predetermined event has occurred in a moving image based on a more appropriately specified parameter by specifying the parameter more appropriately. It is hoped that

上記問題を解決するために、本発明のある観点によれば、先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、を備える、画像処理装置が提供される。   In order to solve the above problem, according to an aspect of the present invention, a data acquisition unit that acquires a plurality of candidate parameters and input moving images arranged in ascending or descending order from the beginning to the end, and the plurality of types Using the candidate parameters in order from the beginning, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image at least until the determination result changes, and based on the candidate parameter in which the determination result changes, the captured moving image There is provided an image processing apparatus comprising: a parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred in an image.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定し、前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータの一つ前の候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータを、前記判定用パラメータとして特定してよい。   The parameter specifying unit, when the input moving image in which the event has not occurred is acquired by the data acquisition unit, candidate parameters that are no longer determined that the event has occurred in the input moving image, or The candidate parameter immediately before the candidate parameter that has started to be determined that the event has occurred in the input moving image is specified as the determination parameter, and the input in which the event has occurred by the data acquisition unit When a moving image is acquired, a candidate parameter immediately before a candidate parameter that is no longer determined that the event has occurred in the input moving image, or the event has occurred in the input moving image The candidate parameter that has begun to be determined may be specified as the determination parameter.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定してよい。   The parameter specifying unit, when the input moving image in which the event has not occurred is acquired by the data acquisition unit, candidate parameters that are no longer determined that the event has occurred in the input moving image, or A candidate parameter immediately before a candidate parameter that has started to be determined that the event has occurred in the input moving image may be specified as the determination parameter.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータを、前記判定用パラメータとして特定してよい。   When the input moving image in which the event has not occurred is acquired by the data acquisition unit, the parameter specifying unit determines candidate parameters that are no longer determined that the event has occurred in the input moving image, You may specify as a parameter for determination.

前記パラメータ特定部は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定してよい。   The parameter specifying unit is one of the candidate parameters that has started to determine that the event has occurred in the input moving image when the input moving image in which the event has not occurred is acquired by the data acquisition unit The previous candidate parameter may be specified as the determination parameter.

前記画像処理装置は、前記判定用パラメータを用いて、前記撮像動画像に前記事象が生じているか否かを判定する状態判定部を備えてよい。   The image processing apparatus may include a state determination unit that determines whether the event has occurred in the captured moving image using the determination parameter.

前記画像処理装置は、前記撮像動画像に前記事象が生じていると判定された場合、前記事象の検知結果の表示を制御する検知結果表示制御部を備えてよい。   The image processing apparatus may include a detection result display control unit that controls display of the detection result of the event when it is determined that the event has occurred in the captured moving image.

前記パラメータ特定部は、前記入力動画像に基づいて、第1の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第1の平均特徴量として算出するとともに前記第1の時間範囲よりも短い第2の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第2の平均特徴量として算出し、前記第1の平均特徴量と前記第2の平均特徴量とに応じた所定の演算結果と閾値との関係に基づいて、前記入力動画像に前記事象が生じているか否かを判定してよい。   The parameter specifying unit calculates, as a first average feature amount, an average value for each corresponding position of the optical flow in the first time range based on the input moving image, and is shorter than the first time range. An average value for each corresponding position of the optical flow in the two time ranges is calculated as a second average feature amount, and a predetermined calculation result and a threshold value according to the first average feature amount and the second average feature amount Whether or not the event has occurred in the input moving image may be determined based on the relationship between

前記判定用パラメータは、前記第1の時間範囲、前記第2の時間範囲、および、前記閾値の少なくともいずれか一つを含んでよい。   The determination parameter may include at least one of the first time range, the second time range, and the threshold value.

前記判定用パラメータは、前記オプティカルフローが算出される時間的な密度、および、前記オプティカルフローが算出される空間的な密度の少なくともいずれか一つを含んでよい。   The determination parameter may include at least one of a temporal density at which the optical flow is calculated and a spatial density at which the optical flow is calculated.

前記画像処理装置は、前記撮像動画像に基づいて検出されたオプティカルフローに応じた表示を制御するオプティカルフロー表示制御部と、前記判定用パラメータの変更操作が入力された場合、前記判定用パラメータを変更するパラメータ変更部と、を備えてよい。   The image processing device, when an optical flow display control unit that controls display according to an optical flow detected based on the captured moving image and an operation for changing the determination parameter are input, the determination parameter A parameter changing unit to be changed.

前記パラメータ特定部は、過去に使用されたパラメータが記録されている場合、前記過去に使用されたパラメータを用いて、前記入力動画像に前記過去に使用されたパラメータに対応する事象が生じているか否かを判定し、前記画像処理装置は、前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていないと判定された場合、または、前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていると判定された場合、前記過去に使用されたパラメータおよび前記過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御するパラメータ情報表示制御部を備えてよい。   When the parameter used in the past is recorded, the parameter specifying unit uses the parameter used in the past to determine whether an event corresponding to the parameter used in the past occurs in the input moving image. The image processing apparatus determines whether the event has occurred in the input moving image by the parameter specifying unit when the input moving image in which the event has not occurred is acquired by the data acquisition unit. When it is determined that there is no event, or when the input moving image in which the event has occurred is acquired by the data acquisition unit, and it is determined that the event has occurred in the input moving image by the parameter specifying unit If it is, at least one of the table used in the past and the information related to the parameter used in the past It may comprise parameter information display control unit that controls.

前記過去に使用されたパラメータに関連する情報は、前記過去に使用されたパラメータを用いて判定がなされた事象の種類、前記判定に使用された動画像を撮像した撮像装置による撮像距離、および、前記撮像装置の画角の少なくともいずれか一つを含んでよい。   The information related to the parameters used in the past includes the types of events determined using the parameters used in the past, the imaging distance by the imaging device that captured the moving image used for the determination, and It may include at least one of the angles of view of the imaging device.

前記パラメータ特定部は、前記過去に使用されたパラメータの選択操作が入力された場合、前記過去に使用されたパラメータを前記判定用パラメータとして特定してよい。   The parameter specifying unit may specify the parameter used in the past as the determination parameter when a selection operation of the parameter used in the past is input.

前記パラメータ特定部は、前記入力動画像上に設けた領域ごとの前記事象に基づいて、前記領域ごとに前記判定用パラメータを特定してよい。   The parameter specifying unit may specify the determination parameter for each region based on the event for each region provided on the input moving image.

また、本発明の別の観点によれば、コンピュータを、先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、を備える、画像処理装置として機能させるためのプログラムが提供される。   Further, according to another aspect of the present invention, the computer is configured to acquire a plurality of candidate parameters and input moving images arranged in ascending or descending order from the beginning to the end, and the plurality of candidate parameters. Are used in order from the beginning, repeatedly determining whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter that changes the determination result, A program for functioning as an image processing apparatus is provided, comprising: a parameter specifying unit that specifies a determination parameter for determining whether or not the event has occurred.

以上説明したように本発明によれば、撮像装置によって撮像された動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術が提供される。   As described above, according to the present invention, there is provided a technique capable of determining with high accuracy whether or not a predetermined event has occurred in a moving image captured by an imaging device.

第1の実施形態に係る画像処理システムの構成例を示す図である。1 is a diagram illustrating a configuration example of an image processing system according to a first embodiment. 第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 1st Embodiment. 車両走行ルートの変化が時系列に沿って撮像装置によって撮像された複数の画像の例を示す図である。It is a figure which shows the example of the some image by which the change of the vehicle travel route was imaged with the imaging device along the time series. 状態判定部の機能を説明するための図である。It is a figure for demonstrating the function of a state determination part. 判定用パラメータの例を示す図である。It is a figure showing an example of a parameter for judgment. 判定用パラメータを特定する手法の第1の例を説明するための図である。It is a figure for demonstrating the 1st example of the method of specifying the parameter for determination. 判定用パラメータを特定する手法の第2の例を説明するための図である。It is a figure for demonstrating the 2nd example of the method of specifying the parameter for determination. 判定用パラメータを特定する手法の第3の例を説明するための図である。It is a figure for demonstrating the 3rd example of the method of specifying the parameter for determination. 判定用パラメータを特定する手法の第4の例を説明するための図である。It is a figure for demonstrating the 4th example of the method of specifying the parameter for determination. 第1の実施形態に係る画像処理システムにおける判定用パラメータ特定の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the parameter for determination in the image processing system which concerns on 1st Embodiment. 異常検知領域の表示例を示す図である。It is a figure which shows the example of a display of an abnormality detection area | region. 第1の実施形態に係る画像処理システムにおける状態判定の動作例を示すフローチャートである。5 is a flowchart illustrating an example of an operation for determining a state in the image processing system according to the first embodiment. 第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 2nd Embodiment. オプティカルフローの表示例を示す図である。It is a figure which shows the example of a display of an optical flow. 第2の実施形態に係る画像処理システムにおける判定用パラメータ変更の動作例を示すフローチャートである。10 is a flowchart illustrating an operation example of determination parameter change in the image processing system according to the second embodiment. 第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 3rd Embodiment. 過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の例を示す図である。It is a figure which shows the example of the information relevant to the parameter used in the past, and the parameter used in the past. 過去に使用されたパラメータを用いた判定結果の例を示す図である。It is a figure which shows the example of the determination result using the parameter used in the past. 過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の表示例を示す図である。It is a figure which shows the example of a display of the information relevant to the parameter used in the past, and the parameter used in the past. 第4の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 4th Embodiment. 領域ごとの座標と事象の種類との対応関係の例を示す図である。It is a figure which shows the example of the correspondence of the coordinate for every area | region, and the kind of event. 第4の実施形態に係る画像処理システムにおける判定用パラメータ特定の動作例を示すフローチャートである。14 is a flowchart illustrating an example of an operation for specifying a determination parameter in the image processing system according to the fourth embodiment. 本発明の実施形態に係る画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the image processing apparatus which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different numerals to the same reference numerals. However, when there is no need to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given. In addition, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, in the case where it is not necessary to particularly distinguish each of similar components of different embodiments, only the same reference numerals are given.

(0.概要)
まず、本実施形態の概要について説明する。一般的に、撮像装置によって撮像された動画像に基づいて、撮像された動画像(撮像動画像)に所定の事象が生じているか否かを判定する技術が知られている。例えば、撮像動画像に写る被写体の動きを検出し、被写体の動きと所定のパラメータとを比較することによって、撮像動画像に所定の事象が生じているか否かを判定する技術が知られている(例えば、特許文献1参照)。かかる技術においては、撮像装置の設置場所、および、1秒あたりの撮像フレーム数に従って、パラメータが選択される。
(0. Overview)
First, an outline of the present embodiment will be described. In general, a technique for determining whether or not a predetermined event has occurred in a captured moving image (captured moving image) based on a moving image captured by an imaging apparatus is known. For example, a technique is known in which whether or not a predetermined event has occurred in a captured moving image is detected by detecting the motion of the subject in the captured moving image and comparing the motion of the subject with a predetermined parameter. (For example, refer to Patent Document 1). In such a technique, parameters are selected according to the installation location of the imaging device and the number of imaging frames per second.

しかし、本明細書においては、撮像装置によって撮像された動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術について主に説明する。例えば、特許文献1に記載された技術においては、試行錯誤しながらパラメータを特定する必要があるため、パラメータの特定に手間が掛かってしまう。本明細書においては、パラメータの特定をより適切に行うことによって、より適切に特定したパラメータに基づいて、動画像に所定の事象が生じているか否かをより高精度に判定することを可能とする技術について主に説明する。   However, in the present specification, a technique that makes it possible to determine with high accuracy whether or not a predetermined event has occurred in a moving image captured by an imaging apparatus will be mainly described. For example, in the technique described in Patent Document 1, it is necessary to specify a parameter through trial and error, and it takes time to specify the parameter. In this specification, it is possible to determine with high accuracy whether or not a predetermined event has occurred in a moving image based on a more appropriately specified parameter by specifying the parameter more appropriately. The technology to do is mainly explained.

以上、本実施形態の背景について説明した。   The background of the present embodiment has been described above.

(1.第1の実施形態)
続いて、第1の実施形態について説明する。
(1. First embodiment)
Next, the first embodiment will be described.

[1−1.システムの概要]
まず、第1の実施形態に係る画像処理システムの構成例について説明する。
[1-1. System overview]
First, a configuration example of the image processing system according to the first embodiment will be described.

図1は、第1の実施形態に係る画像処理システムの構成例を示す図である。図1に示すように、第1の実施形態に係る画像処理システム1Aは、画像処理装置10Aと、撮像装置30とを備える。なお、後に説明する第2の実施形態に係る画像処理システム1Bは、画像処理装置10Aの代わりに画像処理装置10Bを備え、第3の実施形態に係る画像処理システム1Cは、画像処理装置10Aの代わりに画像処理装置10Cを備え、第4の実施形態に係る画像処理システム1Dは、画像処理装置10Aの代わりに画像処理装置10Dを備える。   FIG. 1 is a diagram illustrating a configuration example of an image processing system according to the first embodiment. As illustrated in FIG. 1, an image processing system 1A according to the first embodiment includes an image processing device 10A and an imaging device 30. An image processing system 1B according to the second embodiment described later includes an image processing apparatus 10B instead of the image processing apparatus 10A, and an image processing system 1C according to the third embodiment includes an image processing apparatus 10A. Instead, an image processing apparatus 10C is provided, and an image processing system 1D according to the fourth embodiment includes an image processing apparatus 10D instead of the image processing apparatus 10A.

図1に示すように、画像処理装置10Aおよび撮像装置30は、有線または無線により通信を行うことが可能である。例えば、画像処理装置10Aおよび撮像装置30は、直接接続されていてもよいし、ネットワークを介して接続されていてもよい。画像処理装置10Aおよび撮像装置30がネットワークを介して接続されている場合、かかるネットワークの種類は特に限定されない。例えば、かかるネットワークは、インターネットを含んでいてよい。あるいは、撮像装置30は、画像処理装置10Aと別体ではなく、一体化されていてもよい。   As illustrated in FIG. 1, the image processing apparatus 10 </ b> A and the imaging apparatus 30 can perform communication by wire or wirelessly. For example, the image processing device 10A and the imaging device 30 may be directly connected or may be connected via a network. When the image processing apparatus 10A and the imaging apparatus 30 are connected via a network, the type of the network is not particularly limited. For example, such a network may include the Internet. Alternatively, the imaging device 30 may be integrated with the image processing device 10A instead of a separate body.

撮像装置30は、検出対象領域を含んだ撮像範囲を連続的に撮像して動画像を得る。ここで、撮像装置30が設置される位置は限定されない。また、検出対象領域は、撮像範囲の全体であってもよいし、一部であってもよい。なお、本明細書においては、撮像装置30が固定カメラである場合を主に想定する。しかし、撮像装置30は可動カメラであってもよい。例えば、撮像装置30は、PTZ(パン・チルト・ズーム)カメラであってもよい。撮像装置30によって撮像された動画像は、画像処理装置10Aに提供される。   The imaging device 30 continuously captures an imaging range including a detection target area to obtain a moving image. Here, the position where the imaging device 30 is installed is not limited. Further, the detection target area may be the entire imaging range or a part thereof. In the present specification, it is assumed that the imaging device 30 is a fixed camera. However, the imaging device 30 may be a movable camera. For example, the imaging device 30 may be a PTZ (pan / tilt / zoom) camera. The moving image captured by the imaging device 30 is provided to the image processing device 10A.

画像処理装置10Aは、撮像装置30から提供された動画像を取得する。そして、画像処理装置10Aは、撮像装置30から提供された動画像に基づいて、動画像に所定の事象が生じているか否かを判定する。所定の事象は特に限定されない。本明細書においては、所定の事象の例として、車両走行ルートの変化(例えば、避走など)を主に想定する。しかし、所定の事象は、他の車両走行ルートの変化(例えば、逆走など)であってもよい。   The image processing device 10 </ b> A acquires the moving image provided from the imaging device 30. Then, the image processing apparatus 10 </ b> A determines whether or not a predetermined event has occurred in the moving image based on the moving image provided from the imaging device 30. The predetermined event is not particularly limited. In this specification, as an example of the predetermined event, a change in the vehicle travel route (for example, avoidance) is mainly assumed. However, the predetermined event may be a change in another vehicle travel route (for example, reverse travel).

あるいは、所定の事象は、車両走行ルートの変化以外の何らかの変化(例えば、正常時に規則的な動きを示すものが、異常時に示す規則に反した動きなど)であってもよい。例えば、車両走行ルートの変化は、ベルトコンベア上を搬送される物品の動きの変化に置き換えられてもよいし、人々の流れ(例えば、初詣に参拝する人々の流れなど)の変化に置き換えられてもよい。あるいは、所定の事象は、何らかの自然現象(例えば、土石流、落下物、がけ崩れ、津波、噴火など)であってもよい。なお、以下の説明においては、動画像に所定の事象が生じている状態を「動画像に異常が生じている」や「動画像が異常である」などとも言い、所定の事象が生じている状態の動画像を「異常が生じている動画像」などとも言う。また動画像に所定の事象が生じていない状態を「動画像に異常が生じていない」や「動画像が正常である」などとも言い、所定の事象が生じていない状態の動画像を「異常が生じていない動画像(正常な動画像)」などとも言う。   Alternatively, the predetermined event may be any change other than a change in the vehicle travel route (for example, a movement that shows a regular movement when normal but a movement that violates the rule shown when abnormal). For example, a change in the vehicle travel route may be replaced with a change in the movement of an article conveyed on the belt conveyor, or a change in a flow of people (for example, a flow of people who visit the first class). Also good. Alternatively, the predetermined event may be some natural phenomenon (for example, debris flow, falling object, landslide, tsunami, eruption, etc.). In the following description, a state in which a predetermined event occurs in a moving image is also referred to as “the moving image is abnormal” or “the moving image is abnormal”, and the predetermined event occurs. The moving image in the state is also referred to as “moving image in which an abnormality has occurred” or the like. A state in which a predetermined event has not occurred in a moving image is also referred to as “no abnormality in the moving image” or “a moving image is normal”, and a moving image in which a predetermined event has not occurred It is also referred to as “a moving image in which no occurrence has occurred (normal moving image)”.

このとき、画像処理装置10Aは、動画像に所定の事象が生じているか否かを判定するための判定用パラメータを特定する。画像処理装置10Aは、判定用パラメータを用いて、動画像に所定の事象が生じているか否かを判定する。また、画像処理装置10Aは、所定の事象が生じている領域を検知結果として出力することが可能である。なお、画像処理装置10Aによる判定の詳細については、後に詳細に説明する。   At this time, the image processing apparatus 10A specifies a determination parameter for determining whether or not a predetermined event has occurred in the moving image. The image processing apparatus 10A determines whether a predetermined event has occurred in the moving image using the determination parameter. Further, the image processing apparatus 10 </ b> A can output a region where a predetermined event occurs as a detection result. Details of the determination by the image processing apparatus 10A will be described later in detail.

なお、図1に示した例では、画像処理装置10Aおよび撮像装置30がそれぞれ一つずつ存在する。しかし、画像処理装置10Aおよび撮像装置30は、それらのいずれか一方が複数存在してもよいし、それらの双方それぞれが複数ずつ存在してもよい。すなわち、画像処理装置10Aおよび撮像装置30それぞれの数は特に限定されない。   In the example illustrated in FIG. 1, there is one image processing apparatus 10 </ b> A and one imaging apparatus 30. However, the image processing apparatus 10A and the imaging apparatus 30 may include a plurality of any one of them, or a plurality of both of them. That is, the numbers of the image processing device 10A and the imaging device 30 are not particularly limited.

以上、第1の実施形態に係る画像処理システム1Aの構成例について説明した。   The configuration example of the image processing system 1A according to the first embodiment has been described above.

[1−2.画像処理装置の機能構成例]
続いて、第1の実施形態に係る画像処理装置10Aの機能構成例について説明する。図2は、第1の実施形態に係る画像処理装置10Aの機能構成例を示すブロック図である。図2に示すように、第1の実施形態に係る画像処理装置10Aは、制御部110A、操作部120、通信部130、記憶部140および表示部150を備える。
[1-2. Functional configuration example of image processing apparatus]
Next, a functional configuration example of the image processing apparatus 10A according to the first embodiment will be described. FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus 10A according to the first embodiment. As illustrated in FIG. 2, the image processing apparatus 10A according to the first embodiment includes a control unit 110A, an operation unit 120, a communication unit 130, a storage unit 140, and a display unit 150.

制御部110Aは、CPU(Central Processing Unit)などを含み、記憶部140により記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部110Aは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。   The control unit 110A includes a CPU (Central Processing Unit) and the like, and the function can be realized by the program stored in the storage unit 140 being expanded and executed by the CPU in a RAM (Random Access Memory). At this time, a computer-readable recording medium that records the program can also be provided. Or control part 110A may be constituted by exclusive hardware, and may be constituted by combination of a plurality of hardware.

操作部120は、ユーザから入力される操作を受け付ける。また、操作部120は、ユーザから受け付けた操作を制御部110Aに提供することが可能である。本明細書においては、操作部120がタッチパネルである場合を主に想定するが、操作部120はタッチパネル以外の入力装置(例えば、ボタンなど)であってもよい。   The operation unit 120 receives an operation input from a user. The operation unit 120 can provide the operation received from the user to the control unit 110A. In this specification, the case where the operation unit 120 is a touch panel is mainly assumed. However, the operation unit 120 may be an input device (for example, a button) other than the touch panel.

通信部130は、撮像装置30との間で通信を行うための通信インタフェースである。上記したように、本明細書においては、通信部130が有線による通信を行う場合を主に想定するが、通信部130は、無線による通信を行ってもよい。   The communication unit 130 is a communication interface for performing communication with the imaging device 30. As described above, in this specification, it is mainly assumed that the communication unit 130 performs wired communication, but the communication unit 130 may perform wireless communication.

記憶部140は、制御部110Aを動作させるためのプログラムおよびデータを記憶することが可能な記憶装置である。また、記憶部140は、制御部110Aの動作の過程で必要となる各種データを一時的に記憶することもできる。例えば、記憶装置は、不揮発性の記憶装置であってよい。   Storage unit 140 is a storage device capable of storing a program and data for operating control unit 110A. In addition, the storage unit 140 can temporarily store various data required in the course of the operation of the control unit 110A. For example, the storage device may be a non-volatile storage device.

表示部150は、制御部110Aによる制御に従って出力を行う機能を有する。例えば、表示部150は、制御部110Aによる検知結果を出力することが可能である。ここで、表示部150の形態は特に限定されない。例えば、表示部150は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの表示装置であってよい。   The display unit 150 has a function of performing output according to control by the control unit 110A. For example, the display unit 150 can output a detection result by the control unit 110A. Here, the form of the display unit 150 is not particularly limited. For example, the display unit 150 may be a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or a lamp.

なお、図2に示した例では、操作部120、通信部130、記憶部140および表示部150が、画像処理装置10Aの内部に設けられている。しかし、これらの機能部の一部または全部は、画像処理装置10Aの外部に設けられていてもよい。ここで、制御部110Aは、データ取得部111、パラメータ特定部112A、状態判定部113および検知結果表示制御部114を備える。制御部110Aが備えるこれらの各機能部の詳細については、後に説明する。   In the example shown in FIG. 2, the operation unit 120, the communication unit 130, the storage unit 140, and the display unit 150 are provided inside the image processing apparatus 10A. However, some or all of these functional units may be provided outside the image processing apparatus 10A. Here, the control unit 110A includes a data acquisition unit 111, a parameter identification unit 112A, a state determination unit 113, and a detection result display control unit 114. Details of these functional units included in the control unit 110A will be described later.

以上、第1の実施形態に係る画像処理装置10Aの機能構成例について説明した。   The functional configuration example of the image processing apparatus 10A according to the first embodiment has been described above.

[1−3.機能詳細]
続いて、画像処理システム1Aの機能詳細について説明する。まず、撮像装置30によって撮像された動画像(撮像動画像)に所定の事象が生じているか否かを判定する手法の例として、動画像に車両走行ルートの変化(例えば、避走など)が発生したか否かを判定する例を説明する。しかし、上記したように、動画像に所定の事象が生じているか否かの判定は、動画像に車両走行ルートの変化(例えば、避走など)が発生したか否かの判定に限定されない。
[1-3. detail of function]
Next, details of functions of the image processing system 1A will be described. First, as an example of a method for determining whether or not a predetermined event has occurred in a moving image (captured moving image) captured by the imaging device 30, a change in a vehicle traveling route (for example, avoidance) is included in the moving image. An example of determining whether or not it has occurred will be described. However, as described above, the determination of whether or not a predetermined event has occurred in the moving image is not limited to the determination of whether or not a change in the vehicle travel route (for example, avoidance) has occurred in the moving image.

図3は、車両走行ルートの変化が時系列に沿って撮像装置30によって撮像された複数の画像の例を示す図である。図3を参照すると、撮像装置30によって時系列に沿って撮像された複数の画像の例が示されている。より具体的には、時刻の古いほうから順に、時刻T21において画像G21が撮像され、時刻T22において画像G22が撮像され、時刻T23において画像G23が撮像され、時刻T24において画像G24が撮像されている。   FIG. 3 is a diagram illustrating an example of a plurality of images in which changes in the vehicle travel route are captured by the imaging device 30 in time series. With reference to FIG. 3, an example of a plurality of images captured in time series by the imaging device 30 is shown. More specifically, in order from the oldest time, the image G21 is captured at time T21, the image G22 is captured at time T22, the image G23 is captured at time T23, and the image G24 is captured at time T24. .

ここでは、検出対象領域が画像の全体領域である場合を例として主に説明する。しかし、検出対象領域は、画像の全体領域に限定されない。例えば、検出対象領域は、画像の一部の領域であってもよい。図3を参照すると、画像G21には、規則的な動きを示す車両が写っている。一方、画像G22には、土砂K2によって道路の一部が塞がれてしまったために、その土砂K2を避けるように走行する車両の動きが不規則になっている様子が写っている。画像G23および画像G24にも、不規則な動きを示す車両が写っている。   Here, the case where the detection target area is the entire area of the image will be mainly described as an example. However, the detection target area is not limited to the entire area of the image. For example, the detection target area may be a partial area of the image. Referring to FIG. 3, the image G21 shows a vehicle showing regular movement. On the other hand, since a part of the road is blocked by the earth and sand K2, the image G22 shows that the movement of the vehicle traveling so as to avoid the earth and sand K2 is irregular. The vehicle which shows irregular motion is reflected also in the image G23 and the image G24.

なお、図3に示した画像G21〜G24は、撮像装置30によって撮像された動画像の一部に過ぎない。したがって、画像G21〜G24の間(具体的には、画像G21と画像G22との間、画像G22と画像G23との間、画像G23と画像G24との間)には、撮像装置30によって撮像された他の画像が存在する。撮像装置30によって動画像が撮像されると、撮像装置30によって撮像された動画像は、撮像動画像として画像処理装置10Aに提供される。   Note that the images G <b> 21 to G <b> 24 illustrated in FIG. 3 are only part of the moving image captured by the imaging device 30. Therefore, an image is captured by the imaging device 30 between the images G21 to G24 (specifically, between the image G21 and the image G22, between the image G22 and the image G23, and between the image G23 and the image G24). There are other images. When a moving image is captured by the imaging device 30, the moving image captured by the imaging device 30 is provided to the image processing device 10A as a captured moving image.

画像処理装置10Aにおいては、通信部130が撮像動画像を受信すると、データ取得部111が撮像動画像を取得する。状態判定部113は、データ取得部111によって取得された撮像動画像に異常が生じているか否かを判定する。なお、本明細書においては、状態判定部113が、パラメータ特定部112Aによって特定された判定用パラメータを用いて、撮像動画像に異常が生じているか否かを判定する場合を想定する。パラメータ特定部112Aによる判定用パラメータの特定については、後に詳細に説明する。   In the image processing apparatus 10A, when the communication unit 130 receives a captured moving image, the data acquisition unit 111 acquires the captured moving image. The state determination unit 113 determines whether there is an abnormality in the captured moving image acquired by the data acquisition unit 111. In this specification, it is assumed that the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image using the determination parameter specified by the parameter specification unit 112A. The determination of the determination parameter by the parameter specifying unit 112A will be described in detail later.

図4は、状態判定部113の機能を説明するための図である。図4を参照すると、通信部130によって受信された撮像動画像G2の例が示されている。撮像動画像G2には、図3に示した画像G21〜G24も含まれている。図4に示した例においては、撮像動画像G2に含まれる複数の画像のうち、撮像時刻が新しい画像ほど右側に示されている。状態判定部113は、図4に示すように、撮像動画像G2のうち、隣接する2つの画像間の動きベクトルをそれぞれ画素ごとに算出することによって、オプティカルフローを検出する。図4には、画素ごとの動きベクトル(オプティカルフロー)の時系列に沿った集合が、動き情報群M2として示されている。   FIG. 4 is a diagram for explaining the function of the state determination unit 113. Referring to FIG. 4, an example of a captured moving image G2 received by the communication unit 130 is illustrated. The captured moving image G2 also includes the images G21 to G24 illustrated in FIG. In the example illustrated in FIG. 4, among the plurality of images included in the captured moving image G <b> 2, the image whose imaging time is newer is shown on the right side. As shown in FIG. 4, the state determination unit 113 detects an optical flow by calculating, for each pixel, a motion vector between two adjacent images in the captured moving image G2. In FIG. 4, a set along a time series of motion vectors (optical flow) for each pixel is shown as a motion information group M2.

画像処理装置10Aにおいて、状態判定部113は、第1の時間範囲t21における動きベクトル(オプティカルフロー)の対応位置ごとの平均値を第1の平均特徴量として算出する。以下では、第1の平均特徴量を「長時間動き平均ベクトル」とも言う。なお、動き平均ベクトルは、動きベクトル(数式1)を用いて、以下の(数式2)のように表現され得る。   In the image processing apparatus 10A, the state determination unit 113 calculates an average value for each corresponding position of the motion vector (optical flow) in the first time range t21 as a first average feature amount. Hereinafter, the first average feature amount is also referred to as a “long-time motion average vector”. Note that the motion average vector can be expressed as (Formula 2) below using the motion vector (Formula 1).

Figure 2018136895
Figure 2018136895

Figure 2018136895
Figure 2018136895

図4を参照すると、長時間動き平均ベクトルV21が示されている。ここで、図面の簡便さのため、図4には、長時間動き平均ベクトルV21として、一部の画素における動き平均ベクトルしか示されていない。しかし、本明細書においては、長時間動き平均ベクトルV21が、第1の時間範囲t21において対応する画素ごとに算出された動きベクトルの平均値である場合を想定する。   Referring to FIG. 4, a long-time motion average vector V21 is shown. Here, for the sake of simplicity of the drawing, FIG. 4 shows only the motion average vector for some pixels as the long-time motion average vector V21. However, in this specification, it is assumed that the long-time motion average vector V21 is an average value of motion vectors calculated for each corresponding pixel in the first time range t21.

一方、状態判定部113は、第1の時間範囲t21よりも短い第2の時間範囲t23における動きベクトル(オプティカルフロー)の対応位置ごとの平均値を第2の平均特徴量として算出する。以下では、第2の平均特徴量を「短時間動き平均ベクトル」とも言う。   On the other hand, the state determination unit 113 calculates an average value for each corresponding position of the motion vector (optical flow) in the second time range t23 shorter than the first time range t21 as the second average feature amount. Hereinafter, the second average feature amount is also referred to as a “short-time motion average vector”.

図4を参照すると、短時間動き平均ベクトルV23が示されている。ここで、図面の簡便さのため、図4には、短時間動き平均ベクトルV23として、一部の画素における動き平均ベクトルしか示されていない。しかし、本明細書においては、短時間動き平均ベクトルV23が、第2の時間範囲t23において対応する画素ごとに算出された動きベクトルの平均値である場合を想定する。   Referring to FIG. 4, a short-time motion average vector V23 is shown. Here, for the sake of simplicity of the drawing, FIG. 4 shows only the motion average vector for some pixels as the short-time motion average vector V23. However, in this specification, it is assumed that the short-time motion average vector V23 is an average value of motion vectors calculated for each corresponding pixel in the second time range t23.

図4を参照すると、第1の時間範囲t21と第2の時間範囲t23とが異なるため、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間には、差分が生じている。さらに、画像に何らかのノイズが含まれていたとしても、そのノイズの大部分は平均化によって相殺されてしまう。そのため、短時間動き平均ベクトルV23にはノイズがほとんど含まれなくなり、撮像動画像G2に異常が生じているか否かがより高精度に判定される。   Referring to FIG. 4, since the first time range t21 and the second time range t23 are different, there is a difference between the long-time motion average vector V21 and the short-time motion average vector V23. Furthermore, even if some noise is included in the image, most of the noise is canceled out by averaging. Therefore, the short-time motion average vector V23 contains almost no noise, and it is determined with higher accuracy whether or not an abnormality has occurred in the captured moving image G2.

なお、図4には、第1の時間範囲t21および第2の時間範囲t23の終了時点が現在(すなわち、最新の画像が撮像された時点)である例が示されている。しかし、第1の時間範囲t21および第2の時間範囲t23の終了時点は、厳密に現在でなくてもよい(すなわち、最新の画像よりも前の画像が撮像された時点)であってもよい。また、第1の時間範囲t21および第2の時間範囲t23は、厳密に一致していなくてもよい。すなわち、第1の時間範囲t21および第2の時間範囲t23の終了時点は、ずれていてもよい。   FIG. 4 shows an example in which the end time points of the first time range t21 and the second time range t23 are the current time (that is, the latest image is captured). However, the end time points of the first time range t21 and the second time range t23 may not be strictly current (that is, the time point when the image before the latest image is captured). . Further, the first time range t21 and the second time range t23 do not have to coincide strictly. That is, the end points of the first time range t21 and the second time range t23 may be shifted.

状態判定部113は、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23とに応じた所定の演算結果と閾値との関係に基づいて、撮像動画像G2に異常が生じているか否かを判定する。例えば、状態判定部113は、所定の演算結果が閾値を超える画素が存在する場合に、撮像動画像G2に異常が生じていると判定する。一方、状態判定部113は、所定の演算結果が閾値を超える画素が存在しない場合に、撮像動画像G2に異常が生じていないと判定する。   The state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image G2 based on a relationship between a predetermined calculation result corresponding to the long-time motion average vector V21 and the short-time motion average vector V23 and a threshold value. To do. For example, the state determination unit 113 determines that an abnormality has occurred in the captured moving image G2 when there is a pixel whose predetermined calculation result exceeds a threshold value. On the other hand, the state determination unit 113 determines that there is no abnormality in the captured moving image G2 when there is no pixel whose predetermined calculation result exceeds the threshold.

ここで、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23とに応じた所定の演算は特に限定されない。例えば、所定の演算は、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度(以下、「両ベクトルの間の角度」とも言う。)に応じた量、および、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との差分(以下、「差分ベクトル」とも言う。)の大きさに応じた量のうち、少なくともいずれか一つの演算を含んでもよい。   Here, the predetermined calculation according to the long-time motion average vector V21 and the short-time motion average vector V23 is not particularly limited. For example, the predetermined calculation includes an amount corresponding to an angle between the long-time motion average vector V21 and the short-time motion average vector V23 (hereinafter, also referred to as “an angle between both vectors”), and a long-time motion. It may include at least one calculation among amounts corresponding to the magnitude of the difference between the average vector V21 and the short-time motion average vector V23 (hereinafter also referred to as “difference vector”).

ここで、両ベクトルの間の角度に応じた量は、角度の平均値であってもよいし、角度の分散であってもよい。また、差分ベクトルの大きさに応じた量は、差分ベクトルの大きさの平均値(または合計値)であってもよいし、差分ベクトルの大きさの変化量(例えば、差分ベクトルの大きさの時間による一階微分など)の平均値(または合計値)であってもよいし、差分ベクトルの大きさが所定の大きさを上回る領域(以下、「動き領域」とも言う。)の面積であってもよい。   Here, the amount corresponding to the angle between the two vectors may be an average value of the angles or an angular dispersion. The amount corresponding to the magnitude of the difference vector may be an average value (or total value) of the magnitudes of the difference vectors, or a change amount of the magnitude of the difference vector (for example, the magnitude of the magnitude of the difference vector). It may be an average value (or total value) of first-order derivatives according to time) or an area of a region where the magnitude of the difference vector exceeds a predetermined size (hereinafter also referred to as “motion region”). May be.

上記したように、本例では、車両走行ルートの変化が異常として判定される場合を想定している。ここで、車両走行ルートの変化などといった規則に反した動きが発生した場合には、動きの方向が変化することが想定される。そこで、規則に反した動きの発生が異常として判定される場合、状態判定部113による所定の演算は、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度に応じた量の演算であるのがよい。   As described above, in this example, it is assumed that a change in the vehicle travel route is determined as abnormal. Here, it is assumed that the direction of movement changes when a movement that violates a rule such as a change in the vehicle travel route occurs. Therefore, when it is determined that the occurrence of a motion that violates the rule is abnormal, the predetermined calculation by the state determination unit 113 is an amount corresponding to the angle between the long-time motion average vector V21 and the short-time motion average vector V23. It should be an operation.

本例では、状態判定部113による所定の演算が、両ベクトルの間の角度の分散の演算である場合を例として主に説明する。ここで、動きベクトルは、(数3)のように表現され、動き平均ベクトル(長時間動き平均ベクトルV21および短時間動き平均ベクトルV23それぞれ)は、(数4)のように表現され、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度の平均値は、(数5)のように表現され、両ベクトルの間の角度の分散は、(数式6)のように表現される。   In this example, the case where the predetermined calculation by the state determination unit 113 is calculation of the variance of the angle between both vectors will be mainly described as an example. Here, the motion vector is expressed as in (Equation 3), and the motion average vector (each of the long-time motion average vector V21 and the short-time motion average vector V23) is expressed as (Equation 4). The average value of the angle between the motion average vector V21 and the short-time motion average vector V23 is expressed as (Equation 5), and the variance of the angle between both vectors is expressed as (Equation 6). The

Figure 2018136895
Figure 2018136895

Figure 2018136895
Figure 2018136895

Figure 2018136895
Figure 2018136895

Figure 2018136895
Figure 2018136895

状態判定部113は、所定の演算に基づいて得られた結果(この例では、両ベクトルの間の角度の分散)が閾値を超える画素が存在する場合に、撮像動画像G2に異常が生じていると判定する。一方、状態判定部113は、所定の演算に基づいて得られた結果(この例では、両ベクトルの間の角度の分散)が閾値を超える画素が存在しない場合に、撮像動画像G2に異常が生じていないと判定する。   When there is a pixel whose result (in this example, the angle dispersion between both vectors) obtained based on a predetermined calculation exceeds the threshold, the state determination unit 113 has an abnormality in the captured moving image G2. It is determined that On the other hand, when there is no pixel in which the result obtained based on a predetermined calculation (in this example, the variance of the angle between both vectors) exceeds the threshold, the state determination unit 113 has an abnormality in the captured moving image G2. It is determined that it has not occurred.

以上においては、状態判定部113による所定の演算が、長時間動き平均ベクトルV21と短時間動き平均ベクトルV23との間の角度に応じた量の演算である場合を主に説明した。しかし、上記したように、土石流の発生が異常として判定される場合も想定される。ここで、土石流などといった自然現象が発生した場合には、撮像動画像G2における動きの大きさが変化することが想定される。そこで、自然現象の発生が異常として判定される場合、状態判定部113による所定の演算は、差分ベクトルの大きさに応じた量の演算であるのがよい。   In the above, the case where the predetermined calculation by the state determination unit 113 is the calculation of the amount corresponding to the angle between the long-time motion average vector V21 and the short-time motion average vector V23 has been mainly described. However, as described above, it may be assumed that the occurrence of debris flow is determined to be abnormal. Here, when a natural phenomenon such as debris flow occurs, it is assumed that the magnitude of movement in the captured moving image G2 changes. Therefore, when the occurrence of a natural phenomenon is determined as abnormal, the predetermined calculation by the state determination unit 113 is preferably an amount calculation according to the magnitude of the difference vector.

ここでは、差分ベクトルの大きさに応じた量の演算として、差分ベクトルの大きさの平均値の演算である場合を例として主に説明する。ここで、長時間動き平均ベクトルV21、短時間動き平均ベクトルV23および差分ベクトルの大きさの平均値は、(数式7)のように表現される。   Here, the case where the calculation of the amount according to the magnitude of the difference vector is the calculation of the average value of the magnitudes of the difference vectors will be mainly described as an example. Here, the average value of the magnitudes of the long-time motion average vector V21, the short-time motion average vector V23, and the difference vector is expressed as (Equation 7).

Figure 2018136895
Figure 2018136895

以上において、状態判定部113が、撮像動画像に異常が生じているか否かを判定する例を説明した。上記したように、状態判定部113は、パラメータ特定部112Aによって特定された判定用パラメータを用いて、撮像動画像に異常が生じているか否かを判定する。ここで、判定用パラメータとしては、様々なパラメータが想定される。以下では、判定用パラメータの例について説明する。   The example in which the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image has been described above. As described above, the state determination unit 113 determines whether an abnormality has occurred in the captured moving image using the determination parameter specified by the parameter specification unit 112A. Here, various parameters are assumed as the determination parameters. Below, the example of the parameter for determination is demonstrated.

図5は、判定用パラメータの例を示す図である。図5に示すように、判定用パラメータの種類としては、上記した第1の時間範囲t21、上記した第2の時間範囲t23、(上記した演算結果と比較される)閾値などが想定される。また、図5に示すように、判定用パラメータの種類としては、密度などが想定される。密度は、オプティカルフローが算出される時間的な密度(例えば、1フレームごと、3フレームごとなど)であってもよいし、オプティカルフローが算出される空間的な密度(例えば、1画素ごと、3画素ごとなど)であってもよい。   FIG. 5 is a diagram illustrating examples of determination parameters. As shown in FIG. 5, the types of determination parameters are assumed to be the first time range t21 described above, the second time range t23 described above, a threshold value (compared with the calculation result described above), and the like. Further, as shown in FIG. 5, as the type of determination parameter, density or the like is assumed. The density may be a temporal density at which the optical flow is calculated (for example, every frame, every 3 frames, etc.), or a spatial density at which the optical flow is calculated (for example, every pixel, 3 For each pixel).

かかる判定用パラメータの値が変化した場合、異常が生じているという判定のされやすさは変化することが想定される。以下では、異常が生じているという判定がされやすいことを「異常判定の条件」が「緩い」とも言う。一方、異常が生じているという判定がされにくいことを「異常判定の条件」が「厳しい」とも言う。   When the value of the determination parameter changes, it is assumed that the ease of determination that an abnormality has occurred changes. Hereinafter, the fact that it is easy to determine that an abnormality has occurred is also referred to as “relaxation condition” being “loose”. On the other hand, the fact that it is difficult to determine that an abnormality has occurred is also said that the “abnormality determination condition” is “strict”.

例えば、図5に示すように、判定用パラメータが第1の時間範囲t21である場合、判定用パラメータの値が大きいほど、(第1の時間範囲t21と第2の時間範囲t23との差が大きくなりやすくなり、上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。一方、図5に示すように、判定用パラメータが第2の時間範囲t23である場合、判定用パラメータの値が小さいほど、(第1の時間範囲t21と第2の時間範囲t23との差が大きくなりやすくなり、上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。   For example, as shown in FIG. 5, when the determination parameter is in the first time range t21, the larger the value of the determination parameter (the difference between the first time range t21 and the second time range t23 is. It is assumed that the condition for abnormality determination becomes severe (because the calculation result tends to exceed the threshold value). On the other hand, as shown in FIG. 5, when the determination parameter is the second time range t23, the smaller the determination parameter value is, the smaller the difference between the first time range t21 and the second time range t23 is. It is assumed that the condition for abnormality determination becomes severe (because the calculation result tends to exceed the threshold value).

また、図5に示すように、判定用パラメータが閾値である場合、判定用パラメータの値が小さいほど、(上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。一方、図5に示すように、判定用パラメータが密度である場合、判定用パラメータの値が大きいほど、(上記の長時間動き平均ベクトルと上記の短時間動き平均ベクトルとの差が大きくなりやすくなり、上記の演算結果が閾値を超えやすくなるため)異常判定の条件は厳しくなることが想定される。   Further, as shown in FIG. 5, when the determination parameter is a threshold value, it is assumed that the smaller the determination parameter value, the more severe the condition for abnormality determination (because the above calculation result easily exceeds the threshold value). Is done. On the other hand, as shown in FIG. 5, when the determination parameter is density, the larger the determination parameter value, the greater the difference between the above long-time motion average vector and the above short-time motion average vector. Therefore, it is assumed that the condition for abnormality determination becomes severe (because the above calculation result easily exceeds the threshold).

以下では、パラメータ特定部112Aが、これらの判定用パラメータの一つを特定する例を説明する。しかし、パラメータ特定部112Aは、これらの判定用パラメータのいずれか二つ以上を特定してもよい。かかる場合には、パラメータ特定部112Aは、これらの判定用パラメータのいずれか二つ以上のそれぞれをどのようにして特定してもよい。一例として、パラメータ特定部112Aは、これらの判定用パラメータのいずれか二つ以上のそれぞれを独立的に特定してもよい。   Hereinafter, an example in which the parameter specifying unit 112A specifies one of these determination parameters will be described. However, the parameter specifying unit 112A may specify any two or more of these determination parameters. In such a case, the parameter specifying unit 112A may specify any two or more of these determination parameters. As an example, the parameter specifying unit 112A may specify any two or more of these determination parameters independently.

図6は、判定用パラメータを特定する手法の第1の例を説明するための図である。まず、記憶部140によって、先頭から末尾まで異常判定の条件が厳しい順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が厳しい順とは、第1の時間範囲t21および密度であれば、大きい順(すなわち、降順)に相当し、第2の時間範囲t23および閾値であれば、小さい順(すなわち、昇順)に相当する。候補パラメータは、判定用パラメータの候補に相当する。また、ここでは、複数通りの候補パラメータの例として、異常判定の条件が厳しい順に並べられた候補パラメータP1〜P4が用いられる場合を想定する。しかし、候補パラメータの数は4つに限定されず、複数であればよい。   FIG. 6 is a diagram for explaining a first example of a method for specifying a determination parameter. First, the storage unit 140 stores in advance a plurality of candidate parameters arranged in order of severe abnormality determination conditions from the beginning to the end. For example, the order in which the conditions for abnormality determination are strict corresponds to the first time range t21 and density in the descending order (that is, descending order), and the second time range t23 and threshold value in the ascending order ( That is, it corresponds to ascending order). The candidate parameter corresponds to a determination parameter candidate. Here, it is assumed that candidate parameters P1 to P4 arranged in order of severe abnormality determination conditions are used as examples of a plurality of candidate parameters. However, the number of candidate parameters is not limited to four, and may be plural.

データ取得部111は、記憶部140によって記憶されている候補パラメータP1〜P4を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。なお、本明細書においては、判定用パラメータを特定するための入力動画像と、状態判定部113によって異常が生じているか否かが判定される撮像動画像とにおいて、撮像対象領域が同じである場合を主に想定する。すなわち、判定用パラメータを特定するための入力動画像も、撮像装置30によって撮像されて画像処理装置10Aに提供される場合を主に想定する。しかし、判定用パラメータを特定するための入力動画像と、状態判定部113によって異常が生じているか否かが判定される撮像動画像とにおいて、撮像対象領域は異なっていてもよい。このとき、判定用パラメータを特定するための入力動画像は、あらかじめ記憶部140によって記憶されていてもよい。   The data acquisition unit 111 acquires candidate parameters P1 to P4 stored in the storage unit 140. Further, the data acquisition unit 111 acquires an input moving image for specifying a determination parameter. Note that in this specification, the imaging target region is the same in the input moving image for specifying the determination parameter and the captured moving image in which it is determined whether or not an abnormality has occurred by the state determination unit 113. The case is mainly assumed. That is, the case where the input moving image for specifying the determination parameter is also captured by the imaging device 30 and provided to the image processing device 10A is mainly assumed. However, the imaging target region may be different between the input moving image for specifying the determination parameter and the captured moving image in which it is determined whether or not an abnormality has occurred by the state determination unit 113. At this time, the input moving image for specifying the determination parameter may be stored in advance by the storage unit 140.

図6に示した例では、入力動画像に異常が生じていないこと(正常であること)が確認されている。入力動画像に異常が生じていないことは、どのように確認されてもよい。例えば、入力動画像に異常が生じていないことは入力動画像が撮像されるときに人によって確認されてもよい。あるいは、入力動画像に異常が生じていないことは、あらかじめ記憶部140によって記憶された入力動画像が再生されて表示されたときに人によって確認されてもよい。   In the example shown in FIG. 6, it is confirmed that there is no abnormality (normal) in the input moving image. It may be confirmed in any way that no abnormality has occurred in the input moving image. For example, the fact that no abnormality has occurred in the input moving image may be confirmed by a person when the input moving image is captured. Alternatively, the fact that no abnormality has occurred in the input moving image may be confirmed by a person when the input moving image stored in advance by the storage unit 140 is reproduced and displayed.

パラメータ特定部112Aは、候補パラメータP1〜P4の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。   The parameter specifying unit 112A uses the candidate parameters P1 to P4 in order from the head, and repeatedly determines whether or not an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図6に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP1を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP2を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP2においては、判定結果が「変化なし」である。   In the example illustrated in FIG. 6, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the leading candidate parameter P1, and obtains a determination result “abnormal”. Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P2, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P2, the determination result is “no change”.

続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP3に基づいて、判定用パラメータを特定する。   Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P3, and obtains a determination result “normal”. Accordingly, in the candidate parameter P3, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P3 whose determination result changes.

図6に示した例では、データ取得部111によって異常が生じていない入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定しなくなった候補パラメータ)P3を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。   In the example illustrated in FIG. 6, since the input moving image in which no abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112 </ b> A determines the candidate parameter (that is, the input moving image with respect to the input moving image). The candidate parameter (P3) that is no longer determined to be abnormal is specified as a determination parameter. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113.

さらに、異常が生じている入力動画像をあらかじめ用意するのが困難な場合も想定される。しかし、図6に示した例のように、異常が生じていない入力動画像を用いて判定用パラメータが特定されれば、異常が生じている入力動画像をあらかじめ用意する必要がなくなる。また、図6に示した例のように、異常判定の条件が厳しい順に候補パラメータを用いた判定を行うことによって、異常が生じている画素が検出された時点で次の候補パラメータを用いた判定に処理が移行されるため、処理時間が低減される。   Further, it may be difficult to prepare an input moving image in which an abnormality has occurred in advance. However, as in the example shown in FIG. 6, if the determination parameter is specified using an input moving image in which no abnormality has occurred, it is not necessary to prepare an input moving image in which an abnormality has occurred in advance. Further, as in the example shown in FIG. 6, the determination using the candidate parameter is performed in the order in which the abnormality determination condition is strict, so that the determination using the next candidate parameter is performed when the pixel in which the abnormality occurs is detected. Therefore, the processing time is reduced.

図7は、判定用パラメータを特定する手法の第2の例を説明するための図である。ここでは、記憶部140によって、先頭から末尾まで異常判定の条件が緩い順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が緩い順とは、第1の時間範囲t21および密度であれば、小さい順(すなわち、昇順)に相当し、第2の時間範囲t23および閾値であれば、大きい順(すなわち、降順)に相当する。ここでは、複数通りの候補パラメータの例として、異常判定の条件が緩い順に並べられた候補パラメータP4〜P1が用いられる場合を想定する。   FIG. 7 is a diagram for explaining a second example of a method for specifying a determination parameter. In this case, the storage unit 140 stores in advance a plurality of candidate parameters arranged in order of loose abnormality determination conditions from the beginning to the end. For example, the order in which the condition of abnormality determination is gradual corresponds to the first time range t21 and the density in ascending order (that is, ascending order), and the second time range t23 and the threshold value in the descending order (threshold). That is, it corresponds to descending order). Here, as an example of a plurality of candidate parameters, a case is assumed where candidate parameters P4 to P1 arranged in order of loose abnormality determination conditions are used.

データ取得部111は、記憶部140によって記憶されている候補パラメータP4〜P1を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。図7に示した例では、入力動画像に異常が生じていないこと(正常であること)が確認されている。   The data acquisition unit 111 acquires candidate parameters P4 to P1 stored in the storage unit 140. Further, the data acquisition unit 111 acquires an input moving image for specifying a determination parameter. In the example shown in FIG. 7, it is confirmed that there is no abnormality (normality) in the input moving image.

パラメータ特定部112Aは、候補パラメータP4〜P1の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。   The parameter specifying unit 112A uses the candidate parameters P4 to P1 in order from the head, and repeatedly determines whether an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図7に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP4を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化なし」である。   In the example illustrated in FIG. 7, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the leading candidate parameter P4, and obtains a determination result “normal”. Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P3, and obtains a determination result “normal”. Therefore, in the candidate parameter P3, the determination result is “no change”.

続いて、パラメータ特定部112Aは、続く候補パラメータP2を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP2においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP2に基づいて、判定用パラメータを特定する。   Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P2, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P2, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies a determination parameter based on the candidate parameter P2 whose determination result changes.

図7に示した例では、データ取得部111によって異常が生じていない入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定し始めた候補パラメータ)P2の一つ前の候補パラメータP3を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。   In the example illustrated in FIG. 7, since the input moving image in which no abnormality has occurred is acquired by the data acquiring unit 111, the parameter specifying unit 112A performs the candidate parameter (that is, the input moving image with respect to the input moving image). The candidate parameter P3 immediately before the candidate parameter P2 that has started to be determined as abnormal is specified as the determination parameter. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113.

さらに、異常が生じている入力動画像をあらかじめ用意するのが困難な場合も想定される。しかし、図7に示した例のように、異常が生じていない入力動画像を用いて判定用パラメータが特定されれば、異常が生じている入力動画像をあらかじめ用意する必要がなくなる。   Further, it may be difficult to prepare an input moving image in which an abnormality has occurred in advance. However, as in the example shown in FIG. 7, if the determination parameter is specified using an input moving image in which no abnormality has occurred, it is not necessary to prepare an input moving image in which an abnormality has occurred in advance.

図8は、判定用パラメータを特定する手法の第3の例を説明するための図である。まず、記憶部140によって、先頭から末尾まで異常判定の条件が厳しい順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が厳しい順とは、第1の時間範囲t21および密度であれば、大きい順(すなわち、降順)に相当し、第2の時間範囲t23および閾値であれば、小さい順(すなわち、昇順)に相当する。ここでは、複数通りの候補パラメータの例として、異常判定の条件が厳しい順に並べられた候補パラメータP1〜P4が用いられる場合を想定する。しかし、候補パラメータの数は4つに限定されず、複数であればよい。   FIG. 8 is a diagram for explaining a third example of a method for specifying a determination parameter. First, the storage unit 140 stores in advance a plurality of candidate parameters arranged in order of severe abnormality determination conditions from the beginning to the end. For example, the order in which the conditions for abnormality determination are strict corresponds to the first time range t21 and density in the descending order (that is, descending order), and the second time range t23 and threshold value in the ascending order ( That is, it corresponds to ascending order). Here, as an example of a plurality of candidate parameters, it is assumed that candidate parameters P1 to P4 arranged in order of severe abnormality determination conditions are used. However, the number of candidate parameters is not limited to four, and may be plural.

データ取得部111は、記憶部140によって記憶されている候補パラメータP1〜P4を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。   The data acquisition unit 111 acquires candidate parameters P1 to P4 stored in the storage unit 140. Further, the data acquisition unit 111 acquires an input moving image for specifying a determination parameter.

図8に示した例では、入力動画像に異常が生じていることが確認されている。入力動画像に異常が生じていることは、どのように確認されてもよい。例えば、入力動画像に異常が生じていることは入力動画像が撮像されるときに人によって確認されてもよい。あるいは、入力動画像に異常が生じていることは、あらかじめ記憶部140によって記憶された入力動画像が再生されて表示されたときに人によって確認されてもよい。   In the example shown in FIG. 8, it is confirmed that an abnormality has occurred in the input moving image. It may be confirmed in any way that an abnormality has occurred in the input moving image. For example, the occurrence of an abnormality in the input moving image may be confirmed by a person when the input moving image is captured. Alternatively, the occurrence of an abnormality in the input moving image may be confirmed by a person when the input moving image stored in advance by the storage unit 140 is reproduced and displayed.

パラメータ特定部112Aは、候補パラメータP1〜P4の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。   The parameter specifying unit 112A uses the candidate parameters P1 to P4 in order from the head, and repeatedly determines whether or not an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図8に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP1を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP2を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP2においては、判定結果が「変化なし」である。続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化なし」である。   In the example illustrated in FIG. 8, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the leading candidate parameter P1, and obtains a determination result “abnormal”. Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P2, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P2, the determination result is “no change”. Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P3, and obtains a determination result “abnormal”. Therefore, in the candidate parameter P3, the determination result is “no change”.

続いて、パラメータ特定部112Aは、続く候補パラメータP4を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。したがって、候補パラメータP4においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP4に基づいて、判定用パラメータを特定する。   Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P4, and obtains a determination result “normal”. Accordingly, in the candidate parameter P4, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P4 whose determination result changes.

図8に示した例では、データ取得部111によって異常が生じている入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定しなくなった候補パラメータ)P4の一つ前の候補パラメータP4を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。   In the example illustrated in FIG. 8, since the input moving image in which an abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112A determines whether the candidate parameter whose determination result changes (that is, the input moving image The candidate parameter P4 immediately before the candidate parameter P4 that is no longer determined to be abnormal is specified as the determination parameter. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113.

さらに、図8に示した例のように、異常判定の条件が厳しい順に候補パラメータを用いた判定を行うことによって、異常が生じている画素が検出された時点で次の候補パラメータを用いた判定に処理が移行されるため、処理時間が低減される。   Further, as in the example shown in FIG. 8, the determination using the candidate parameter is performed in the order in which the abnormality determination condition is strict, and the determination using the next candidate parameter is performed when the pixel in which the abnormality occurs is detected. Therefore, the processing time is reduced.

図9は、判定用パラメータを特定する手法の第4の例を説明するための図である。ここでは、記憶部140によって、先頭から末尾まで異常判定の条件が緩い順に並べられた複数通りの候補パラメータがあらかじめ記憶されている。例えば、異常判定の条件が緩い順とは、第1の時間範囲t21および密度であれば、小さい順(すなわち、昇順)に相当し、第2の時間範囲t23および閾値であれば、大きい順(すなわち、降順)に相当する。ここでは、複数通りの候補パラメータの例として、異常判定の条件が緩い順に並べられた候補パラメータP4〜P1が用いられる場合を想定する。   FIG. 9 is a diagram for explaining a fourth example of a method for specifying a determination parameter. In this case, the storage unit 140 stores in advance a plurality of candidate parameters arranged in order of loose abnormality determination conditions from the beginning to the end. For example, the order in which the condition of abnormality determination is gradual corresponds to the first time range t21 and the density in ascending order (that is, ascending order), and the second time range t23 and the threshold value in the descending order (threshold). That is, it corresponds to descending order). Here, as an example of a plurality of candidate parameters, a case is assumed where candidate parameters P4 to P1 arranged in order of loose abnormality determination conditions are used.

データ取得部111は、記憶部140によって記憶されている候補パラメータP4〜P1を取得する。また、データ取得部111は、判定用パラメータを特定するための入力動画像を取得する。図9に示した例では、入力動画像に異常が生じていることが確認されている。   The data acquisition unit 111 acquires candidate parameters P4 to P1 stored in the storage unit 140. Further, the data acquisition unit 111 acquires an input moving image for specifying a determination parameter. In the example shown in FIG. 9, it is confirmed that an abnormality has occurred in the input moving image.

パラメータ特定部112Aは、候補パラメータP4〜P1の先頭から順に用いて、入力動画像に異常が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定する。そして、パラメータ特定部112Aは、判定結果が変化する候補パラメータに基づいて、判定用パラメータを特定する。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。   The parameter specifying unit 112A uses the candidate parameters P4 to P1 in order from the head, and repeatedly determines whether an abnormality has occurred in the input moving image until at least the determination result changes. Then, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter whose determination result changes. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

図9に示した例では、パラメータ特定部112Aは、先頭の候補パラメータP4を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「正常」を得ている。続いて、パラメータ特定部112Aは、続く候補パラメータP3を用いて、入力動画像に異常が生じているか否かを判定し、判定結果「異常」を得ている。したがって、候補パラメータP3においては、判定結果が「変化あり」である。そこで、パラメータ特定部112Aは、判定結果が変化する候補パラメータP3に基づいて、判定用パラメータを特定する。   In the example illustrated in FIG. 9, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the leading candidate parameter P4, and obtains a determination result “normal”. Subsequently, the parameter specifying unit 112A determines whether an abnormality has occurred in the input moving image using the subsequent candidate parameter P3, and obtains a determination result “abnormal”. Accordingly, in the candidate parameter P3, the determination result is “changed”. Therefore, the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter P3 whose determination result changes.

図9に示した例では、データ取得部111によって異常が生じている入力動画像が取得されているため、パラメータ特定部112Aは、判定結果が変化する候補パラメータ(すなわち、入力動画像に対して異常と判定し始めた候補パラメータ)P3を、判定用パラメータとして特定している。かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。   In the example illustrated in FIG. 9, since the input moving image in which an abnormality has occurred is acquired by the data acquisition unit 111, the parameter specifying unit 112A determines whether the candidate parameter whose determination result changes (that is, the input moving image The candidate parameter (P3) that has started to be determined as abnormal is specified as a determination parameter. According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113.

続いて、第1の実施形態に係る画像処理システム1Aにおける判定用パラメータ特定の動作例について説明する。図10は、第1の実施形態に係る画像処理システム1Aにおける判定用パラメータ特定の動作例を示すフローチャートである。なお、以下に説明する判定用パラメータ特定の動作例は、画像処理システム1Aにおける判定用パラメータ特定の動作の一例に過ぎない。したがって、画像処理システム1Aにおける判定用パラメータ特定の動作は、以下に説明する判定用パラメータ特定の動作例に限定されない。   Subsequently, an operation example for determining a determination parameter in the image processing system 1A according to the first embodiment will be described. FIG. 10 is a flowchart illustrating an example of an operation for specifying a determination parameter in the image processing system 1A according to the first embodiment. Note that the determination parameter specifying operation example described below is merely an example of the determination parameter specifying operation in the image processing system 1A. Therefore, the determination parameter specifying operation in the image processing system 1A is not limited to the determination parameter specifying operation example described below.

まず、画像処理装置10Aにおいては、データ取得部111によって入力動画像が取得される(S11)。続いて、パラメータ特定部112Aは、記憶部140から最初の候補パラメータを取得する(S12)。パラメータ特定部112Aは、取得した候補パラメータを用いて入力動画像に異常が生じているか否かを判定することによって、判定結果を得る。   First, in the image processing apparatus 10A, the input moving image is acquired by the data acquisition unit 111 (S11). Subsequently, the parameter specifying unit 112A acquires the first candidate parameter from the storage unit 140 (S12). The parameter specifying unit 112A obtains a determination result by determining whether an abnormality has occurred in the input moving image using the acquired candidate parameter.

続いて、パラメータ特定部112Aは、判定結果が変化しない限り(S13において「No」)、次の候補パラメータを取得し(S14)、取得した候補パラメータを用いて入力動画像に異常が生じているか否かを判定することによって、判定結果を得て、S13に動作を移行させる。一方、パラメータ特定部112Aは、判定結果が変化した場合(S13において「Yes」)、判定結果が変化した際の候補パラメータに基づいて、判定用パラメータを特定し(S15)、判定用パラメータ特定の動作を終了させる。   Subsequently, as long as the determination result does not change (“No” in S13), the parameter specifying unit 112A acquires the next candidate parameter (S14), and whether an abnormality has occurred in the input moving image using the acquired candidate parameter. By determining whether or not, the determination result is obtained, and the operation is shifted to S13. On the other hand, when the determination result changes (“Yes” in S13), the parameter specifying unit 112A specifies the determination parameter based on the candidate parameter when the determination result changes (S15), and the determination parameter specifying End the operation.

このようにして特定された判定用パラメータを用いて、状態判定部113によって、撮像動画像に異常が生じているか否かが判定される。検知結果表示制御部114は、状態判定部113によって、撮像動画像に異常が生じていると判定された場合、異常の検知結果の表示を制御する。一例として、検知結果表示制御部114は、状態判定部113によって、撮像動画像に異常が生じていると判定された場合、異常が生じている領域(異常検知領域)が検知結果の例として表示されるように表示部150を制御する。   Using the determination parameters specified in this manner, the state determination unit 113 determines whether or not an abnormality has occurred in the captured moving image. When the state determination unit 113 determines that an abnormality has occurred in the captured moving image, the detection result display control unit 114 controls display of the abnormality detection result. As an example, when the state determination unit 113 determines that an abnormality has occurred in the captured moving image, the detection result display control unit 114 displays an area in which an abnormality has occurred (an abnormality detection area) as an example of the detection result. The display unit 150 is controlled as described above.

図11は、異常検知領域の表示例を示す図である。図11を参照すると、検知結果表示制御部114は、撮像動画像G25が表示部150によって表示されるように、表示部150を制御している。また、検知結果表示制御部114は、撮像動画像G25における異常検知領域D25(例えば、車両の避走が検知された領域)が他の領域と異なる態様によって表示されるように表示部150を制御している。例えば、図11に示した例のように、検知結果表示制御部114は、撮像動画像G25における異常検知領域D25に対して所定の表示オブジェクト(例えば、網掛けなど)が表示されるように表示部150を制御してもよい。   FIG. 11 is a diagram illustrating a display example of the abnormality detection area. Referring to FIG. 11, the detection result display control unit 114 controls the display unit 150 so that the captured moving image G25 is displayed on the display unit 150. In addition, the detection result display control unit 114 controls the display unit 150 so that the abnormality detection region D25 (for example, the region where the vehicle is prevented from running) in the captured moving image G25 is displayed in a different manner from the other regions. doing. For example, as in the example illustrated in FIG. 11, the detection result display control unit 114 displays a predetermined display object (for example, shading) on the abnormality detection area D25 in the captured moving image G25. The unit 150 may be controlled.

続いて、第1の実施形態に係る画像処理システム1Aにおける状態判定の動作例について説明する。図12は、第1の実施形態に係る画像処理システム1Aにおける状態判定の動作例を示すフローチャートである。なお、以下に説明する状態判定の動作例は、画像処理システム1Aにおける状態判定の動作の一例に過ぎない。したがって、画像処理システム1Aにおける状態判定の動作は、以下に説明する状態判定の動作例に限定されない。   Subsequently, an operation example of state determination in the image processing system 1A according to the first embodiment will be described. FIG. 12 is a flowchart illustrating an operation example of state determination in the image processing system 1A according to the first embodiment. Note that the state determination operation example described below is merely an example of the state determination operation in the image processing system 1A. Accordingly, the state determination operation in the image processing system 1A is not limited to the state determination operation example described below.

まず、画像処理装置10Aにおいて、状態判定部113は、パラメータ特定部112Aによって特定された判定用パラメータを取得する(S21)。続いて、撮像装置30は、動画像を撮像し、撮像した動画像を画像処理装置10Aに提供する。撮像装置30によって提供された動画像は、データ取得部111によって撮像動画像として取得される(S22)。続いて、状態判定部113は、判定用パラメータと撮像動画像とに基づいて、状態判定(撮像動画像に異常が生じているか否かの判定)を行って判定結果を得る(S23)。   First, in the image processing apparatus 10A, the state determination unit 113 acquires the determination parameter specified by the parameter specification unit 112A (S21). Subsequently, the imaging device 30 captures a moving image and provides the captured moving image to the image processing device 10A. The moving image provided by the imaging device 30 is acquired as a captured moving image by the data acquisition unit 111 (S22). Subsequently, the state determination unit 113 performs state determination (determination as to whether or not an abnormality has occurred in the captured moving image) based on the determination parameter and the captured moving image, and obtains a determination result (S23).

検知結果表示制御部114は、判定結果が異常である場合(S24において「Yes」)、異常が生じている領域(異常検知領域)が検知結果の例として表示されるように表示部150を制御し(S25)、処理をS26に移行させる。一方、状態判定部113は、判定結果が正常である場合(S24において「No」)、動作をS26に移行させる。データ取得部111は、動作を継続する場合には(S26において「No」)、動作をS22に移行させる。一方、データ取得部111は、動作を終了させる場合には(S26において「Yes」)、動作を終了させる。   When the determination result is abnormal (“Yes” in S24), the detection result display control unit 114 controls the display unit 150 so that a region where an abnormality has occurred (abnormality detection region) is displayed as an example of the detection result. (S25), and the process proceeds to S26. On the other hand, when the determination result is normal (“No” in S24), the state determination unit 113 shifts the operation to S26. When the operation is continued (“No” in S26), the data acquisition unit 111 shifts the operation to S22. On the other hand, when the data acquisition unit 111 ends the operation (“Yes” in S26), the data acquisition unit 111 ends the operation.

以上、第1の実施形態について説明した。   The first embodiment has been described above.

(2.第2の実施形態)
続いて、第2の実施形態について説明する。図1に示したように、第2の実施形態に係る画像処理システム1Bは、第1の実施形態に係る画像処理システム1Aと比較して、画像処理装置10Aの代わりに画像処理装置10Bを備える。したがって、以下では、撮像装置30についての説明は省略し、画像処理装置10Bについて主に説明する。
(2. Second Embodiment)
Next, the second embodiment will be described. As shown in FIG. 1, the image processing system 1B according to the second embodiment includes an image processing device 10B instead of the image processing device 10A, as compared with the image processing system 1A according to the first embodiment. . Therefore, in the following, description of the imaging device 30 is omitted, and the image processing device 10B is mainly described.

[2−1.画像処理装置の機能構成例]
まず、第2の実施形態に係る画像処理装置10Bの機能構成例について説明する。図13は、第2の実施形態に係る画像処理装置10Bの機能構成例を示すブロック図である。図13に示すように、第2の実施形態に係る画像処理装置10Bは、第1の実施形態に係る画像処理装置10Aと比較して、制御部110Aの代わりに制御部110Bを備える。したがって、以下では、操作部120、通信部130、記憶部140および表示部150についての説明は省略し、制御部110Bのうち制御部110Aとの差分について主に説明する。
[2-1. Functional configuration example of image processing apparatus]
First, a functional configuration example of the image processing apparatus 10B according to the second embodiment will be described. FIG. 13 is a block diagram illustrating a functional configuration example of the image processing apparatus 10B according to the second embodiment. As illustrated in FIG. 13, the image processing apparatus 10B according to the second embodiment includes a control unit 110B instead of the control unit 110A, as compared with the image processing apparatus 10A according to the first embodiment. Therefore, below, description about the operation part 120, the communication part 130, the memory | storage part 140, and the display part 150 is abbreviate | omitted, and mainly demonstrates the difference with 110 A of control parts among the control parts 110B.

図13に示すように、制御部110Bは、制御部110Aと同様に、データ取得部111、パラメータ特定部112A、状態判定部113および検知結果表示制御部114を備える。また、制御部110Bは、オプティカルフロー検出部115、オプティカルフロー表示制御部116およびパラメータ変更部117を備える。制御部110Bが備えるこれらの各機能部の詳細について、後に説明する。   As illustrated in FIG. 13, the control unit 110B includes a data acquisition unit 111, a parameter identification unit 112A, a state determination unit 113, and a detection result display control unit 114, similarly to the control unit 110A. In addition, the control unit 110B includes an optical flow detection unit 115, an optical flow display control unit 116, and a parameter change unit 117. Details of these functional units included in the control unit 110B will be described later.

[2−2.機能詳細]
続いて、画像処理システム1Bの機能詳細について説明する。第2の実施形態においても、第1の実施形態と同様に、データ取得部111が、撮像動画像を取得する。そして、第2の実施形態においては、オプティカルフロー検出部115が、データ取得部111によって取得された撮像動画像に基づいて、オプティカルフローを検出する。オプティカルフロー表示制御部116は、オプティカルフローに応じた表示を制御する。
[2-2. detail of function]
Next, details of functions of the image processing system 1B will be described. Also in the second embodiment, as in the first embodiment, the data acquisition unit 111 acquires a captured moving image. In the second embodiment, the optical flow detection unit 115 detects the optical flow based on the captured moving image acquired by the data acquisition unit 111. The optical flow display control unit 116 controls display according to the optical flow.

図14は、オプティカルフローの表示例を示す図である。図14を参照すると、オプティカルフロー表示制御部116は、画素ごとの動きベクトル(オプティカルフロー)の時系列に沿った集合(動き情報群M2)が表示部150によって表示されるように、表示部150を制御している。なお、図14に示した例においては、矢印の向きによって、動きベクトルの向きが示され、矢印の大きさによって動きベクトルの大きさが示されている。しかし、動きベクトルの向きおよび大きさは、他の態様によって示されてもよい。例えば、動きベクトルの向きは、色の種類(例えば、黄色、赤色など)の違いによって示されてもよいし、動きベクトルの大きさは、色の濃淡によって示されてもよい。   FIG. 14 is a diagram illustrating a display example of the optical flow. Referring to FIG. 14, the optical flow display control unit 116 is configured so that the display unit 150 displays a set (motion information group M2) along the time series of motion vectors (optical flow) for each pixel. Is controlling. In the example shown in FIG. 14, the direction of the motion vector is indicated by the direction of the arrow, and the size of the motion vector is indicated by the size of the arrow. However, the direction and magnitude of the motion vector may be indicated by other modes. For example, the direction of the motion vector may be indicated by a difference in color type (for example, yellow, red, etc.), and the magnitude of the motion vector may be indicated by color shading.

また、図14に示すように、オプティカルフロー表示制御部116は、判定用パラメータを変更するための表示オブジェクト(例えば、スライダ)の表示を制御する。ユーザは、かかる表示オブジェクトを操作することによって、判定用パラメータの変更操作を入力することが可能である。なお、表示オブジェクトは、スライダに限定されない。例えば、表示オブジェクトは、判定用パラメータを直接入力するための入力欄などであってもよい。また、図14に示された例では、判定用パラメータとして、第1の時間範囲t21、第2の時間範囲t23、閾値および密度が表示されている。   Further, as shown in FIG. 14, the optical flow display control unit 116 controls display of a display object (for example, a slider) for changing the determination parameter. The user can input a determination parameter changing operation by operating the display object. Note that the display object is not limited to the slider. For example, the display object may be an input field for directly inputting a determination parameter. In the example shown in FIG. 14, the first time range t21, the second time range t23, the threshold value, and the density are displayed as determination parameters.

第2の実施形態において、ユーザは、このようにして表示されたオプティカルフローを見ながら、判定用パラメータの変更操作によって、判定用パラメータを変更することが可能である。第2の実施形態は、ユーザが、パラメータ特定部112Aによって特定された判定用パラメータを変更(調整)する場合に有用である。判定用パラメータの変更操作がユーザによって入力された場合、パラメータ変更部117は、変更操作に基づいて、判定用パラメータを変更する。例えば、図14に示したように、オプティカルフロー表示制御部116によって、OKボタン151の表示が制御される場合、判定用パラメータの変更操作は、OKボタン151を選択する操作によって確定されてもよい。   In the second embodiment, the user can change the determination parameter by changing the determination parameter while viewing the optical flow displayed in this manner. The second embodiment is useful when the user changes (adjusts) the determination parameter specified by the parameter specifying unit 112A. When the determination parameter changing operation is input by the user, the parameter changing unit 117 changes the determination parameter based on the changing operation. For example, as shown in FIG. 14, when the display of the OK button 151 is controlled by the optical flow display control unit 116, the determination parameter changing operation may be confirmed by an operation of selecting the OK button 151. .

状態判定部113は、判定用パラメータが変更されない場合、パラメータ特定部112Aによって特定された判定用パラメータを用いて、状態判定(撮像動画像に異常が生じているか否かの判定)を行えばよい。一方、状態判定部113は、パラメータ変更部117によって判定用パラメータが変更された場合、変更後の判定用パラメータを用いて、状態判定(撮像動画像に異常が生じているか否かの判定)を行えばよい。   When the determination parameter is not changed, the state determination unit 113 may perform state determination (determination as to whether an abnormality has occurred in the captured moving image) using the determination parameter specified by the parameter specifying unit 112A. . On the other hand, when the parameter for determination is changed by the parameter changing unit 117, the state determination unit 113 uses the determination parameter after the change to perform state determination (determination as to whether an abnormality has occurred in the captured moving image). Just do it.

なお、オプティカルフロー検出部115によって検出されたオプティカルフローは、記憶部140に記録されて、後に使用されてもよい。ここで、記憶部140に記録されたオプティカルフローはどのように使用されてもよい。一例として、状態判定部113によって誤判定がされた場合、パラメータ特定部112Aは、記憶部140に記録されている過去のオプティカルフローを取得し、過去のオプティカルフローに基づいて、判定用パラメータを再度特定してもよい。   The optical flow detected by the optical flow detection unit 115 may be recorded in the storage unit 140 and used later. Here, the optical flow recorded in the storage unit 140 may be used in any way. As an example, when an erroneous determination is made by the state determination unit 113, the parameter specifying unit 112A obtains a past optical flow recorded in the storage unit 140, and again determines a determination parameter based on the past optical flow. You may specify.

続いて、第2の実施形態に係る画像処理システム1Bにおける判定用パラメータ変更の動作例について説明する。図15は、第2の実施形態に係る画像処理システム1Bにおける判定用パラメータ変更の動作例を示すフローチャートである。なお、以下に説明する状態判定の動作例は、画像処理システム1Bにおける判定用パラメータ変更の動作の一例に過ぎない。したがって、画像処理システム1Bにおける判定用パラメータ変更の動作は、以下に説明する判定用パラメータ変更の動作例に限定されない。   Next, an operation example of changing the determination parameter in the image processing system 1B according to the second embodiment will be described. FIG. 15 is a flowchart illustrating an example of an operation for changing a determination parameter in the image processing system 1B according to the second embodiment. Note that the state determination operation example described below is merely an example of a determination parameter change operation in the image processing system 1B. Therefore, the determination parameter changing operation in the image processing system 1B is not limited to the determination parameter changing operation example described below.

まず、画像処理装置10Bにおいて、オプティカルフロー表示制御部116は、パラメータ特定部112Aによって特定された判定用パラメータを取得する(S31)。続いて、撮像装置30は、動画像を撮像し、撮像した動画像を画像処理装置10Bに提供する。撮像装置30によって提供された動画像は、データ取得部111によって撮像動画像として取得される(S32)。続いて、オプティカルフロー検出部115は、撮像動画像からオプティカルフローを検出する(S33)。   First, in the image processing apparatus 10B, the optical flow display control unit 116 acquires the determination parameter specified by the parameter specifying unit 112A (S31). Subsequently, the imaging device 30 captures a moving image and provides the captured moving image to the image processing device 10B. The moving image provided by the imaging device 30 is acquired as a captured moving image by the data acquisition unit 111 (S32). Subsequently, the optical flow detection unit 115 detects an optical flow from the captured moving image (S33).

オプティカルフロー表示制御部116は、オプティカルフローの表示を制御する(S34)。このとき、オプティカルフロー表示制御部116は、パラメータ特定部112Aによって特定された判定用パラメータの表示を制御してよい。そうすれば、現在の判定用パラメータをユーザに把握させることが可能である。パラメータ変更部117は、操作部120によって判定用パラメータの変更操作が検出された場合、変更操作に基づいて、判定用パラメータを変更する(S36)。   The optical flow display control unit 116 controls the display of the optical flow (S34). At this time, the optical flow display control unit 116 may control the display of the determination parameter specified by the parameter specifying unit 112A. Then, it is possible to make the user grasp the current determination parameter. When the determination parameter changing operation is detected by the operation unit 120, the parameter changing unit 117 changes the determination parameter based on the changing operation (S36).

データ取得部111は、動作を継続する場合には(S37において「No」)、動作をS32に移行させる。一方、データ取得部111は、動作を終了させる場合には(S37において「Yes」)、動作を終了させる。   When the data acquisition unit 111 continues the operation (“No” in S37), the data acquisition unit 111 shifts the operation to S32. On the other hand, when the data acquisition unit 111 ends the operation (“Yes” in S37), the data acquisition unit 111 ends the operation.

以上、第2の実施形態について説明した。   The second embodiment has been described above.

(3.第3の実施形態)
続いて、第3の実施形態について説明する。図1に示したように、第3の実施形態に係る画像処理システム1Cは、第1の実施形態に係る画像処理システム1Aと比較して、画像処理装置10Aの代わりに画像処理装置10Cを備える。したがって、以下では、撮像装置30についての説明は省略し、画像処理装置10Cについて主に説明する。
(3. Third embodiment)
Subsequently, a third embodiment will be described. As shown in FIG. 1, the image processing system 1C according to the third embodiment includes an image processing device 10C instead of the image processing device 10A, as compared with the image processing system 1A according to the first embodiment. . Therefore, in the following, description of the imaging device 30 is omitted, and the image processing device 10C is mainly described.

[3−1.画像処理装置の機能構成例]
まず、第3の実施形態に係る画像処理装置10Cの機能構成例について説明する。図16は、第3の実施形態に係る画像処理装置10Cの機能構成例を示すブロック図である。図16に示すように、第3の実施形態に係る画像処理装置10Cは、第1の実施形態に係る画像処理装置10Aと比較して、制御部110Aの代わりに制御部110Cを備える。したがって、以下では、操作部120、通信部130、記憶部140および表示部150についての説明は省略し、制御部110Cのうち制御部110Aとの差分について主に説明する。
[3-1. Functional configuration example of image processing apparatus]
First, a functional configuration example of an image processing apparatus 10C according to the third embodiment will be described. FIG. 16 is a block diagram illustrating a functional configuration example of an image processing apparatus 10C according to the third embodiment. As illustrated in FIG. 16, the image processing apparatus 10C according to the third embodiment includes a control unit 110C instead of the control unit 110A, as compared with the image processing apparatus 10A according to the first embodiment. Therefore, below, description about the operation part 120, the communication part 130, the memory | storage part 140, and the display part 150 is abbreviate | omitted, and mainly demonstrates the difference with 110 A of control parts among 110 C of control parts.

図16に示すように、制御部110Cは、制御部110Aと同様に、データ取得部111、状態判定部113および検知結果表示制御部114を備える。また、制御部110Cは、パラメータ特定部112B、パラメータ情報記録制御部118およびパラメータ情報表示制御部119を備える。制御部110Cが備えるこれらの各機能部の詳細について、後に説明する。   As illustrated in FIG. 16, the control unit 110C includes a data acquisition unit 111, a state determination unit 113, and a detection result display control unit 114, similarly to the control unit 110A. In addition, the control unit 110C includes a parameter specifying unit 112B, a parameter information recording control unit 118, and a parameter information display control unit 119. Details of these functional units included in the control unit 110C will be described later.

[3−2.機能詳細]
続いて、画像処理システム1Cの機能詳細について説明する。第3の実施形態においても、第1の実施形態と同様に、データ取得部111が、入力動画像を取得する。そして、第3の実施形態においては、パラメータ特定部112Bは、過去に使用されたパラメータが記憶部140に記録されていない場合、第1の実施形態と同様に、入力動画像に基づいて、判定用パラメータを特定する。パラメータ特定部112Bによって特定された判定用パラメータが状態判定部113によって使用されると、パラメータ情報記録制御部118は、状態判定部113によって使用された判定用パラメータが、過去に使用されたパラメータとして記憶部140に記録されるように制御する。
[3-2. detail of function]
Next, details of functions of the image processing system 1C will be described. Also in the third embodiment, as in the first embodiment, the data acquisition unit 111 acquires an input moving image. In the third embodiment, the parameter specifying unit 112B makes a determination based on the input moving image as in the first embodiment, when the parameters used in the past are not recorded in the storage unit 140. Specify the parameters. When the determination parameter specified by the parameter specifying unit 112B is used by the state determination unit 113, the parameter information recording control unit 118 uses the determination parameter used by the state determination unit 113 as a parameter used in the past. Control is performed so as to be recorded in the storage unit 140.

また、パラメータ情報記録制御部118は、状態判定部113によって使用された判定用パラメータに関連する情報も、過去に使用されたパラメータに関連する情報として、記憶部140に記録されるように制御してよい。   The parameter information recording control unit 118 also controls information related to the determination parameters used by the state determination unit 113 to be recorded in the storage unit 140 as information related to parameters used in the past. It's okay.

図17は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の例を示す図である。図17に示すように、過去に使用されたパラメータに関連する情報は、過去に使用されたパラメータを用いて判定がなされた事象の種類を含んでもよい。事象の種類は、状態判定部113によって判定可能であるとして上記した各種の事象であってよい。図17に示した例では、事象の種類として、避走、逆走、落下物、がけ崩れが示されている。   FIG. 17 is a diagram illustrating an example of parameters used in the past and information related to parameters used in the past. As shown in FIG. 17, information related to parameters used in the past may include the types of events that have been determined using parameters used in the past. The type of event may be the various events described above that can be determined by the state determination unit 113. In the example shown in FIG. 17, escape, reverse run, fallen object, and collapse are shown as the types of events.

また、図17に示したように、過去に使用されたパラメータに関連する情報は、状態判定部113による判定に使用された撮像動画像を撮像した撮像装置30の画角を含んでもよい。また、図17に示したように、過去に使用されたパラメータに関連する情報は、撮像装置30による撮像距離(例えば、撮像装置30から道路までの最短距離など)を含んでもよい。   Further, as illustrated in FIG. 17, the information related to the parameter used in the past may include the angle of view of the imaging device 30 that captured the captured moving image used for the determination by the state determination unit 113. Further, as illustrated in FIG. 17, the information related to the parameters used in the past may include an imaging distance by the imaging device 30 (for example, the shortest distance from the imaging device 30 to the road).

ここで、過去に使用されたパラメータに関連する情報は、どのようにして設定されてもよい。例えば、事象の種類は、ユーザによって設定されてもよいし、状態判定部113によって撮像動画像から自動的に決定されてもよい。また、撮像距離は、ユーザによって設定されてもよいし、状態判定部113によって撮像動画像から自動的に測定されてもよい。また、画角は、撮像装置30から取得されてよい。   Here, the information related to the parameters used in the past may be set in any way. For example, the type of event may be set by the user, or may be automatically determined from the captured moving image by the state determination unit 113. The imaging distance may be set by the user, or may be automatically measured from the captured moving image by the state determination unit 113. Further, the angle of view may be acquired from the imaging device 30.

パラメータ特定部112Bは、過去に使用されたパラメータが記憶部140に記録されている場合、過去に使用されたパラメータを用いて、入力動画像に過去に使用されたパラメータに対応する事象が生じているか否かを判定する。   When parameters used in the past are recorded in the storage unit 140, the parameter specifying unit 112B uses the parameters used in the past to generate an event corresponding to the parameters used in the past in the input moving image. It is determined whether or not.

そして、データ取得部111によって、かかる事象が生じていないことが確認された入力動画像(正常な入力動画像)が取得された場合、かつ、パラメータ特定部112Bによって、過去に使用されたパラメータを用いて、入力動画像に事象が生じていない(入力動画像が正常である)と判定された場合、過去に使用されたパラメータは、誤判定されないパラメータであると考えられる。そこで、かかる場合、パラメータ情報表示制御部119は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御してよい。これにより第3の実施形態に係る画像処理システム1Cは、データ取得部111によって取得された入力動画像に対して過去に使用されたパラメータを用いても、適切にかかる事象の発生を判定できることを、ユーザに提示することができる。   Then, when an input moving image (a normal input moving image) in which it has been confirmed that such an event has not occurred is acquired by the data acquisition unit 111, and parameters used in the past by the parameter specifying unit 112B When it is determined that an event has not occurred in the input moving image (the input moving image is normal), the parameters used in the past are considered to be parameters that are not erroneously determined. Therefore, in such a case, the parameter information display control unit 119 may control the display of at least one of the parameters used in the past and the information related to the parameters used in the past. As a result, the image processing system 1C according to the third embodiment can appropriately determine the occurrence of such an event even if parameters previously used for the input moving image acquired by the data acquisition unit 111 are used. Can be presented to the user.

図18は、過去に使用されたパラメータを用いた判定結果の例を示す図である。図18に示した例では、データ取得部111によって取得された入力動画像に各事象が生じていない(入力動画像が正常である)ことが確認されている。また、パラメータ特定部112Bによって、過去に使用されたパラメータP5を用いて、入力動画像に事象「避走」が生じていない(入力動画像が正常である)と判定されている。また、パラメータ特定部112Bによって、過去に使用されたパラメータP6を用いて、入力動画像に事象「逆走」が生じていない(入力動画像が正常である)と判定されている。   FIG. 18 is a diagram illustrating an example of determination results using parameters used in the past. In the example shown in FIG. 18, it is confirmed that each event does not occur in the input moving image acquired by the data acquisition unit 111 (the input moving image is normal). Further, the parameter specifying unit 112B determines that the event “evasion” has not occurred in the input moving image (the input moving image is normal) using the parameter P5 used in the past. Further, the parameter specifying unit 112B determines that the event “reverse running” has not occurred in the input moving image (the input moving image is normal) using the parameter P6 used in the past.

一方、パラメータ特定部112Bによって、過去に使用されたパラメータP7を用いて、入力動画像に事象「落下物」が生じている(入力動画像が異常である)と判定されている。また、パラメータ特定部112Bによって、過去に使用されたパラメータP8を用いて、入力動画像に事象「がけ崩れ」が生じている(入力動画像が異常である)と判定されている。   On the other hand, the parameter specifying unit 112B determines that an event “falling object” has occurred in the input moving image (the input moving image is abnormal) using the parameter P7 used in the past. Further, it is determined by the parameter specifying unit 112B that the event “breakdown” has occurred in the input moving image (the input moving image is abnormal) using the parameter P8 used in the past.

かかる例においては、過去に使用されたパラメータP5、過去に使用されたパラメータP6が、誤判定されないパラメータであると考えられる。そこで、かかる場合、パラメータ情報表示制御部119は、過去に使用されたパラメータP5および過去に使用されたパラメータP5に関連する情報のうち、少なくともいずれか一方の表示を制御してよい。また、パラメータ情報表示制御部119は、過去に使用されたパラメータP6および過去に使用されたパラメータP6に関連する情報のうち、少なくともいずれか一方の表示を制御してよい。これにより第3の実施形態に係る画像処理システム1Cは、データ取得部111によって取得された入力動画像に対して過去に使用されたパラメータP5またはP6を用いても、適切にかかる事象(避走または逆走)の発生を判定できることを、ユーザに提示することができる。   In such an example, the parameter P5 used in the past and the parameter P6 used in the past are considered to be parameters that are not erroneously determined. Therefore, in such a case, the parameter information display control unit 119 may control the display of at least one of the parameter P5 used in the past and the information related to the parameter P5 used in the past. The parameter information display control unit 119 may control display of at least one of the parameter P6 used in the past and the information related to the parameter P6 used in the past. As a result, the image processing system 1C according to the third embodiment can appropriately apply the event (runaway) even if the parameter P5 or P6 used in the past is used for the input moving image acquired by the data acquisition unit 111. Alternatively, it can be shown to the user that the occurrence of reverse running) can be determined.

図19は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報の表示例を示す図である。図19に示したように、パラメータ情報表示制御部119は、過去に使用されたパラメータP5および過去に使用されたパラメータP5に関連する情報(事象の種類、撮像距離、画角)の表示を制御してよい。また、パラメータ情報表示制御部119は、過去に使用されたパラメータP6および過去に使用されたパラメータP6に関連する情報(事象の種類、撮像距離、画角)の表示を制御してよい。   FIG. 19 is a diagram illustrating a display example of parameters used in the past and information related to the parameters used in the past. As shown in FIG. 19, the parameter information display control unit 119 controls the display of the parameter P5 used in the past and information related to the parameter P5 used in the past (type of event, imaging distance, angle of view). You can do it. Further, the parameter information display control unit 119 may control display of the parameter P6 used in the past and information related to the parameter P6 used in the past (type of event, imaging distance, angle of view).

パラメータ特定部112Bは、過去に使用されたパラメータの選択操作が入力された場合、過去に使用されたパラメータを判定用パラメータとして特定する。例えば、図19に示したように、パラメータ情報表示制御部119によって、OKボタン151の表示が制御される場合、過去に使用されたパラメータの選択操作は、OKボタン151を選択する操作によって確定されてもよい。また、パラメータ情報表示制御部119によって、取消ボタン152の表示が制御される場合、過去に使用されたパラメータの選択操作は、取消ボタン152を選択する操作によって取り消されてもよい。   When a parameter selection operation used in the past is input, the parameter specifying unit 112B specifies a parameter used in the past as a determination parameter. For example, as shown in FIG. 19, when the display of the OK button 151 is controlled by the parameter information display control unit 119, the parameter selection operation used in the past is determined by the operation of selecting the OK button 151. May be. When the display of the cancel button 152 is controlled by the parameter information display control unit 119, the parameter selection operation used in the past may be canceled by an operation of selecting the cancel button 152.

なお、データ取得部111によって事象が生じている(入力動画像が異常である)ことが確認された入力動画像が取得された場合、かつ、パラメータ特定部112Bによって入力動画像に事象が生じている(入力動画像が異常である)と判定された場合、過去に使用されたパラメータは、誤判定されないパラメータであると考えられる。そこで、かかる場合、パラメータ情報表示制御部119は、過去に使用されたパラメータおよび過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御してよい。これにより第3の実施形態に係る画像処理システム1Cは、データ取得部111によって取得された入力動画像に対して過去に使用されたパラメータを用いても、適切にかかる事象の発生を判定できることを、ユーザに提示することができる。そして、パラメータ特定部112Bは、過去に使用されたパラメータの選択操作が入力された場合、過去に使用されたパラメータを判定用パラメータとして特定すればよい。   In addition, when an input moving image in which an event has been confirmed by the data acquisition unit 111 (the input moving image is abnormal) is acquired, and an event has occurred in the input moving image by the parameter specifying unit 112B If it is determined that the input moving image is abnormal (ie, the input moving image is abnormal), the parameters used in the past are considered to be parameters that are not erroneously determined. Therefore, in such a case, the parameter information display control unit 119 may control the display of at least one of the parameters used in the past and the information related to the parameters used in the past. As a result, the image processing system 1C according to the third embodiment can appropriately determine the occurrence of such an event even if parameters previously used for the input moving image acquired by the data acquisition unit 111 are used. Can be presented to the user. Then, when a parameter selection operation used in the past is input, the parameter specifying unit 112B may specify a parameter used in the past as a determination parameter.

以上、第3の実施形態について説明した。   The third embodiment has been described above.

(4.第4の実施形態)
続いて、第4の実施形態について説明する。図1に示したように、第4の実施形態に係る画像処理システム1Dは、第1の実施形態に係る画像処理システム1Aと比較して、画像処理装置10Aの代わりに画像処理装置10Dを備える。したがって、以下では、撮像装置30についての説明は省略し、画像処理装置10Dについて主に説明する。
(4. Fourth embodiment)
Subsequently, a fourth embodiment will be described. As shown in FIG. 1, the image processing system 1D according to the fourth embodiment includes an image processing device 10D instead of the image processing device 10A, as compared with the image processing system 1A according to the first embodiment. . Therefore, in the following, description of the imaging device 30 is omitted, and the image processing device 10D is mainly described.

[4−1.画像処理装置の機能構成例]
まず、第4の実施形態に係る画像処理装置10Dの機能構成例について説明する。図20は、第4の実施形態に係る画像処理装置10Dの機能構成例を示すブロック図である。図20に示すように、第4の実施形態に係る画像処理装置10Dは、第1の実施形態に係る画像処理装置10Aと比較して、制御部110Aの代わりに制御部110Dを備える。したがって、以下では、操作部120、通信部130、記憶部140および表示部150についての説明は省略し、制御部110Dのうち制御部110Aとの差分について主に説明する。
[4-1. Functional configuration example of image processing apparatus]
First, a functional configuration example of an image processing apparatus 10D according to the fourth embodiment will be described. FIG. 20 is a block diagram illustrating a functional configuration example of an image processing apparatus 10D according to the fourth embodiment. As illustrated in FIG. 20, the image processing device 10D according to the fourth embodiment includes a control unit 110D instead of the control unit 110A, as compared with the image processing device 10A according to the first embodiment. Therefore, below, description about the operation part 120, the communication part 130, the memory | storage part 140, and the display part 150 is abbreviate | omitted, and mainly demonstrates the difference with control part 110A among control part 110D.

図20に示すように、制御部110Dは、制御部110Aと同様に、データ取得部111、状態判定部113および検知結果表示制御部114を備える。また、制御部110Dは、パラメータ特定部112C、領域情報取得部121を備える。制御部110Dが備えるこれらの各機能部の詳細について、後に説明する。   As illustrated in FIG. 20, the control unit 110D includes a data acquisition unit 111, a state determination unit 113, and a detection result display control unit 114, similarly to the control unit 110A. In addition, the control unit 110D includes a parameter specifying unit 112C and a region information acquisition unit 121. Details of these functional units included in the control unit 110D will be described later.

[4−2.機能詳細]
続いて、画像処理システム1Dの機能詳細について説明する。第4の実施形態においては、状態判定部113が、入力動画像における複数の検出対象領域ごとに異なる状態判定を行う(複数の検出対象領域ごとに異なる事象が生じているか否かを判定する)。なお以降の説明において、複数の検出対象領域のそれぞれを単に「領域」と言う。記憶部140には、領域ごとに座標と事象の種類との対応関係が記録されている。したがって、領域情報取得部121は、領域ごとの座標と事象の種類との対応関係(領域情報)を取得し、パラメータ特定部112Cは、記憶部140に記録されている対応関係に基づいて、領域ごとに異なる判定用パラメータを特定する。
[4-2. detail of function]
Next, details of functions of the image processing system 1D will be described. In the fourth embodiment, the state determination unit 113 performs different state determination for each of the plurality of detection target regions in the input moving image (determines whether or not a different event occurs for each of the plurality of detection target regions). . In the following description, each of the plurality of detection target areas is simply referred to as “area”. In the storage unit 140, the correspondence between coordinates and event types is recorded for each region. Therefore, the area information acquisition unit 121 acquires the correspondence (area information) between the coordinates for each area and the type of event, and the parameter identification unit 112C determines the area based on the correspondence recorded in the storage unit 140. A different determination parameter is specified for each.

図21は、領域ごとの座標と事象の種類との対応関係の例を示す図である。図21に示すように、領域R1に生じているか否かが判定される事象の種類「逆走」と領域R1の座標「r1」とが対応付けられている。また、領域R2に生じているか否かが判定される事象の種類「避走」と領域R2の座標「r2」とが対応付けられている。第4の実施形態においては、かかる対応関係が、記憶部140にあらかじめ記録されている。なお、図21に示した例では、領域R1と領域R2とが隣接しているが、領域R1と領域R2とは、離れていてもよいし、一部が重複していてもよい。   FIG. 21 is a diagram illustrating an example of a correspondence relationship between coordinates for each region and the type of event. As shown in FIG. 21, the event type “reverse run” for which it is determined whether or not it occurs in the region R1 is associated with the coordinate “r1” of the region R1. In addition, the event type “runaway” in which it is determined whether or not it occurs in the region R2 is associated with the coordinate “r2” of the region R2. In the fourth embodiment, such a correspondence relationship is recorded in advance in the storage unit 140. In the example shown in FIG. 21, the region R1 and the region R2 are adjacent to each other, but the region R1 and the region R2 may be separated from each other or may partially overlap.

第1の実施形態と同様に、データ取得部111は、入力動画像を取得する。そして、第4の実施形態においては、パラメータ特定部112Cは、領域ごとの座標と事象の種類との対応関係を取得する。パラメータ特定部112Cは、領域ごとの座標と事象の種類とに基づいて、領域ごとに判定用パラメータを特定する。1つの領域あたりの判定用パラメータの特定は、第1の実施形態に係る判定用パラメータの特定と同様になされてよい。かかる構成によれば、領域ごとに異なる事象に対応する判定用パラメータが特定されるため、領域ごとに異なった事象が生じているか否かの判定をより高精度に行うことが可能となる。   As in the first embodiment, the data acquisition unit 111 acquires an input moving image. In the fourth embodiment, the parameter specifying unit 112C acquires the correspondence between the coordinates for each region and the event type. The parameter specifying unit 112C specifies a determination parameter for each region based on the coordinates and event types for each region. The determination parameter for each region may be specified in the same manner as the determination parameter according to the first embodiment. According to such a configuration, since determination parameters corresponding to different events for each region are specified, it is possible to determine with high accuracy whether or not a different event has occurred for each region.

続いて、第4の実施形態に係る画像処理システム1Dにおける判定用パラメータ特定の動作例について説明する。図22は、第4の実施形態に係る画像処理システム1Dにおける判定用パラメータ特定の動作例を示すフローチャートである。なお、以下に説明する判定用パラメータ特定の動作例は、画像処理システム1Dにおける判定用パラメータ特定の動作の一例に過ぎない。したがって、画像処理システム1Dにおける判定用パラメータ特定の動作は、以下に説明する判定用パラメータ特定の動作例に限定されない。   Subsequently, an operation example for determining a determination parameter in the image processing system 1D according to the fourth embodiment will be described. FIG. 22 is a flowchart illustrating an operation example of determination parameter identification in the image processing system 1D according to the fourth embodiment. Note that the determination parameter specifying operation example described below is merely an example of the determination parameter specifying operation in the image processing system 1D. Therefore, the determination parameter specifying operation in the image processing system 1D is not limited to the determination parameter specifying operation example described below.

まず、画像処理装置10Dにおいては、データ取得部111によって入力動画像が取得される(S11)。続いて、パラメータ特定部112Cは、最初の領域の座標を取得する(S16)。そして、パラメータ特定部112Cは、記憶部140から最初の候補パラメータを取得する(S12)。パラメータ特定部112Cは、取得した候補パラメータを用いて入力動画像にその領域の事象が生じているか否かを判定することによって、判定結果を得る。   First, in the image processing apparatus 10D, an input moving image is acquired by the data acquisition unit 111 (S11). Subsequently, the parameter specifying unit 112C acquires the coordinates of the first region (S16). Then, the parameter specifying unit 112C acquires the first candidate parameter from the storage unit 140 (S12). The parameter specifying unit 112C obtains a determination result by determining whether or not an event in the region has occurred in the input moving image using the acquired candidate parameter.

続いて、パラメータ特定部112Cは、判定結果が変化しない限り(S13において「No」)、次の候補パラメータを取得し(S14)、取得した候補パラメータを用いて入力動画像にその領域の事象が生じているか否かを判定することによって、判定結果を得て、S13に動作を移行させる。一方、パラメータ特定部112Cは、判定結果が変化した場合(S13において「Yes」)、判定結果が変化した際の候補パラメータに基づいて、その領域の判定用パラメータを特定する(S17)。   Subsequently, as long as the determination result does not change (“No” in S13), the parameter specifying unit 112C acquires the next candidate parameter (S14), and using the acquired candidate parameter, the event in the region is included in the input moving image. By determining whether or not it has occurred, a determination result is obtained, and the operation proceeds to S13. On the other hand, when the determination result changes (“Yes” in S13), the parameter specifying unit 112C specifies the determination parameter for the region based on the candidate parameter when the determination result changes (S17).

パラメータ特定部112Cは、全領域の判定用パラメータを特定しない限り(S18において「No」)、次の領域の座標を取得し(S19)、取得した候補パラメータを用いて入力動画像にその領域の事象が生じているか否かを判定することによって、判定結果を得て、S13に動作を移行させる。一方、パラメータ特定部112Cは、全領域の判定用パラメータを特定した場合(S18において「Yes」)、判定用パラメータ特定の動作を終了させる。   The parameter specifying unit 112C acquires the coordinates of the next region (S19), unless specifying the determination parameters for the entire region (“No” in S18), and uses the acquired candidate parameters for the input moving image. By determining whether or not an event has occurred, a determination result is obtained, and the operation proceeds to S13. On the other hand, when the parameter specifying unit 112C specifies the determination parameter for the entire region (“Yes” in S18), the parameter specifying unit 112C ends the determination parameter specifying operation.

以上、第4の実施形態について説明した。   The fourth embodiment has been described above.

(5.ハードウェア構成例)
続いて、本発明の実施形態に係る画像処理装置10のハードウェア構成例について説明する。
(5. Hardware configuration example)
Next, a hardware configuration example of the image processing apparatus 10 according to the embodiment of the present invention will be described.

図23は、本発明の実施形態に係る画像処理装置10のハードウェア構成を示す図である。画像処理装置10は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。   FIG. 23 is a diagram illustrating a hardware configuration of the image processing apparatus 10 according to the embodiment of the present invention. The image processing apparatus 10 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, an interface 907, , An input device 908, an output device 909, a storage device 910, and a communication device 911.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って画像処理装置10内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the image processing device 10 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 904 including a CPU bus or the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。   The host bus 904 is connected to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 905. Note that the host bus 904, the bridge 905, and the external bus 906 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。画像処理装置10を操作するユーザは、この入力装置908を操作することにより、画像処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 908 includes an input means for inputting information such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 901. Etc. A user who operates the image processing apparatus 10 can input various data and instruct a processing operation to the image processing apparatus 10 by operating the input device 908.

出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。   The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, a display device such as a lamp, and an audio output device such as a speaker.

ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。   The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 is configured with, for example, an HDD (Hard Disk Drive). The storage device 910 drives a hard disk and stores programs executed by the CPU 901 and various data.

通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。   The communication device 911 is a communication interface configured with, for example, a communication device for connecting to a network. Further, the communication device 911 may support either wireless communication or wired communication.

以上において、本発明の実施形態の詳細について説明した。   The details of the embodiment of the present invention have been described above.

(5.本実施形態の効果)
以上に説明したように、本実施形態によれば、先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部111と、複数通りの候補パラメータの先頭から順に用いて、入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、判定結果が変化する候補パラメータに基づいて、撮像動画像に事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部112Aと、を備える、画像処理装置10Aが提供される。
(5. Effects of the present embodiment)
As described above, according to the present embodiment, the data acquisition unit 111 that acquires a plurality of candidate parameters and input moving images arranged in ascending or descending order from the beginning to the end, and the plurality of candidate parameter Using in order from the beginning, it repeatedly determines whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and an event has occurred in the captured moving image based on the candidate parameter whose determination result changes An image processing apparatus 10A is provided that includes a parameter specifying unit 112A that specifies a determination parameter for determining whether or not the image is determined.

かかる構成によれば、状態判定部113によって誤判定される可能性を低減しつつ、異常判定の条件が緩すぎないような判定用パラメータを特定することが可能となる。したがって、かかる構成によれば、撮像動画像に異常が生じているか否かをより高精度に判定することが可能となる。   According to such a configuration, it is possible to specify a determination parameter such that the condition for abnormality determination is not too loose while reducing the possibility of erroneous determination by the state determination unit 113. Therefore, according to such a configuration, it is possible to determine with higher accuracy whether or not an abnormality has occurred in the captured moving image.

(6.変形例の説明)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
(6. Description of modification)
The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記では、撮像装置30がPTZ(パン・チルト・ズーム)カメラであってもよい旨を説明した。しかし、撮像装置30の撮像範囲がPTZによって変化してしまうと、意図しないタイミングで検出対象領域に異常状態が発生したと判定されてしまう可能性がある。そこで、PTZが実行されるときには、状態判定部113による判定が実行されないようにするとよい。あるいは、PTZが実行されるときには、検知結果表示制御部114による表示制御がなされないようにするとよい。   For example, in the above description, the imaging apparatus 30 may be a PTZ (pan / tilt / zoom) camera. However, if the imaging range of the imaging device 30 changes due to PTZ, it may be determined that an abnormal state has occurred in the detection target region at an unintended timing. Therefore, when the PTZ is executed, it is preferable that the determination by the state determination unit 113 is not executed. Alternatively, when the PTZ is executed, display control by the detection result display control unit 114 is preferably not performed.

1(1A、1B、1C、1D) 画像処理システム
10(10A、10B、10C、10D) 画像処理装置
30 撮像装置
110(110A、110B、110C、110D) 制御部
111 データ取得部
112(112A、112B、112C) パラメータ特定部
113 状態判定部
114 検知結果表示制御部
115 オプティカルフロー検出部
116 オプティカルフロー表示制御部
117 パラメータ変更部
118 パラメータ情報記録制御部
119 パラメータ情報表示制御部
121 領域情報取得部
120 操作部
130 通信部
140 記憶部
150 表示部
1 (1A, 1B, 1C, 1D) Image processing system 10 (10A, 10B, 10C, 10D) Image processing device 30 Imaging device 110 (110A, 110B, 110C, 110D) Control unit 111 Data acquisition unit 112 (112A, 112B) 112C) Parameter identification unit 113 State determination unit 114 Detection result display control unit 115 Optical flow detection unit 116 Optical flow display control unit 117 Parameter change unit 118 Parameter information recording control unit 119 Parameter information display control unit 121 Area information acquisition unit 120 Operation Unit 130 communication unit 140 storage unit 150 display unit

Claims (16)

先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、
前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、
を備える、画像処理装置。
A data acquisition unit for acquiring a plurality of candidate parameters and input moving images arranged in ascending or descending order from the beginning to the end;
Using the plurality of candidate parameters in order from the top, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter that changes the determination result A parameter specifying unit for specifying a determination parameter for determining whether or not the event has occurred in the captured moving image;
An image processing apparatus comprising:
前記パラメータ特定部は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定し、
前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータの一つ前の候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータを、前記判定用パラメータとして特定する、
請求項1に記載の画像処理装置。
The parameter specifying unit includes:
When the input moving image in which the event has not occurred is acquired by the data acquisition unit,
Candidate parameters that are no longer determined that the event has occurred in the input moving image, or candidate parameters immediately before the candidate parameters that have started to be determined that the event has occurred in the input moving image, Specified as the determination parameter,
When the input moving image in which the event occurs is acquired by the data acquisition unit,
Candidate parameters immediately before a candidate parameter that is no longer determined that the event has occurred in the input moving image, or candidate parameters that have started to be determined that the event has occurred in the input moving image, Specify as the determination parameter,
The image processing apparatus according to claim 1.
前記パラメータ特定部は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータ、または、前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定する、
請求項1に記載の画像処理装置。
The parameter specifying unit includes:
When the input moving image in which the event has not occurred is acquired by the data acquisition unit,
Candidate parameters that are no longer determined that the event has occurred in the input moving image, or candidate parameters immediately before the candidate parameters that have started to be determined that the event has occurred in the input moving image, Specify as the determination parameter,
The image processing apparatus according to claim 1.
前記パラメータ特定部は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定しなくなった候補パラメータを、前記判定用パラメータとして特定する、
請求項3に記載の画像処理装置。
The parameter specifying unit includes:
When the input moving image in which the event has not occurred is acquired by the data acquisition unit,
A candidate parameter that is no longer determined to be the event in the input moving image is specified as the determination parameter.
The image processing apparatus according to claim 3.
前記パラメータ特定部は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合、
前記入力動画像に前記事象が生じていると判定し始めた候補パラメータの一つ前の候補パラメータを、前記判定用パラメータとして特定する、
請求項3に記載の画像処理装置。
The parameter specifying unit includes:
When the input moving image in which the event has not occurred is acquired by the data acquisition unit,
The candidate parameter immediately before the candidate parameter that has started to be determined that the event has occurred in the input moving image is specified as the determination parameter.
The image processing apparatus according to claim 3.
前記画像処理装置は、
前記判定用パラメータを用いて、前記撮像動画像に前記事象が生じているか否かを判定する状態判定部を備える、
請求項1に記載の画像処理装置。
The image processing apparatus includes:
A state determination unit that determines whether or not the event has occurred in the captured moving image using the determination parameter;
The image processing apparatus according to claim 1.
前記画像処理装置は、
前記撮像動画像に前記事象が生じていると判定された場合、前記事象の検知結果の表示を制御する検知結果表示制御部を備える、
請求項1に記載の画像処理装置。
The image processing apparatus includes:
When it is determined that the event has occurred in the captured moving image, a detection result display control unit that controls display of the detection result of the event is provided.
The image processing apparatus according to claim 1.
前記パラメータ特定部は、
前記入力動画像に基づいて、第1の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第1の平均特徴量として算出するとともに前記第1の時間範囲よりも短い第2の時間範囲におけるオプティカルフローの対応位置ごとの平均値を第2の平均特徴量として算出し、前記第1の平均特徴量と前記第2の平均特徴量とに応じた所定の演算結果と閾値との関係に基づいて、前記入力動画像に前記事象が生じているか否かを判定する、
請求項1に記載の画像処理装置。
The parameter specifying unit includes:
Based on the input moving image, an average value for each corresponding position of the optical flow in the first time range is calculated as the first average feature amount, and the optical value in the second time range shorter than the first time range is calculated. An average value for each corresponding position of the flow is calculated as a second average feature quantity, and based on a relationship between a predetermined calculation result corresponding to the first average feature quantity and the second average feature quantity and a threshold value. Determining whether the event has occurred in the input moving image;
The image processing apparatus according to claim 1.
前記判定用パラメータは、前記第1の時間範囲、前記第2の時間範囲、および、前記閾値の少なくともいずれか一つを含む、
請求項8に記載の画像処理装置。
The determination parameter includes at least one of the first time range, the second time range, and the threshold value.
The image processing apparatus according to claim 8.
前記判定用パラメータは、前記オプティカルフローが算出される時間的な密度、および、前記オプティカルフローが算出される空間的な密度の少なくともいずれか一つを含む、
請求項8に記載の画像処理装置。
The determination parameter includes at least one of a temporal density at which the optical flow is calculated and a spatial density at which the optical flow is calculated.
The image processing apparatus according to claim 8.
前記画像処理装置は、
前記撮像動画像に基づいて検出されたオプティカルフローに応じた表示を制御するオプティカルフロー表示制御部と、
前記判定用パラメータの変更操作が入力された場合、前記判定用パラメータを変更するパラメータ変更部と、
を備える、請求項1に記載の画像処理装置。
The image processing apparatus includes:
An optical flow display control unit for controlling display according to the optical flow detected based on the captured moving image;
When the determination parameter changing operation is input, a parameter changing unit that changes the determination parameter;
The image processing apparatus according to claim 1, comprising:
前記パラメータ特定部は、
過去に使用されたパラメータが記録されている場合、前記過去に使用されたパラメータを用いて、前記入力動画像に前記過去に使用されたパラメータに対応する事象が生じているか否かを判定し、
前記画像処理装置は、
前記データ取得部によって前記事象が生じていない前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていないと判定された場合、または、
前記データ取得部によって前記事象が生じている前記入力動画像が取得された場合かつ前記パラメータ特定部によって前記入力動画像に前記事象が生じていると判定された場合、
前記過去に使用されたパラメータおよび前記過去に使用されたパラメータに関連する情報のうち、少なくともいずれか一方の表示を制御するパラメータ情報表示制御部を備える、
請求項1に記載の画像処理装置。
The parameter specifying unit includes:
When parameters used in the past are recorded, it is determined whether an event corresponding to the parameters used in the past has occurred in the input moving image using the parameters used in the past,
The image processing apparatus includes:
When the input moving image in which the event has not occurred is acquired by the data acquisition unit and the event is determined by the parameter specifying unit that the event has not occurred, or
When the input moving image in which the event occurs is acquired by the data acquisition unit and when the event is determined in the input moving image by the parameter specifying unit,
A parameter information display control unit configured to control display of at least one of the parameters used in the past and the information related to the parameters used in the past;
The image processing apparatus according to claim 1.
前記過去に使用されたパラメータに関連する情報は、前記過去に使用されたパラメータを用いて判定がなされた事象の種類、前記判定に使用された動画像を撮像した撮像装置による撮像距離、および、前記撮像装置の画角の少なくともいずれか一つを含む、
請求項12に記載の画像処理装置。
The information related to the parameters used in the past includes the types of events determined using the parameters used in the past, the imaging distance by the imaging device that captured the moving image used for the determination, and Including at least one of the angles of view of the imaging device,
The image processing apparatus according to claim 12.
前記パラメータ特定部は、
前記過去に使用されたパラメータの選択操作が入力された場合、前記過去に使用されたパラメータを前記判定用パラメータとして特定する、
請求項12に記載の画像処理装置。
The parameter specifying unit includes:
When the selection operation of the parameter used in the past is input, the parameter used in the past is specified as the determination parameter.
The image processing apparatus according to claim 12.
前記パラメータ特定部は、
前記入力動画像上に設けた領域ごとの前記事象に基づいて、前記領域ごとに前記判定用パラメータを特定する、
請求項1に記載の画像処理装置。
The parameter specifying unit includes:
Based on the event for each area provided on the input moving image, the determination parameter is specified for each area;
The image processing apparatus according to claim 1.
コンピュータを、
先頭から末尾まで昇順または降順に並べられた複数通りの候補パラメータと入力動画像とを取得するデータ取得部と、
前記複数通りの候補パラメータの先頭から順に用いて、前記入力動画像に所定の事象が生じているか否かを、少なくとも判定結果が変化するまで繰り返し判定し、前記判定結果が変化する候補パラメータに基づいて、撮像動画像に前記事象が生じているか否かを判定するための判定用パラメータを特定するパラメータ特定部と、
を備える、画像処理装置として機能させるためのプログラム。


Computer
A data acquisition unit for acquiring a plurality of candidate parameters and input moving images arranged in ascending or descending order from the beginning to the end;
Using the plurality of candidate parameters in order from the top, it is repeatedly determined whether or not a predetermined event has occurred in the input moving image until at least the determination result changes, and based on the candidate parameter that changes the determination result A parameter specifying unit for specifying a determination parameter for determining whether or not the event has occurred in the captured moving image;
A program for causing an image processing apparatus to function.


JP2017032855A 2017-02-24 2017-02-24 Image processing equipment and programs Active JP6862905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032855A JP6862905B2 (en) 2017-02-24 2017-02-24 Image processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032855A JP6862905B2 (en) 2017-02-24 2017-02-24 Image processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2018136895A true JP2018136895A (en) 2018-08-30
JP6862905B2 JP6862905B2 (en) 2021-04-21

Family

ID=63366992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032855A Active JP6862905B2 (en) 2017-02-24 2017-02-24 Image processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6862905B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519355A (en) * 2019-06-24 2022-03-23 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 How to display resources, appliances, equipment and computer programs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312769A (en) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd Monitoring device and parameter setting method therefor
JP2006163614A (en) * 2004-12-03 2006-06-22 Matsushita Electric Ind Co Ltd Image processing device and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312769A (en) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd Monitoring device and parameter setting method therefor
JP2006163614A (en) * 2004-12-03 2006-06-22 Matsushita Electric Ind Co Ltd Image processing device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519355A (en) * 2019-06-24 2022-03-23 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 How to display resources, appliances, equipment and computer programs
JP7210089B2 (en) 2019-06-24 2023-01-23 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 RESOURCE DISPLAY METHOD, APPARATUS, DEVICE AND COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP6862905B2 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
JP6347211B2 (en) Information processing system, information processing method, and program
US20140098996A1 (en) Image display apparatus and image display method
US20150016671A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
EP3351958B1 (en) Object position detection apparatus
JP6494418B2 (en) Image analysis apparatus, image analysis method, and program
US10970807B2 (en) Information processing apparatus and storage medium
JP2011073876A (en) Picking operation detection system, picking operation detection method and picking operation detection program
JP2019091121A (en) Information processing device, background update method and background update program
US11036974B2 (en) Image processing apparatus, image processing method, and storage medium
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2009140307A (en) Person detector
JP5155110B2 (en) Monitoring device
JP2017125974A (en) Display device, display method and program
JP2017215666A (en) Control device, control method, and program
US20200018926A1 (en) Information processing apparatus, information processing method, and program
JP2018136895A (en) Image processing device and program
JP6336935B2 (en) Moving object tracking device
US11363241B2 (en) Surveillance apparatus, surveillance method, and storage medium
US20190122389A1 (en) Information processing apparatus, information processing method, program, and imaging system
US20220036093A1 (en) Information processing apparatus, information processing method, and storage medium
JP5132705B2 (en) Image processing device
CN105227854B (en) A kind of dynamic point light source judgment method and device
JP6169446B2 (en) Gaze detection device
JP6897467B2 (en) Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method
JP2016170516A (en) Gaze object determination device, gaze object determination method and gaze object determination program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6862905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150