JP6627365B2 - Information processing method, information processing apparatus, and program - Google Patents
Information processing method, information processing apparatus, and program Download PDFInfo
- Publication number
- JP6627365B2 JP6627365B2 JP2015186610A JP2015186610A JP6627365B2 JP 6627365 B2 JP6627365 B2 JP 6627365B2 JP 2015186610 A JP2015186610 A JP 2015186610A JP 2015186610 A JP2015186610 A JP 2015186610A JP 6627365 B2 JP6627365 B2 JP 6627365B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- person
- feature amount
- feature
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 167
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims description 86
- 238000003384 imaging method Methods 0.000 claims description 56
- 230000008569 process Effects 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 50
- 230000005540 biological transmission Effects 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000012544 monitoring process Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000037308 hair color Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
Description
本発明は、情報処理方法、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing method, an information processing device, and a program.
相互に撮影領域が重ならない複数の監視カメラによって撮像される画像を用いて、人の移動軌跡を導出することができる。導出された移動軌跡は、例えば、マーケティング等に活用することができる。 It is possible to derive the trajectory of a person using images captured by a plurality of surveillance cameras whose imaging regions do not overlap each other. The derived movement trajectory can be used for, for example, marketing.
図1は、複数の監視カメラを利用した移動軌跡の導出方法を説明するための図である。図1の上側には、カメラA、カメラB、及びカメラCの3つの監視カメラが示されている。また、各カメラの撮像領域が破線によって示されている。また、カメラAによって撮像された、人物Yを含む画像と、カメラBによって撮像された、人物Xを含む画像と、カメラCによって撮像された、人物Zを含む画像とが示されている。 FIG. 1 is a diagram for explaining a method of deriving a movement trajectory using a plurality of monitoring cameras. On the upper side of FIG. 1, three surveillance cameras A, B and C are shown. Further, the imaging area of each camera is indicated by a broken line. Further, an image including the person Y, captured by the camera A, an image including the person X, captured by the camera B, and an image including the person Z, captured by the camera C, are illustrated.
図1の下側には、人物X、Y、及びZについて、各カメラの撮像領域への出現時刻と、各カメラの画像から抽出された複数種類の特徴量とが表形式で示されている。なお、表の1行目は、カメラBによって撮像された画像から得られた情報であり、2行目は、カメラAによって撮像された画像から得られた情報であり、3行目は、カメラCによって撮像された画像から得られた情報である。 In the lower part of FIG. 1, the appearance times of the persons X, Y, and Z in the imaging region of each camera and a plurality of types of feature amounts extracted from the image of each camera are shown in a table format. . Note that the first row of the table is information obtained from the image captured by the camera B, the second row is information obtained from the image captured by the camera A, and the third row is the camera C is information obtained from the image captured by C.
表内の各行の特徴量を比較することで、各人物の異同を判定することができる。図1の例では、人物Xと人物Yとが同一人物であると判定された例が示されている。その結果、当該人物の移動軌跡は、図1の上側の矢印に示されるようなものであることが導出される。 By comparing the feature values of each row in the table, it is possible to determine whether each person is different. FIG. 1 shows an example in which the person X and the person Y are determined to be the same person. As a result, it is derived that the movement trajectory of the person is as shown by the upper arrow in FIG.
上記のようなシステムを構築する場合、各監視カメラによって撮像される画像に基づく処理を、或るコンピュータが一元的に行うこととすると、各監視カメラによって撮像される画像が当該コンピュータに伝送される必要がある。したがって、ネットワークの負荷が大きくなってしまう。 In the case of constructing the system as described above, if a certain computer performs processing based on an image captured by each monitoring camera, the image captured by each monitoring camera is transmitted to the computer. There is a need. Therefore, the load on the network increases.
そこで、監視カメラごとに処理装置を配置して、特徴量の抽出及び人物の異同の判定等を、各処理装置に分散させることが考えられる。 Therefore, it is conceivable to arrange a processing device for each monitoring camera and distribute the extraction of the feature amount and the determination of the difference between the persons to the respective processing devices.
図2は、監視カメラごとの処理装置による特徴量の抽出及び人物の異同の判定を説明するための図である。図2では、人物HがカメラAからカメラBの方向に移動した状況が想定されている。 FIG. 2 is a diagram for explaining extraction of a feature amount and determination of a person's dissimilarity by a processing device for each monitoring camera. In FIG. 2, it is assumed that the person H has moved from the camera A to the camera B.
(1)カメラAの撮像領域に人物Hが出現すると、処理装置Aは、カメラAによって撮像される画像から人物Hを検出し、人物Hの特徴量を抽出する。処理装置Aは、当該特徴量を人物Xの特徴量としてDB(Data Base)に登録する。 (1) When the person H appears in the imaging region of the camera A, the processing device A detects the person H from an image captured by the camera A, and extracts a feature amount of the person H. The processing device A registers the feature amount as a feature amount of the person X in a DB (Data Base).
(2)その後、カメラBの撮像領域に人物Hが出現すると、処理装置Bは、カメラBによって撮像される画像から人物Hを検出し、人物Hの特徴量を抽出する。処理装置Bは、当該特徴量を人物Yの特徴量としてDBに登録する。 (2) Thereafter, when the person H appears in the imaging region of the camera B, the processing device B detects the person H from the image captured by the camera B, and extracts the feature amount of the person H. The processing device B registers the feature amount in the DB as the feature amount of the person Y.
(3)続いて、処理装置Bは、人物Yの特徴量を処理装置Aに送信する。 (3) Subsequently, the processing device B transmits the feature amount of the person Y to the processing device A.
(4)処理装置Aは、カメラBから送信された人物Yの特徴量と、DB内の人物Xとの特徴量とを比較して、人物Yと人物Xとが同一人物であることを判定する。 (4) The processing device A compares the feature amount of the person Y transmitted from the camera B with the feature amount of the person X in the DB, and determines that the person Y and the person X are the same person. I do.
(5)処理装置Aは、判定結果として、人物Yと人物Xとが同一人物であることを示す情報を、処理装置Bに送信する。 (5) The processing device A transmits, to the processing device B, information indicating that the person Y and the person X are the same person as the determination result.
上記のような構成によれば、各監視カメラによって撮像された画像をネットワークを介して伝送する必要が無いため、ネットワーク負荷を軽減することができる。 According to the above configuration, it is not necessary to transmit an image captured by each surveillance camera via a network, so that a network load can be reduced.
しかしながら、多数の人物が存在し、多数の監視カメラが設置されている環境では、各人物に関して抽出可能な全ての特徴量(顔、上半身の色、下半身の色等)を各処理装置間でやりとりした場合、伝送される特徴量の総量が大きくなってしまう。 However, in an environment where a large number of people exist and a large number of surveillance cameras are installed, all the feature amounts (face, upper body color, lower body color, etc.) that can be extracted for each person are exchanged between the processing devices. In such a case, the total amount of the transmitted feature amounts increases.
そこで、一側面では、本発明は、複数の場所に設置されている撮像装置によって撮像される画像に基づいて被写体の移動軌跡を導出するめに伝送されるデータ量を削減することを目的とする。 Therefore, in one aspect, an object of the present invention is to reduce the amount of data transmitted to derive a trajectory of a subject based on images captured by imaging devices installed at a plurality of locations.
一つの案では、複数の場所に設置された撮像装置ごとに配置される情報処理装置は、当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信する送信部と、前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信部によって送信された情報が示す特徴量を受信し、前記選択する処理において選択された一部の特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、処理を実行する。
In one proposal, an information processing device arranged for each of the imaging devices installed at a plurality of locations includes a first subject detected from an image captured by a first imaging device corresponding to the information processing device. Extracting a plurality of types of feature amounts, and for each of the plurality of types of feature amounts extracted in the extracting process, determining suitability for determining whether a subject captured by the first imaging device is different. A transmitting unit that selects a part of the characteristic amount having relatively high suitability and transmits information identifying the part of the characteristic amount selected in the selecting process to another information processing apparatus; Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the information processing device, the feature amount indicated by the information transmitted by the transmission unit is received. The judges a portion of selected features in the process of selecting, on the basis of the characteristic quantity received in the process of the receiving, the difference between the second object and the first object, the process Execute
一側面によれば、複数の場所に設置されている撮像装置によって撮像される画像に基づいて被写体の移動軌跡を導出するめに伝送されるデータ量を削減することができる。 According to one aspect, it is possible to reduce the amount of data transmitted to derive a movement trajectory of a subject based on images captured by imaging devices installed at a plurality of locations.
以下、図面に基づいて本発明の実施の形態を説明する。図3は、本発明の実施の形態における監視システムの構成例を示す図である。図3において、監視システム1は、カメラ20a、カメラ20b、カメラ20c、及びカメラ20d等の複数のカメラ20と、情報処理装置10a、情報処理装置10b、情報処理装置10c、及び情報処理装置10d等の複数の情報処理装置10とを含む。なお、カメラ20a、カメラ20b、カメラ20c、及びカメラ20dを区別しない場合、カメラ20という。同様に、情報処理装置10b、情報処理装置10c、及び情報処理装置10dを区別しない場合、情報処理装置10という。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a diagram illustrating a configuration example of the monitoring system according to the embodiment of the present invention. 3, a
カメラ20は、例えば、街中における複数の場所に設置されている監視カメラ20である。各カメラ20の撮像領域は、相互に重ならないように設置されている。但し、各カメラ20の撮像領域の一部が重なってもよい。また、5つ以上のカメラ20が設置されてもよいし、3つ以下のカメラ20が設置されてもよい。
The
各カメラ20には、それぞれに対応した情報処理装置10が接続されている。情報処理装置10は、例えば、カメラ20と共に街中に設置されてもよい。各情報処理装置10は、当該情報処理装置10に接続されているカメラ20によって撮像された画像に含まれている人物の特徴量を、他の情報処理装置10と交換することで、当該カメラ20によって撮像された人物群の中から、他のカメラ20によって撮像された人物との同一人物を判定する。そうすることで、各人物の移動軌跡を導出することができる。
Each
図4は、本発明の実施の形態における情報処理装置が実行する処理の概要を説明するための図である。図4では、カメラ20aによって撮像された人物との同一人物を、カメラ20bによって撮像された人物群の中から見つけ出す方法が示されている。
FIG. 4 is a diagram for describing an outline of processing executed by the information processing device according to the embodiment of the present invention. FIG. 4 shows a method of finding the same person as the person imaged by the
まず、情報処理装置10bは、カメラ20bによって撮像された画像に含まれている各人物について、当該画像から複数種類の特徴量を抽出する(S1)。図4の例では、上半身の色、下半身の色、靴、及び頭髪等に関する特徴量が抽出される例が示されている。
First, for each person included in the image captured by the
続いて、情報処理装置10bは、複数種類の特徴量を、それぞれの特徴空間にマッピングして分散を算出する(S2)。情報処理装置10bは、分散が相対的に大きい一部の特徴量を選択し、当該一部の特徴量を識別する情報を、情報処理装置10aに送信する(S3)。図4では、上半身の色が選択される。以下、選択された特徴量を「選択特徴量」といい、選択特徴量を識別する情報を、「選択特徴情報」という。
Subsequently, the
情報処理装置10aは、カメラ20aによって撮像された画像から検出される人物について抽出される複数種類の特徴量の中から(S4)、上半身の色に関する特徴量を情報処理装置10bに送信する(S5)。
The
情報処理装置10bは、情報処理装置10aから送信された特徴量(上半身の色)を、情報処理装置10bにおいて抽出された各人物の特徴量(上半身の色)とを照合して、カメラ20bによって撮像された人物群の中から、カメラ20aによって撮像された人物との同一人物を見つける。
The
なお、同一人物が見つからなかった場合、情報処理装置10aは、他の情報処理装置10に対してステップS5を実行する。この場合、ステップS5において送信される特徴量は、当該他の情報処理装置10によって実行されるステップS3において通知された選択特徴情報に基づいて選択される。
If the same person is not found, the
このように、本実施の形態では、人物の異同の判定を実行する情報処理装置10(図4では、情報処理装置10b)において、分散が相対的に高いと判定された特徴量が、他の情報処理装置10から当該情報処理装置10に伝送される。したがって、複数種類の全ての特徴量が伝送される場合に比べて、伝送されるデータ量を削減することができる。また、分散が相対的に高い特徴量は、人物の判別に対する適性(人物の判別の度合い又は人物の判別に対する寄与度)が相対的に高いと考えられる。換言すれば、伝送されない特徴量は、人物の判別に対する適性が低い特徴量であると考えられる。したがって、伝送される特徴量を一部にしたことによる、人物の異同の判定精度の劣化を抑制することができる。
As described above, in the present embodiment, in the information processing apparatus 10 (in FIG. 4, the
なお、選択特徴量は、カメラ20ごとに選択される。各カメラ20の撮像領域が異なるため、人物の判別に対する適性が相対的に高い特徴量がカメラ20ごとに異なると考えられるからである。例えば、カメラ20aで撮像される画像からは、上半身の色の判別が困難であったり、カメラ20bで撮像される画像からは、靴の判別が困難であったりといったように、各カメラ20によって撮像される画像の特性が異なりうると考えられるからである。
Note that the selected feature amount is selected for each
以下、情報処理装置10について、具体的に説明する。図5は、本発明の実施の形態における情報処理装置のハードウェア構成例を示す図である。図5の情報処理装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
Hereinafter, the
情報処理装置10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
A program for realizing the processing in the
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って情報処理装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
The
なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。
Note that examples of the
図6は、本発明の実施の形態における情報処理装置の機能構成例を示す図である。図6において、情報処理装置10は、人物検出部111、特徴量抽出部112、人物追跡部113、選択特徴量判定部114、選択特徴送信部115、選択特徴受信部116、特徴量取得部117、判定要求送信部118、判定要求受信部119、同一人物判定部120、判定結果送信部121、及び判定結果受信部122等を有する。これら各部は、情報処理装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。情報処理装置10は、また、人物情報記憶部131及び選択特徴記憶部132を利用する。これら各記憶部は、例えば、補助記憶装置102、又は情報処理装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
FIG. 6 is a diagram illustrating a functional configuration example of the information processing apparatus according to the embodiment of the present invention. 6, the
人物検出部111は、カメラ20によって撮像される映像(動画像)の被写体の中から人物を検出する。複数の人物が映像に含まれている場合、複数の人物のそれぞれが検出される。特徴量抽出部112は、人物検出部111によって検出された各人物の映像から複数種類の特徴量を抽出する。人物追跡部113は、カメラ20によって撮像される映像における各人物を追跡する。人物の追跡は、当該人物がカメラ20の撮像領域から退出するまで行われる。すなわち、追跡とは、一つのカメラ20によって撮像される映像の中における同一人物の移動を追跡することをいう。人物追跡部113は、追跡した各人物について抽出された複数種類の特徴量等を人物情報記憶部131に記憶する。
The
選択特徴量判定部114は、人物情報記憶部131に記憶されている複数の人物の複数種類の特徴量の中から選択特徴量を判定する。選択特徴送信部115は、他の情報処理装置10に対して、選択特徴量を示す選択特徴情報を送信する。
The selected feature
選択特徴受信部116は、他の情報処理装置10から送信される選択特徴情報を受信する。選択特徴受信部116は、受信した選択特徴情報を、他の情報処理装置10ごとに選択特徴記憶部132に記憶する。
The selected
特徴量取得部117は、同一人物の判定対象とする人物の特徴量を人物情報記憶部131から取得する。判定要求送信部118は、特徴量取得部117によって取得された特徴量に係る人物との同一人物の有無の判定要求を、他の情報処理装置10に送信する。当該判定要求には、当該他の情報処理装置10に対する選択特徴情報が示す特徴量が含まれる。
The feature
判定要求受信部119は、他の情報処理装置10から送信される同一人物の判定要求を受信する。同一人物判定部120は、判定要求受信部119によって受信される判定要求に含まれている特徴量と、人物情報記憶部131に記憶されている特徴量とを比較及び照合して、判定要求に係る人物との同一人物の有無を判定する。判定結果送信部121は、同一人物判定部120による判定結果を、特徴量の送信元の他の情報処理装置10に送信する。
The determination
判定結果受信部122は、他の情報処理装置10から送信される、同一人物の判定要求に対する判定結果を受信する。
The determination
以下、各情報処理装置10が実行する処理手順について説明する。図7は、特徴量の抽出処理の処理手順の一例を説明するためのフローチャートである。
Hereinafter, a processing procedure executed by each
ステップS101において、人物検出部111は、カメラ20から入力される映像(動画像)を画像(静止画像)に変換して、当該画像の被写体のなから人物を検出する。例えば、映像がフレーム毎の画像に変換されて、当該画像から人物が検出される。人物の検出に伴って、画像中における当該人物の位置情報が特定される。また、位置情報に対して現在時刻を示す時刻情報が関連付けられる。当該人物の位置情報は、当該人物に係る画素のうちのいずれかの画素(例えば、上端(頭頂)の画素)の、画像中における座標値であってもよい。なお、ステップS101〜S104は、フレームごとに実行される。処理対象とされるフレームを「対象フレーム」という。
In step S101, the
続いて、特徴量抽出部112は、対象フレームにおいて検出された各人物について、複数種類の特徴量を、対象フレームから抽出する(S102)。例えば、人物の上半身の色、下半身の服の色、人物の体型(身長、幅など)等に関する特徴量が抽出される。例えば、上半身又は下半身の色であれば、上半身部分又は下半身部分に該当する画像のRGB成分をそれぞれ平均することで得られる値が特徴量として抽出されてもよい。
Subsequently, the feature
続いて、人物追跡部113は、対象フレームから検出された各人物の位置情報、時刻情報、及び各特徴量と、対象フレームの一つ前のフレーム(以下、「前フレーム」という。)で検出された各人物の位置情報、時刻情報、及び各特徴量を同一人物同士で対応付けて、例えば、メモリ装置103に記憶することで、前フレームにおける各人物の追跡を行う(S103)。なお、同一人物は、複数種類の特徴量に基づいて判定される。また、人物の検出及び追跡(S101〜S103)には、たとえば、特開2002−157599に記載されている手法が利用されてもよい。又は、「山下隆義,藤吉弘亘,"追跡対象と周辺領域の関係性を利用した協調的な物体追跡",画像の認識・理解シンポジウム(MIRU2011),pp.56-63,2011.」に記載されている手法が利用されてもよい。
Subsequently, the
続いて、人物追跡部113は、追跡中の人物がカメラ20の撮像領域外に移動したか否かを判定する(S104)。具体的には、前フレームでは検出されていた人物が、今回のフレームで検出されなかった場合に、当該人物が撮像領域外に移動したと判定される。該当する人物が存在しない場合(S104でNo)、ステップS101以降がフレームごとに繰り返される。
Subsequently, the
該当する人物が存在する場合(S104でYes)、人物追跡部113は、当該人物に関してフレームごとにメモリ装置103に記憶されている位置情報の履歴、時刻情報の履歴、及び各特徴量を、人物情報記憶部131に記憶する(S105)。
If the corresponding person exists (Yes in S104), the
図8は、人物情報記憶部の構成例を示す図である。図8において、人物情報記憶部131は、過去に検出され、撮像領域外に移動した人物ごとに、人物ID、移動経路、特徴量集合、及び判定結果等を記憶する。
FIG. 8 is a diagram illustrating a configuration example of a person information storage unit. 8, the person
人物IDは、人物ごとの識別情報であり、例えば、ステップS105において割り当てられる。なお、人物IDは、一つの情報処理装置10内において、カメラ20の撮像領域内に出現した人物を識別する情報である。したがって、或る人物Aに対して、各情報処理装置10において同一の人物IDが割り当てられるとは限らない。また、異なる時期に出現した人物Aに対して、同一の人物IDが割り当てられるとは限らない。
The person ID is identification information for each person, and is assigned, for example, in step S105. In addition, the person ID is information for identifying a person who has appeared in the imaging region of the
移動経路は、位置情報及び時刻情報の履歴を時系列に含む情報である。すなわち、移動経路は、カメラ20の撮像領域内における人物の移動経路を示す情報である。図8の例では、1秒間隔である例が示されているが、更に短い間隔で位置情報及び時刻情報が記録されてもよい。
The travel route is information that includes a history of position information and time information in a time series. That is, the moving route is information indicating the moving route of the person in the imaging area of the
特徴量集合は、人物に関して抽出された複数種類の全ての特徴量である。なお、特徴量は、フレームごとに抽出されているため、各フレームから抽出された特徴量が種別ごとに1つの値に統合された結果が、人物情報記憶部131に記憶される。統合は、代表値の選出又は算出によって行われてもよい。例えば、中央値が選択されてもよいし、平均値が算出されてもよい。又は、人物が最も大きく撮像されているフレームから抽出された特徴量が選択されてもよい。
The feature amount set is all of a plurality of types of feature amounts extracted for a person. Since the feature amount is extracted for each frame, the result obtained by integrating the feature amount extracted from each frame into one value for each type is stored in the person
判定結果には、他の情報処理装置10において検出された人物と同一人物であることが判定された場合に、当該他の情報処理装置10の識別情報(以下、「装置ID」という。)と、当該他の情報処理装置10における当該人物の人物IDとが記録される。
The determination result includes, when it is determined that the person is the same person as the person detected in the other
続いて、ステップS101以降が繰り返される。 Subsequently, step S101 and the subsequent steps are repeated.
図9は、選択特徴情報の送信処理の処理手順の一例を説明するためのフローチャートである。図9の処理手順は、各情報処理装置10において、図9の処理手順と並行して実行される。
FIG. 9 is a flowchart illustrating an example of a processing procedure of a transmission process of the selected feature information. The processing procedure of FIG. 9 is executed in each
ステップS201において、選択特徴量判定部114は、前回の選択特徴量の判定時期から所定時間が経過したか否かを判定する。すなわち、選択特徴量は、所定時間が経過するたびに判定される。前回の判定時期から所定時間が経過した場合(S201でYes)、選択特徴量判定部114は、人物情報記憶部131に人物ごとに記憶されている特徴量集合に基づいて、人物の異同の判別に関して適性が相対的に高い特徴量の種別(選択特徴量)を選択する(S202)。例えば、選択特徴量判定部114は、現在時刻から一定時間内において人物情報記憶部131に記憶された各レコードに係る各人物の特徴量集合を取得し、特徴量の種別ごとのそれぞれの特徴量の集合について分散を算出する。選択特徴量判定部114は、分散が大きい順に、一部の特徴量の種別を選択特徴量として選択する。分散が大きいほど、各人物の特徴量が特徴空間上にばらばらに配置されているため、各人物の判別に適していると考えられるからである。但し、他の方法によって選択特徴量が選択されてもよい。また、選択特徴量は1つでもよいし複数でもよい。分散の大きさの上位から、所定の数の特徴量が選択特徴量とされてもよい。また、例えば、既に選択された上位の特徴量との相関が低い特徴量が優先的に選択されるようにしてもよい。例えば、仮に、全ての人物について、上半身の色と下半身の色とが共通する場合、上半身の色と下半身の色とを選択特徴量としても、実質的には、いずれか一方の特徴量を選択した場合に比して、人物の異同の判定精度が大きく向上することは期待できない。したがって、相互に相関が低い特徴量が、選択特徴量として選択されるようにしてもよい。相互に相関が低い特徴量の選択は、全種類の特徴量を多次元空間にマッピングして主成分分析を行い、第1主成分から選択していくことで実現可能である。
In step S201, the selected feature
続いて、選択特徴送信部115は、当該情報処理装置10の装置IDと、選択された選択特徴量を示す選択特徴情報とを、他の情報処理装置10へ送信する(S203)。例えば、情報処理装置10aが、図9の処理を実行した場合には、情報処理装置10b、情報処理装置10c、及び情報処理装置10dに対して、情報処理装置10aの装置IDと、選択特徴情報とが送信されてもよい。なお、多数のカメラ20が設置されている大規模な監視システム1では、他の全ての情報処理装置10に対してではなく、近隣の一部の情報処理装置10に対して選択特徴情報が送信されてもよい。選択特徴情報の送信先の他の情報処理装置10の識別情報は、各情報処理装置10に予め記憶されていてもよい。
Subsequently, the selected
選択特徴情報は、例えば、特徴量の種別毎にビットが割り当てられたビット列でもよい。この場合、選択特徴量として選択された特徴量の種別に対応したビットが"1"とされ、そうでない種別に対応したビットが"0"とされてもよい。 The selected feature information may be, for example, a bit string in which bits are assigned for each type of feature amount. In this case, the bit corresponding to the type of the feature amount selected as the selected feature amount may be “1”, and the bit corresponding to the type other than the selected feature amount may be “0”.
なお、図9の例では、所定期間ごと(周期的)に、選択特徴情報が他の情報処理装置10に通知されるが、前回送信した選択特徴情報と、今回判定された選択特徴情報との間に相違が無い場合には、選択特徴情報の送信は行われなくてもよい。
In the example of FIG. 9, the selected feature information is notified to the other
このように、選択特徴量は、時間の経過に応じて更新される。したがって、或るカメラ20の撮像領域の状況が、時間帯に応じて変化する場合であっても、情報処理装置10は、各時間帯に適した特徴量を、人物の異同の判定に用いることができる。
As described above, the selected feature amount is updated as time passes. Therefore, even when the situation of the imaging region of a
図10は、同一のカメラの撮像領域について時間帯に応じた状況の変化の例を示す図である。図10では、或るカメラ20の撮像領域について、時刻T1、時刻T2、及び時刻T3における状況が示されている。
FIG. 10 is a diagram illustrating an example of a change in a situation according to a time zone with respect to an imaging region of the same camera. FIG. 10 shows a situation at a time T1, a time T2, and a time T3 with respect to an imaging region of a
時刻T1では、多数の人物がカメラ20の方向に向いている状況が発生している。時刻T2では、少数の人物が、カメラ20に背を向けている状況が発生している。時刻T3では、少数の人物がカメラ20に対して横を向いており、かつ、多数の荷物が、カメラ20と人物との間に置かれている状況が発生している。
At time T1, a situation has occurred in which many people are facing the
例えば、時刻T1では、人物の顔に関する特徴量の精度(信頼度)は高いが、多数の人物の体が重なっているため、上半身の色及び下半身の色に関する特徴量の精度は低いと考えられる。また、時刻T2では、人物の顔に関する特徴量の精度は低いが、上半身の色及び下半身の色に関する特徴量の精度は高いと考えられる。更に、時刻T3では、人物の顔に関する特徴量の精度は中程度であり、上半身の色に関する精度は高く、下半身の色に関する精度は低いと考えられる。 For example, at time T1, the accuracy (reliability) of the feature amount related to the face of the person is high, but the accuracy of the feature amount related to the color of the upper body and the color of the lower body is considered to be low because the bodies of many people overlap. . Also, at time T2, the accuracy of the feature amount regarding the face of the person is low, but the accuracy of the feature amount regarding the color of the upper body and the color of the lower body is considered to be high. Further, at time T3, the accuracy of the feature amount regarding the face of the person is moderate, the accuracy regarding the color of the upper body is high, and the accuracy regarding the color of the lower body is low.
上記のような事情に鑑みれば、選択特徴量に適した特徴量は、同一のカメラ20であっても、時間帯に応じて異なることが考えられる。
In view of the above circumstances, it is conceivable that the feature amount suitable for the selected feature amount differs depending on the time zone even for the
図11は、選択特徴情報の受信処理の処理手順の一例を説明するためのフローチャートである。図11の処理手順は、各情報処理装置10において、図7及び図9の処理手順と並行して実行される。
FIG. 11 is a flowchart illustrating an example of a processing procedure of a reception process of the selected feature information. The processing procedure of FIG. 11 is executed in each
選択特徴受信部116は、他の情報処理装置10から送信される選択特徴情報の受信を待機している(S301)。選択特徴受信部116は、他のいずれかの情報処理装置10が実行したステップS203(図9)において送信された装置ID及び選択特徴情報を受信すると(S301でYes)、当該選択特徴情報を、当該装置IDに対応付けて選択特徴記憶部132に記憶する(S302)。当該装置IDに対応付けられている選択特徴情報が既に記憶されている場合には、既存の選択特徴情報が、新たに受信された選択特徴情報によって更新(上書き)される。
The selected
図12は、選択特徴記憶部の構成例を示す図である。図12に示されるように、選択特徴記憶部132は、装置IDに対応付けて、選択特徴情報であるビット列を記憶する。
FIG. 12 is a diagram illustrating a configuration example of the selected feature storage unit. As shown in FIG. 12, the selected
図13は、同一人物の判定要求の送信処理の処理手順の一例を説明するためのフローチャートである。図13の処理手順は、各情報処理装置10において、図7、図9、及び図11の処理手順と並行して実行される。
特徴量取得部117は、人物情報記憶部131への新たなレコード(人物)の登録を待機している(S401)。図7のステップS105が実行されることにより、新たなレコード(以下、「新規登録レコード」という。)が人物情報記憶部131(図8)に登録されると(S401でYes)、特徴量取得部117は、当該レコードに記憶されている特徴量集を取得する(S402)。
FIG. 13 is a flowchart illustrating an example of a processing procedure of a transmission process of a determination request of the same person. The processing procedure of FIG. 13 is executed in each
The feature
続いて、判定要求送信部118は、同一人物の判定要求の送信先の候補である他の情報処理装置10のうちの一つの情報処理装置10を選択する(S403)。以下、選択された情報処理装置10を、「対象装置」という。なお、同一人物の判定要求の送信先の候補の一覧は、図9のステップS203における選択特徴情報の送信先の他の情報処理装置10の一覧と同じでもよい。
Subsequently, the determination
続いて、判定要求送信部118は、ステップS402において取得された特徴量を含む、同一人物の判定要求を対象装置へ送信する(S404)。この際、当該判定要求に含まれる特徴量は、対象装置の装置IDに対応付けられて選択特徴記憶部132に記憶されている選択特徴情報において、ビット値が1である特徴量に限定される。すなわち、対象装置において選択された選択特徴量に該当する特徴量が、対象装置に送信される。なお、当該情報処理装置10における選択特徴量と、対象装置の選択特徴量とが一致しない場合も考えられる。したがって、対象装置の選択特徴量であり、かつ、当該情報処理装置10の選択特徴量である特徴量が、対象装置に送信されてもよい。
Subsequently, the determination
続いて、判定結果受信部122は、対象装置において実行された同一人物の判定処理による判定結果を受信する(S405)。なお、同一人物の判定処理の詳細については後述される。受信された判定結果が、同一人物が存在することを示す場合(S406でYes)、判定結果には、同一人物であると判定された人物についての、対象装置における人物IDが含まれている。そこで、判定結果受信部122は、新規登録レコードの「判定結果」に、対象装置の装置IDと、判定結果に含まれている人物IDとを記憶する(S407)。
Subsequently, the determination
一方、判定結果が、同一人物が存在しないことを示す場合(S406でNo)、判定要求送信部118は、同一人物の判定要求の送信先の候補のうち、新規レコードに係る人物に関する判定要求を送信していない候補の有無を判定する(S408)。該当する候補が有る場合(S408でYes)、当該候補に係る情報処理装置10に関してステップS403以降が繰り返される。該当する候補が無い場合(S408でNo)、ステップS401に戻る。すなわち、この場合、新規登録レコードに係る人物との同一人物の探索は断念される。
On the other hand, when the determination result indicates that the same person does not exist (No in S406), the determination
なお、図13の処理では、同一人物の判定要求の送信先の候補のうちの一つの候補によって、同一人物が存在することが判定された場合、新規レコードに係る同一人物の探索は終了する。したがって、図13の処理が、各情報処理装置10において連鎖的に実行され、各情報処理装置10の人物情報記憶部131に記憶されている情報を収集することで、或る人物の移動軌跡を導出することができる。
In the process of FIG. 13, when it is determined that the same person exists by one of the candidates of the transmission destination of the same person determination request, the search for the same person related to the new record ends. Therefore, the processing of FIG. 13 is executed in a chain in each
なお、ステップS403における対象装置の選択順(判定要求の送信順)は、例えば、カメラ20の設置場所等の距離に応じて予め定められていてもよいし、何らかの条件によって動的に変更されるようにしてもよい。又は、情報処理装置10の順番をリング状に表現した場合に、各情報処理装置10における選択順は、当該順番において当該情報処理装置10の次の情報処理装置10が先頭となるように決められてもよい。本実施の形態であれば、情報処理装置10a、b、c、dの順に並べた場合、情報処理装置10aにおける選択順は、情報処理装置10b、c、dであり、情報処理装置10bにおける選択順は、情報処理装置10c、d、aとなるように決められてもよい。
The order in which the target devices are selected in step S403 (the order in which the determination requests are transmitted) may be determined in advance according to, for example, the distance of the installation location of the
図14は、同一人物の判定処理の処理手順の一例を説明するためのフローチャートである。図14の処理手順は、各情報処理装置10において、図7、図9、図11、及び図13の処理手順と並行して実行される。
FIG. 14 is a flowchart illustrating an example of a processing procedure of the same person determination process. The processing procedure of FIG. 14 is executed in each
判定要求受信部119は、他の情報処理装置10からの同一人物の判定要求の受信を待機している(S501)。他のいずれかの情報処理装置10によって実行される図13のステップS404において送信された判定要求が判定要求受信部119によって受信されると(S501でYes)、同一人物判定部120は、当該判定要求に係る人物との同一人物の有無を判定する(S502)。具体的には、当該判定要求に含まれている特徴量と、人物情報記憶部131に記憶されている特徴量集合のうち、当該判定要求に含まれている装置IDに対応付けられて選択特徴記憶部132に記憶されている選択特徴情報が示す選択特徴量とを照合して、同一人物の有無が判定される。すなわち、当該判定要求に含まれている特徴量に類似している特徴量を含むレコードが人物情報記憶部131に記憶されていれば、当該レコードに係る人物が、判定要求に係る人物と同一人物であると判定される。
The determination
比較された特徴量が類似しているか否かは、比較される特徴量の類似度と閾値とを比較することで判定されてもよい。例えば、比較される特徴量が色情報である場合、一方の特徴量が(R1,G1,B1)であり、他方の特徴量が(R2,G2,B2)であれば、以下のような相関値や、RGBの3次元空間状の2点間の距離が、類似度として算出されてもよい。 Whether or not the compared feature amounts are similar may be determined by comparing the similarity of the compared feature amounts with a threshold. For example, if the feature to be compared is color information, if one of the feature is (R 1 , G 1 , B 1 ) and the other is (R 2 , G 2 , B 2 ) The following correlation value or the distance between two points in a three-dimensional space of RGB may be calculated as the similarity.
この場合、相関値又は2点間の距離が、閾値以下であれば、比較された特徴量は類似していると判定されてもよい。他の種別の特徴量についても、それぞれの種別に適した方法で、類似度が算出されてもよい。 In this case, if the correlation value or the distance between the two points is equal to or less than the threshold value, the compared feature amounts may be determined to be similar. The similarity may be calculated for the feature amounts of other types by a method suitable for each type.
また、同一人物であるか否かの判定は、比較された全ての種別の特徴量が類似していることが条件とされてもよい。又は、比較された各種別の類似度の合計と、閾値とを比較することで同一人物であるか否かの判定が行われてもよい。 The determination as to whether or not they are the same person may be made on condition that the feature amounts of all types compared are similar. Alternatively, it may be determined whether or not the same person is the same person by comparing the sum of the similarities of various types compared with each other and the threshold.
続いて、判定結果送信部121は、同一人物判定部120による判定結果を、判定要求の送信元の他の情報処理装置10に送信する(S503)。例えば、同一人物が存在すると判定された場合には、同一人物に係る人物の人物IDが、送信される。同一人物が存在しないと判定された場合には、同一人物が存在しないことを示す情報(例えば、「−1」)が送信される。
Subsequently, the determination
続いて、カメラ20aからカメラ20bの方向に人物Hが移動した場合に、情報処理装置10a及び情報処理装置10bにおいて実行される処理について具体的に説明する。
Next, processing executed in the
まず、各情報処理装置10では、図9及び図11に示した処理手順が定期的に実行されている。例えば、情報処理装置10aは、情報処理装置10aの人物情報記憶部131に記憶されている各レコードの特徴量集合に基づいて、選択特徴量を選択する。ここでは、上半身の色、下半身の色、頭髪色、及び靴の色の4種類の特徴量が特徴量集合に含まれることとする。例えば、頭髪色と下半身の色が選択されると、情報処理装置10bは、頭髪色と下半身の色とが選択特徴量であることを示す選択特徴情報を情報処理装置10bに送信する。例えば、選択特徴情報のビット列の各ビットが、上半身の色,下半身の色,頭髪色,靴の色}の順に対応する場合、{0,1,1,0}というビット列が、情報処理装置10bに送信される。
First, in each
カメラ20aの撮像領域に人物Hが出現すると、図7に示した処理手順が情報処理装置10aによって実行される。その結果、情報処理装置10aの人物情報記憶部131に、人物Hに関するレコードが記憶される。なお、ここでは、人物Hに対する人物IDとして、「005」が割り当てられたとする。
When the person H appears in the imaging area of the
人物Hに関するレコードが人物情報記憶部131に記憶されたことに応じ、情報処理装置10aは、図13に示した処理手順を実行する。ここで、情報処理装置10bに対して人物Hと同一人物の有無の判定要求が送信されるが、人物Hは、カメラ20bの撮像領域には到達していないため、情報処理装置10bからは、同一人物が存在しないことを示す情報が返信される。
In response to the record regarding the person H being stored in the person
その後、人物Hがカメラ20bの撮像領域に出現すると、図7に示した処理手順が情報処理装置10bによって実行される。その結果、情報処理装置10bの人物情報記憶部131に、人物Hに関するレコードが記憶される。情報処理装置10bでは、人物Hに対する人物IDとして、「001」が割り当てられたとする。
Thereafter, when the person H appears in the imaging area of the
人物Hに関するレコードが人物情報記憶部131に記憶されたことに応じ、情報処理装置10bは、図13に示した処理手順を実行する。ここでは、情報処理装置10aに対して、当該レコードの頭髪色と下半身の色とを含む、同一人物の有無の判定要求が送信される。
In response to the record regarding the person H being stored in the person
情報処理装置10aは、当該判定要求に応じ、図14に示した処理手順を実行する。その結果、人物IDが「005」である人物が、判定要求に係る人物と同一人物であると判定される。そこで、情報処理装置10aは、人物ID「005」を含む判定結果を、情報処理装置10bに送信する。
The
情報処理装置10bは、当該判定結果を受信すると、人物情報記憶部131において、人物IDが「001」であるレコードの「判定結果」に対し、情報処理装置10aの装置IDと、人物ID「005」とを記憶する。その結果、情報処理装置10bにおける人物ID「001」の人物と、情報処理装置10aにおいて人物ID「005」の人物とが同一人物であることが記憶される。
Upon receiving the determination result, the
上述したように、本実施の形態によれば、同一人物の判定処理を実行する情報処理装置10にとって、人物を判別するための適性が相対的に高い特徴量が当該情報処理装置10に伝送される。その結果、全ての特徴量が伝送される場合に比べて、複数の場所に設置されているカメラ20によって撮像される画像に基づいて人物の移動軌跡を導出するめに伝送されるデータ量を削減することができる。
As described above, according to the present embodiment, for the
なお、本実施の形態では、異同の判定対象とされる被写体(物体)が人物である例について説明したが、人物以外の被写体について異同の判定が行われてもよい。 Note that, in the present embodiment, an example has been described in which the subject (object) to be determined to be different is a person, but the difference may be determined for subjects other than the person.
なお、本実施の形態において、特徴量抽出部112は、抽出部の一例である。選択特徴量判定部114は、選択部の一例である。選択特徴送信部115は、送信部の一例である。判定要求受信部119は、受信部の一例である。同一人物判定部120は、判定部の一例である。カメラ20は、撮像装置の一例である。
Note that, in the present embodiment, the feature
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 As mentioned above, although the Example of this invention was described in full detail, this invention is not limited to such a specific embodiment, A various deformation | transformation is carried out within the range of the gist of this invention described in the claim.・ Change is possible.
以上の説明に関し、更に以下の項を開示する。
(付記1)
複数の場所に設置された撮像装置ごとに配置される情報処理装置が、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記抽出する処理において抽出された特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行することを特徴とする情報処理方法。
(付記2)
前記抽出する処理は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択する処理は、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする付記1記載の情報処理方法。
(付記3)
前記選択する処理は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信する処理は、前記選択する処理において前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする付記1又は2記載の情報処理方法。
(付記4)
複数の場所に設置された撮像装置ごとに配置される情報処理装置であって、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出する抽出部と、
前記抽出部によって抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択する選択部と、
前記選択部によって選択された一部の特徴量を識別する情報を他の情報処理装置に送信する送信部と、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信部によって送信された情報が示す特徴量を受信する受信部と、
前記抽出部によって抽出された特徴量と、前記受信部によって受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する判定部と、
を有することを特徴とする情報処理装置。
(付記5)
前記抽出部は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択部は、前記抽出部によって抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする付記4記載の情報処理装置。
(付記6)
前記選択部は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信部は、前記選択部によって前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする付記4又は5記載の情報処理装置。
(付記7)
複数の場所に設置された撮像装置ごとに配置される情報処理装置に、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記抽出する処理において抽出された特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行させることを特徴とするプログラム。
(付記8)
前記抽出する処理は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択する処理は、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする付記7記載のプログラム。
(付記9)
前記選択する処理は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信する処理は、前記選択する処理において前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする付記1又は2記載のプログラム。
With respect to the above description, the following items are further disclosed.
(Appendix 1)
An information processing device arranged for each imaging device installed at a plurality of locations,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining the difference between the first subject and the second subject based on the feature value extracted in the extracting process and the feature value received in the receiving process;
An information processing method comprising performing processing.
(Appendix 2)
The extracting process includes extracting a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
In the selecting process, a variance is calculated for each of the plurality of types of feature amounts extracted in the extracting process, and based on the calculated variance, a part of the feature amount having relatively high suitability is selected. ,
The information processing method according to
(Appendix 3)
The process of selecting, for each predetermined period, selecting the partial feature amount,
The transmitting process includes transmitting information identifying the partial feature amount to another information processing device each time the partial feature amount is selected in the selecting process.
3. The information processing method according to
(Appendix 4)
An information processing device arranged for each imaging device installed in a plurality of places,
An extraction unit configured to extract a plurality of types of feature amounts for a first subject detected from an image captured by a first imaging device corresponding to the information processing device;
For each of the plurality of types of feature amounts extracted by the extraction unit, the suitability for determining the difference between the subjects imaged by the first imaging device is determined, and a part of the suitability is relatively high. A selection unit for selecting a feature amount;
A transmitting unit that transmits information for identifying a part of the feature amount selected by the selecting unit to another information processing device,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted by the transmission unit is received. A receiving unit that performs
A determination unit configured to determine a difference between the first subject and the second subject based on the feature amount extracted by the extraction unit and the feature amount received by the reception unit;
An information processing apparatus comprising:
(Appendix 5)
The extraction unit extracts a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
The selection unit calculates a variance for each of the plurality of types of feature amounts extracted by the extraction unit, and based on the calculated variance, selects a part of the suitability where the suitability is relatively high,
4. The information processing apparatus according to claim 4, wherein
(Appendix 6)
The selecting unit selects the part of the feature amounts for each predetermined period,
The transmitting unit transmits information identifying the partial feature amount to another information processing device each time the partial feature amount is selected by the selecting unit.
The information processing apparatus according to claim 4 or 5, wherein
(Appendix 7)
In the information processing device arranged for each imaging device installed in a plurality of places,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining the difference between the first subject and the second subject based on the feature value extracted in the extracting process and the feature value received in the receiving process;
A program for executing a process.
(Appendix 8)
The extracting process includes extracting a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
In the selecting process, a variance is calculated for each of the plurality of types of feature amounts extracted in the extracting process, and based on the calculated variance, a part of the feature amount having relatively high suitability is selected. ,
The program according to supplementary note 7, characterized in that:
(Appendix 9)
The process of selecting, for each predetermined period, selecting the partial feature amount,
The transmitting process includes transmitting information identifying the partial feature amount to another information processing device each time the partial feature amount is selected in the selecting process.
3. The program according to
1 監視システム
10 情報処理装置
20 カメラ
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
111 人物検出部
112 特徴量抽出部
113 人物追跡部
114 選択特徴量判定部
115 選択特徴送信部
116 選択特徴受信部
117 特徴量取得部
118 判定要求送信部
119 判定要求受信部
120 同一人物判定部
121 判定結果送信部
122 判定結果受信部
131 人物情報記憶部
132 選択特徴記憶部
B バス
105
Claims (5)
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記選択する処理において選択された一部の特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行することを特徴とする情報処理方法。 An information processing device arranged for each imaging device installed at a plurality of locations,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining a difference between the first subject and the second subject based on a part of the feature amounts selected in the selecting process and the feature amounts received in the receiving process;
An information processing method comprising performing processing.
前記選択する処理は、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする請求項1記載の情報処理方法。 The extracting process includes extracting a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
In the selecting process, a variance is calculated for each of the plurality of types of feature amounts extracted in the extracting process, and based on the calculated variance, a part of the feature amount having relatively high suitability is selected. ,
2. The information processing method according to claim 1, wherein:
前記送信する処理は、前記選択する処理において前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする請求項1又は2記載の情報処理方法。 The process of selecting, for each predetermined period, selecting the partial feature amount,
The transmitting process includes transmitting information identifying the partial feature amount to another information processing device each time the partial feature amount is selected in the selecting process.
3. The information processing method according to claim 1, wherein:
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出する抽出部と、
前記抽出部によって抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択する選択部と、
前記選択部によって選択された一部の特徴量を識別する情報を他の情報処理装置に送信する送信部と、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信部によって送信された情報が示す特徴量を受信する受信部と、
前記選択部によって選択された一部の特徴量と、前記受信部によって受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する判定部と、
を有することを特徴とする情報処理装置。 An information processing device arranged for each imaging device installed in a plurality of places,
An extraction unit configured to extract a plurality of types of feature amounts for a first subject detected from an image captured by a first imaging device corresponding to the information processing device;
For each of the plurality of types of feature amounts extracted by the extraction unit, the suitability for determining the difference between the subjects imaged by the first imaging device is determined, and a part of the suitability is relatively high. A selection unit for selecting a feature amount;
A transmitting unit that transmits information for identifying a part of the feature amount selected by the selecting unit to another information processing device,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted by the transmission unit is received. A receiving unit that performs
A determination unit configured to determine the difference between the first subject and the second subject based on a part of the feature amounts selected by the selection unit and the feature amounts received by the reception unit;
An information processing apparatus comprising:
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記選択する処理において選択された一部の特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行させることを特徴とするプログラム。 In the information processing device arranged for each imaging device installed in a plurality of places,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining a difference between the first subject and the second subject based on a part of the feature amounts selected in the selecting process and the feature amounts received in the receiving process;
A program for executing a process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015186610A JP6627365B2 (en) | 2015-09-24 | 2015-09-24 | Information processing method, information processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015186610A JP6627365B2 (en) | 2015-09-24 | 2015-09-24 | Information processing method, information processing apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017063266A JP2017063266A (en) | 2017-03-30 |
JP6627365B2 true JP6627365B2 (en) | 2020-01-08 |
Family
ID=58429292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015186610A Expired - Fee Related JP6627365B2 (en) | 2015-09-24 | 2015-09-24 | Information processing method, information processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6627365B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7218416B2 (en) * | 2017-04-26 | 2023-02-06 | キヤノン株式会社 | Information processing device, information processing system, information processing method and program |
JP2018186397A (en) * | 2017-04-26 | 2018-11-22 | キヤノン株式会社 | Information processing device, image monitoring system, information processing method, and program |
JP6958020B2 (en) * | 2017-06-22 | 2021-11-02 | 富士通株式会社 | Image analysis program, image analysis device, and image analysis method |
JP7185537B2 (en) * | 2019-01-15 | 2022-12-07 | 株式会社Nttドコモ | Imaging system |
JP7395082B1 (en) * | 2022-02-15 | 2023-12-08 | 三菱電機株式会社 | Image search device, image search method, and image search program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09130783A (en) * | 1995-10-31 | 1997-05-16 | Matsushita Electric Ind Co Ltd | Distributed video monitoring system |
JP3999561B2 (en) * | 2002-05-07 | 2007-10-31 | 松下電器産業株式会社 | Surveillance system and surveillance camera |
JP5085621B2 (en) * | 2009-09-10 | 2012-11-28 | 株式会社東芝 | Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing |
EP2549759B1 (en) * | 2011-07-19 | 2016-01-13 | Axis AB | Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras |
JP6225039B2 (en) * | 2014-01-31 | 2017-11-01 | 株式会社日立製作所 | Image search system, image search apparatus, and image search method |
-
2015
- 2015-09-24 JP JP2015186610A patent/JP6627365B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017063266A (en) | 2017-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6627365B2 (en) | Information processing method, information processing apparatus, and program | |
US9977951B2 (en) | Picture ranking method, and terminal | |
JP2019133658A (en) | Positioning method, positioning device and readable storage medium | |
KR101380628B1 (en) | Method and apparatus for object tracking using multiple cameras | |
JP2015061239A (en) | Imaging management system, imaging management apparatus, control method of them, and program | |
JP7020497B2 (en) | Match judgment device, match judgment method, storage medium | |
JP6776719B2 (en) | Mobile group detection program, mobile group detection device, and mobile group detection method | |
KR101360349B1 (en) | Method and apparatus for object tracking based on feature of object | |
JP2019057815A (en) | Monitoring system | |
JP2022542199A (en) | KEYPOINT DETECTION METHOD, APPARATUS, ELECTRONICS AND STORAGE MEDIA | |
JP6503079B2 (en) | Specific person detection system, specific person detection method and detection device | |
WO2017154655A1 (en) | Crowd type identification system, crowd type identification method, and storage medium for storing crowd type identification program | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
JP2016081355A (en) | Irregularity detection method, irregularity detection device and program | |
JP6290760B2 (en) | Work similarity calculation method, apparatus and program | |
JP6377563B2 (en) | Object tracking apparatus, program, and method for identifying object using partial deletion processing of flow line | |
JPWO2019155727A1 (en) | Information processing apparatus, tracking method, and tracking program | |
CN107231519B (en) | Video processing apparatus and control method | |
JP2018186397A (en) | Information processing device, image monitoring system, information processing method, and program | |
JP2010044448A (en) | Image processing device and image processing method | |
JP6452324B2 (en) | Image processing apparatus, image processing method, and program | |
US10650547B2 (en) | Blob detection using feature match scores | |
JP7459949B2 (en) | Learning devices, learning methods, tracking devices and programs | |
JP2016021097A (en) | Image processing device, image processing method, and program | |
JP2019002790A (en) | Shape estimating device, shape estimation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6627365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |