JP7336835B2 - Attribute determination device, attribute determination system, and attribute determination method - Google Patents
Attribute determination device, attribute determination system, and attribute determination method Download PDFInfo
- Publication number
- JP7336835B2 JP7336835B2 JP2018090459A JP2018090459A JP7336835B2 JP 7336835 B2 JP7336835 B2 JP 7336835B2 JP 2018090459 A JP2018090459 A JP 2018090459A JP 2018090459 A JP2018090459 A JP 2018090459A JP 7336835 B2 JP7336835 B2 JP 7336835B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- attribute
- image
- recognition
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する属性決定装置、属性決定システムおよび属性決定方法に関する。 The present invention relates to an attribute determination device, an attribute determination system, and an attribute determination method for determining attributes of a person based on each frame image of the person photographed from above.
従来、カメラで人物を撮影した画像から、人物の性別や年齢などの属性を精度良く認識する技術として、顔画像を用いた属性認識手法が広く知られている(例えば特許文献1、2参照)。しかし、例えば店舗において、ある商品群とコンタクトをとる人物の属性を顔画像に基づいて認識するためには、各売り場や各陳列棚に、顔画像を取得するためのカメラを設置する必要がある。この場合、カメラの設置台数が多くなり、コストが掛かるだけでなく、カメラを向けられるユーザの心理的負担も高くなる。
Conventionally, an attribute recognition method using a face image is widely known as a technique for accurately recognizing a person's attributes such as gender and age from an image of the person photographed by a camera (see
そこで、コスト低減およびユーザの心理的負担の軽減の観点から、店舗の天井などにカメラを設置し、人物を上方から広域に撮影して画像を取得し、取得した画像から人物の属性を認識する方法が考えられる。例えば特許文献3のシステムでは、天井や壁面に設置したメインカメラで店舗全域を撮影して人物の画像部分を解析し、顧客の顔、髪型、衣服、身長、アクセサリ、靴などを総合的に考慮して性別、年齢層を推測し、特定が困難な場合は、売り場の陳列棚の近くに設置した補助カメラで撮影した顔画像を詳細に解析して性別、年齢層を推測するようにしている。
Therefore, from the viewpoint of reducing costs and reducing the psychological burden on users, a camera is installed on the ceiling of a store, etc., a person is photographed from above in a wide range, an image is acquired, and the attribute of the person is recognized from the acquired image. I can think of a way. For example, in the system of
しかし、天井などに設置されたカメラで撮影された画像から、人物の属性を精度よく判定するのは難易度が高い。このことは、特許文献3において、属性の特定が困難な場合には、補助カメラによって取得される顔画像を利用して属性を推測していることからも容易に理解できる。 However, it is difficult to accurately determine a person's attribute from an image captured by a camera installed on the ceiling or the like. This can be easily understood from the fact that in Japanese Patent Application Laid-Open No. 2002-200012, when it is difficult to specify attributes, the attributes are estimated using the face image acquired by the auxiliary camera.
例えば、店舗内では、人物が歩行したり、立ち止まったり、陳列棚の下部の商品をとるためにしゃがみ込んだり、立ち上がったりする。このように、人物の位置、行動、姿勢などが時系列で変わる場合、撮影画像に基づく人物の属性の認識結果が各フレーム間で異なる場合があり得る。例えば、人物が歩行中であるフレームでは、撮影画像に基づいて「20代男性」との認識結果が得られ、同じ人物が立ち止まっているフレームでは、撮影画像に基づいて「40代男性」との認識結果が得られる場合があり得る。これは、人物が歩行中の場合、画像内で人物の像にブレが生じ、上記画像に基づく人物の属性の認識精度が低下することに起因する。 For example, in a store, people walk, stop, crouch, and stand up to pick up items from the lower shelves. In this way, when the position, action, posture, etc. of a person change in time series, the recognition result of the attribute of the person based on the captured image may differ between frames. For example, in a frame in which a person is walking, a recognition result of "man in his 20s" is obtained based on the captured image, and in a frame in which the same person is standing still, a recognition result of "man in his 40s" is obtained based on the captured image. A recognition result may be obtained. This is because when a person is walking, the image of the person blurs in the image, and the recognition accuracy of the attribute of the person based on the image is lowered.
同様に、例えば、人物がしゃがみ込んだフレームでは、撮影画像に基づいて「20代男性」との認識結果が得られ、同じ人物が立ち上がったフレームでは、撮影画像に基づいて「40代男性」との認識結果が得られる場合があり得る。これは、しゃがみ込んでいる人物を上方から撮影すると、人物の身体の一部が隠れた画像が取得され、人物の全身の画像データが得られないため、上記画像に基づく属性の認識精度が低下することに起因する。 Similarly, for example, in a frame in which a person crouches down, a recognition result of "man in his 20s" is obtained based on the captured image, and in a frame in which the same person stands up, a recognition result of "man in his 40s" is obtained based on the captured image. can be obtained. This is because when a person crouching down is photographed from above, an image with a part of the person's body hidden is obtained, and image data of the person's whole body cannot be obtained. due to
人物を上方から撮影した各フレームの画像に基づき、各フレーム間で同一人物の属性を判断(決定)する場合において、「歩行中」や「しゃがみ込み」など、属性の認識精度を低下させる事象(属性の認識に影響を及ぼす事象)が数フレーム(例えばmを2以上の自然数としてmフレーム)にわたって続くと、その後のフレームにおいて、上記事象の消滅によって高い精度で属性を認識できたとしても、上記数フレームにおける精度の低い属性の認識結果の影響により、全フレーム(例えばMをmよりも大きい3以上の自然数としてMフレーム)として誤った属性の決定(例えば、実際は「40代男性」である人物にして「20代男性」の属性決定)がなされる場合があり得る(この例については後述する実施の形態の中で比較例として説明する)。これでは、人物の属性を精度よく決定できているとは言えない。 When judging (determining) the attributes of the same person between each frame based on the image of each frame photographed from above, events such as "walking" and "squatting" that reduce the accuracy of attribute recognition ( event affecting the recognition of the attribute) continues for several frames (for example, m frames where m is a natural number of 2 or more), even if the attribute can be recognized with high accuracy due to the disappearance of the event in the subsequent frames, the above Due to the influence of low-accuracy attribute recognition results in a few frames, an erroneous attribute determination (for example, a person who is actually "a man in his 40s") is determined for all frames (for example, M frames where M is a natural number of 3 or more larger than m) (This example will be described as a comparative example in the embodiments described later). In this case, it cannot be said that the attributes of a person can be determined with high accuracy.
本発明は、上記の問題点を解決するためになされたもので、その目的は、人物を上方から撮影した各フレームの画像に基づいて各フレーム間で同一の人物の属性を決定する際に、属性の認識に影響を与える事象が数フレームにわたって続く場合でも、全体として(各フレームのトータルで)人物の属性を精度よく決定することができる属性決定装置、属性決定システムおよび属性決定方法を提供することにある。 The present invention has been made to solve the above problems, and its object is to determine the attributes of the same person between each frame based on the image of each frame photographing the person from above, To provide an attribute determination device, an attribute determination system, and an attribute determination method capable of accurately determining a person's attribute as a whole (total of each frame) even when an event affecting recognition of the attribute continues over several frames. That's what it is.
本発明の一側面に係る属性決定装置は、人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定装置であって、各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識部と、各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定部と、各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定部とを備えている。 An attribute determination device according to one aspect of the present invention is an attribute determination device that determines attributes of a person based on images of frames photographing the person from above, and based on the images of each frame, the a person recognizing unit for recognizing, for each frame, person information indicating information about the image of the person in the image, attributes of the person, and events affecting recognition of the attributes; and the person information of each frame. a person identification unit for determining whether or not the images of the person are the same person between frames based on Regarding a person, for each frame, attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is obtained for each class of the recognized attribute, and the attribute information is integrated in a plurality of frames for each class. an attribute determining unit that determines the attribute of the person based on the result of the determination.
本発明の他の側面に係る属性決定システムは、上記の属性決定装置と、前記属性決定装置と通信回線を介して接続される管理サーバーとを含み、前記管理サーバーは、前記属性決定装置から送出される情報を格納する格納部を備え、前記情報には、前記属性決定装置の前記属性決定部によって決定された前記属性が含まれる。 An attribute determination system according to another aspect of the present invention includes the attribute determination device described above, and a management server connected to the attribute determination device via a communication line, wherein the management server transmits from the attribute determination device The information includes the attribute determined by the attribute determination unit of the attribute determination device.
本発明のさらに他の側面に係る属性決定方法は、人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定方法であって、各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識工程と、各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定工程と、各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定工程とを含む。 An attribute determination method according to still another aspect of the present invention is an attribute determination method for determining an attribute of a person based on an image of each frame photographing the person from above, the method comprising: a person recognition step of recognizing, for each frame, person information indicating information of the image of the person in the image, an attribute of the person, and an event affecting recognition of the attribute; a person identification step of determining whether or not the image of the person is the same person between frames based on the person information; and determining whether the image of the person is the image of the same person between frames. attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is obtained for each class of the recognized attribute for each frame of the person, and the attribute information is obtained for a plurality of frames for each class. and an attribute determination step of determining the attributes of the person based on the integrated result of.
属性の認識に影響を与える事象が数フレームにわたって続く場合でも、最終的な属性決定に対する上記数フレームの悪影響を低減し、全体として(各フレームのトータルで)人物の属性を精度よく決定することができる。 Even if an event affecting attribute recognition continues over several frames, it is possible to reduce the adverse effects of the above few frames on the final attribute determination, and to accurately determine a person's attribute as a whole (total of each frame). can.
本発明の各実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 Each embodiment of the present invention will be described below with reference to the drawings. In addition, the present invention is not limited to the following contents.
<実施の形態1>
〔属性決定システム〕
図1は、本実施形態の属性決定システム1の概略の構成を示すブロック図である。属性決定装置1は、撮像部2と、属性決定装置3と、管理サーバー4とを有して構成されている。撮像部2と属性決定装置3とは、通信回線N1を介して通信可能に接続されており、属性決定装置3と管理サーバー4とは、通信回線N2を介して通信可能に接続されている。通信回線N1およびN2は、例えばケーブル、光ファイバー、有線LAN(Local Area Network)、無線LAN、インターネット回線などから適宜選択されて構成される。以下、撮像部2、属性決定装置3および管理サーバー4の詳細について説明する。
<
[Attribute determination system]
FIG. 1 is a block diagram showing a schematic configuration of an
(撮像部)
撮像部2は、例えば店舗の天井または壁に設置され、店舗内の人物を上方から撮影して時間的に異なる各フレームの画像を取得するカメラで構成されている。店舗内に設置される撮像部2の台数は、特に限定されず、1台であってもよいし、2台以上であってもよい。少なくとも1台の撮像部2で取得された画像のデータは、通信回線N1を介して属性決定装置3に出力される。
(imaging unit)
The
(属性決定装置)
属性決定装置3は、撮像部2で取得されて該属性決定装置3に入力された画像、つまり、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する端末装置であり、例えばパーソナルコンピュータで構成されている。属性決定装置3は、撮像部2が設置される店舗と同じ店舗内に設置されていてもよいし、店舗の外部に撮像部2と通信可能に設置されていてもよい。
(attribute determination device)
The
図2は、属性決定装置3の詳細な構成を示すブロック図である。属性決定装置3は、認識処理部11と、記憶部12と、入力部13と、表示部14と、通信部15と、制御部16とを有して構成されている。
FIG. 2 is a block diagram showing the detailed configuration of the
記憶部12は、属性決定装置3の各部を動作させるための動作プログラム、および認識処理部11での処理によって得られるデータ(例えば決定された人物の属性に関する情報)等を記憶するメモリであり、例えばハードディスクで構成されている。なお、記憶部12は、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。
The
入力部13は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成され、例えば属性決定装置3を操作する操作者(ユーザ)による各種の指示入力を受け付ける。表示部14は、認識処理部11での処理結果(例えば決定された属性)をはじめとして、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部15は、外部と通信するための入出力ポートを含むインターフェースである。通信部15は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。制御部16は、属性決定装置3の各部の動作を制御する中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部12に記憶された動作プログラムに従って動作する。
The
認識処理部11は、人物の属性決定にかかわる処理を行う演算装置であり、例えばリアルタイムな画像処理に特化した演算装置であるGPU(Graphics Processing Unit)で構成されている。なお、認識処理部11は、制御部16と同一のまたは別個のCPUで構成されていてもよい。このような認識処理部11は、人物認識部11aと、人物同定部11bと、属性決定部11cとを有している。すなわち、認識処理部11を構成するGPUは、人物認識部11aと、人物同定部11bと、属性決定部11cとしての機能を有している。
The
人物認識部11aは、人物を上方から撮影した各フレームの画像に基づいて、画像内における人物の像の情報を示す人物情報と、人物の属性と、属性の認識に影響を与える事象とを、各フレームごとに認識する。
Based on an image of each frame in which a person is photographed from above, the
上記人物情報には、例えば、画像内における人物の像の位置、人物の像に含まれる色の種類および比率、人物の像の大きさなどが含まれる。ここで、画像内における人物の像の位置は、例えば上記画像内で上記像を含む人物矩形によって規定される。図3は、任意のフレームの画像2a内の人物の像Pおよび人物矩形Rの一例を示している。なお、図3において、符号5は、店舗内の商品棚を指し、符号6は、店舗内の通路を指す。画像2a内の人物の像Pの認識(人物像の有無および位置の認識)は、例えば公知の画像処理ソフトウェアに基づく処理により、人物の頭の形状および位置、各関節位置などを特定することによって行うことができる。人物認識部11aは、画像2a内で人物の像Pを認識すると、画像2a内で人物の像Pを取り囲む人物矩形Rを設定することができ、この人物矩形Rにより、画像2a内での人物の像Pの位置を規定することができる。
The person information includes, for example, the position of the person's image in the image, the type and ratio of colors included in the person's image, the size of the person's image, and the like. Here, the position of the image of the person in the image is defined, for example, by a person rectangle containing the image in the image. FIG. 3 shows an example of a person image P and a person rectangle R in an
なお、人物矩形Rは、画像2a内における人物の像Pの位置を正確に規定する点では、人物の像Pの少なくとも一部と接するように、人物の像Pを取り囲む矩形(枠)であることが望ましいが、必ずしも人物の像Pと接していることは必要とされない。例えば、人物矩形Rと人物の像Pとの間に、所定の(少しの)マージンがあってもよい。また、矩形とは、一般的に長方形を指すが、ここでは、長方形の特殊な形状である正方形も含む概念とする。
Note that the person rectangle R is a rectangle (frame) surrounding the person image P so as to be in contact with at least a part of the person image P in terms of accurately defining the position of the person image P in the
上記した人物の属性は、人物の年齢および性別の少なくとも一方である。なお、人物認識部11aは、人物の年齢を、1歳ごとの満年齢で認識してもよいが、20代、30代、40代などの大まかな年代で認識してもよいし、子供、大人、老人などの区分で認識してもよい。性別は、男性または女性を示す。
The attribute of the person described above is at least one of age and sex of the person. The
本実施形態では、人物認識部11aは、深層学習(ディープラーニング)などの機械学習が可能なニューラルネットワークを含んで構成されており、このニューラルネットワークを利用して、人物の属性を認識することができる。より具体的には、各フレームの画像のデータを、属性認識について予め学習されたニューラルネットワークに入力すると、ニューラルネットワークから属性の認識結果が出力されるとともに、その認識結果の確からしさを示すスコアが算出される。これにより、例えば、人物の年齢は40代であり、性別は男性であるという認識結果と、その確からしさを示すスコア(例えば0.8)とを得ることができる。なお、上記スコアは、0~1の間の値(点数)であり、1に近づくほど認識結果の確からしさが増大することを示す。
In this embodiment, the
上記した属性の認識に影響を与える事象には、例えば、画像内における人物の像の位置が含まれる。図4は、画像2a内における人物の像Pの様々な位置を模式的に示している。画像2a内の(1)の位置では、店舗内の吊り看板7で人物の像Pの一部が遮られており、(2)の位置では、撮像部2の直下に人物が位置しているために、人物の全身が画像2aに映りにくくなっている。これらのケースでは、属性を認識するための人物の画像データが欠損するため、画像に基づく人物の属性の認識に影響を与える。つまり、上記(1)および(2)で示した人物の像Pの位置は、人物の属性の認識に影響を与える事象となる。一方、画像2a内で、人物の像Pが画像端に近い(3)の位置では、人物の全身が撮影されているため、属性を認識するための人物の画像データが十分存在し、画像に基づく属性の認識に最適となる。つまり、上記(3)の位置は、人物の属性の認識に影響を与える事象とはならない。ただし、人物の像Pが(3)の位置よりも画像端に寄りすぎると、人物の像Pが画像2a内に収まらず、人物の画像データが欠損する可能性があり、この場合は、人物の属性の認識に影響を与える事象となり得る。
Events that affect the recognition of the above attributes include, for example, the position of a person's image within an image. FIG. 4 schematically shows various positions of a person's image P within the
人物同定部11bは、人物認識部11aによって認識された各フレームの人物情報(時系列情報)に基づいて、各フレーム間で(人物矩形内の)人物の像が同一人の像であるか否かを判断する。図5は、nフレーム目の画像2aと、(n+1)フレーム目の画像2aとを模式的に示している(nは自然数とする)。例えば、人物同定部11bは、nフレーム目の画像2a内の人物矩形Rnの位置と、(n+1)フレーム目の画像2a内の人物矩形Rn+1の位置とを比較し、これらの位置の差(人物矩形の移動量)が所定範囲内(フレームレートに応じて決まる)であるか否かを判断することにより、人物矩形Rnと人物矩形Rn+1とが同一人について示すものであるか否か、つまり、人物矩形Rn内の人物の像Pnと、人物矩形Rn+1内の人物の像Pn+1とが同一人の像であるか否かを判断することができる。
Based on the person information (time-series information) of each frame recognized by the
また、人物同定部11bは、人物矩形Rnの縦(横)の長さと、人物矩形Rn+1の縦(横)の長さとの差が所定範囲内であるか否か、人物矩形Rn内で各色が占める面積と、人物矩形Rn+1内で各色が占める面積との差(または比)が所定範囲内であるか否か、などを判断することによって、人物矩形Rn内の人物の像Pnと、人物矩形Rn+1内の人物の像Pn+1とが同一人の像であるか否かを判断してもよい。
The
属性決定部11cは、人物同定部11bによって各フレーム間で人物の像が同一人の像であると判断された人物に関して、各フレームごとに、属性の認識結果に事象の認識結果を加味した属性情報を、認識した属性の各クラスについて求める。例えば、属性として年齢および性別を考えたとき、年齢のクラスとしては、例えば20代、30代、40代、・・・が存在し、性別のクラスとしては、男性および女性の2クラスが存在する。したがって、属性全体のクラスとしては、年齢のクラス数×性別のクラス数だけ存在することになる。よって、属性決定部11cは、各クラスごとに(例えば20代男性、30代男性、・・・40代女性の各クラスごとに)、属性情報を求めることになる。なお、属性情報の具体例については後述する。特に、属性決定部11cは、属性の認識に影響を与える事象(ここでは人物の像の位置)の認識結果に対応してスコアの信頼度(採用率)を設定し、人物認識部11aによって算出されたスコアと、設定した上記信頼度とに基づいて、上記クラスごとに上記属性情報を求める。
The
ここで、上記の信頼度としては、例えば0~1の数値範囲を考えることができる。例えば、図4で示した画像2a内で、人物の像Pが(3)の位置にある場合、上述したように上記位置が人物の属性の認識に与える影響はほとんどないため、この場合は、スコアの信頼度を1.0に設定する。また、人物の像Pが(2)または(3)の位置にある場合、上述したように、上記位置は人物の属性の認識に悪影響を及ぼす可能性があるため、例えば(2)の位置については、スコアの信頼度を0.7に設定し、(1)の位置については、スコアの信頼度を0.2に設定する。なお、画像2a内でユーザが任意にエリアを設定し、設定したエリアごとに上記の信頼度を設定してもよい。
Here, a numerical range of 0 to 1, for example, can be considered as the above reliability. For example, in the
属性決定部11cは、人物認識部11aによって算出されたスコアに、上記信頼度を乗算することによって属性情報をクラスごとに求め、各クラスについて、属性情報を複数フレームで統合した結果に基づいて、人物の属性を決定する。なお、属性決定の処理の詳細については、後述する動作説明の中で行う。
The
(管理サーバー)
図1で示した管理サーバー4は、属性決定装置3で決定された人物の属性に関する情報を格納する端末装置であり、例えばパーソナルコンピュータで構成されている。図6は、管理サーバー4の詳細な構成を示すブロック図である。管理サーバー4は、格納部21と、通信部22と、制御部23とを有している。
(management server)
The
格納部21は、管理サーバー4の各部を動作させるための動作プログラム、および属性決定装置3から送出される情報(例えば属性決定部11cによって決定された属性)を格納するメモリであり、例えばハードディスクで構成されている。なお、格納部21は、RAM、ROM、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。
The
通信部22は、外部と通信するための入出力ポートを含むインターフェースである。通信部22は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。制御部23は、管理サーバー4の各部の動作を制御するCPUで構成されており、格納部21に記憶された動作プログラムに従って動作する。
The
なお、管理サーバー4は、その他、キーボードなどの入力部、ディスプレイなどの表示部、属性決定装置3の認識処理部11と同様の処理を行う演算処理部を含んで構成されていてもよい。
The
〔属性決定方法〕
次に、本実施形態の属性決定システム1における動作(属性決定方法)について説明する。図7は、上記属性決定システム1における処理の流れを示すフローチャートである。なお、以下での説明を簡略化するため、ここでは、人物の属性を、「40代男性」と「20代男性」との2クラスに分類することとし、属性を判断する対象となる人物は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。なお、以下で示す属性Anは、nフレーム目の画像に基づいて人物認識部11aが認識した属性であって、nフレーム目の画像に映っている人物の属性を示し、属性決定部11cが最終的に決定する属性Bとは区別されるものとする。
[Attribute determination method]
Next, the operation (attribute determination method) in the
まず、属性決定装置3は、撮像部2から、n=1として(S1)、1フレーム目の画像を取得すると(S2)、人物認識部11aは、上記画像に基づき、上述した手法で、人物矩形Rn(=R1)と、人物の属性An(=A1)と、属性Anの認識に影響を与える事象(ここでは人物矩形Rnによって規定される人物の像Pn(=P1)の位置)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCn(=C1)を算出する(S3;人物認識工程)。これらの認識結果およびスコアCnは、記憶部12に記憶される。
First, when the
次に、人物同定部11bは、人物矩形Rn内の人物を同定するが(S4;人物同定工程)、最初のフレームであるため(n=1であるため)、人物矩形Rn内の人物の像Pnに識別番号を付与することをもって人物の同定とする(例えばID=0001とする)。S3で認識した人物矩形Rn等の情報は、S4で付与された識別番号と対応付けて記憶部12に記憶される。なお、S4の処理は、人物矩形Rnが認識された後であれば、S3の属性Anの認識、上記事象の認識、スコアCnの算出と並行して行われてもよい。
Next , the
続いて、属性決定部11cは、S3での属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)(=f(A1))を設定する(S5~S7)。つまり、S3にて認識された事象(人物の像Pnの位置)が、属性認識に影響を与える位置である場合(S5でYes)、属性決定部11cは、上記事象の認識結果に対応して、スコアCnの信頼度f(An)を1未満に設定する(S6)。一方、S3にて認識された事象(人物の像Pnの位置)が、属性認識に影響を与えない位置である場合(S5でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。なお、上記の信頼度f(An)は、S5での認識結果、つまり、属性Anの認識に影響を与える事象の認識結果に対応して設定される値であり、S3での属性Anの認識結果(クラス)には依存しない(以下の実施形態でも同じ)。
Subsequently, the
次に、属性決定部11cは、S3で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。例えば、「20代男性」、「40代男性」のクラスごとに、スコアCn×信頼度f(An)の値が、属性情報Qnとして求められる。求めた属性情報Qnは、記憶部12に人物の識別情報と対応付けて記憶される。
Next, based on the score C n calculated in S3 and the reliability f(A n ) set above, the
ここで、図8は、1フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A1が「20代男性」(この属性のクラスを「P20M」とする)である確からしさを示すスコアC1(P20M)が0.7であり、属性A1が「40代男性」(この属性のクラスを「P40M」とする)である確からしさを示すスコアC1(P40M)が0.01となっている。画像内において、人物の像P1の位置が、属性A1の認識に影響を与える位置(図4の(1)の位置と同じ)であり、人物認識部11aが上記画像に基づいて人物の属性A1の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)よりも、「20代男性」のスコアC1(P20M)のほうが高くなっている。
Here, FIG. 8 shows an example of information obtained for the first frame. In this example, for the person with ID=0001, the score C 1 (P 20M ) indicating the likelihood that the attribute A 1 is "male in his 20s" (this attribute class is "P 20M ") is 0.7. , and the score C 1 (P 40M ) indicating the likelihood that the attribute A 1 is "male in his 40s" (the class of this attribute is "P 40M ") is 0.01. In the image, the position of the person's image P1 is the position that affects the recognition of the attribute A1 (same as the position of (1) in FIG. 4), and the
そこで、人物の像P1の位置が属性A1の認識に影響を与える位置であることを考慮し、図8の例では、スコアC1の信頼度f(A1)を、f(A1)=f1(A1)=0.2に設定している。これにより、各クラスについて、属性A1の認識結果に上記位置の認識結果を加味した属性情報Q1として、「20代男性」のクラスについては、Q1(P20M)=C1(P20M)×f1(A1)=0.7×0.2=0.14が得られており、「40代男性」のクラスについては、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.2=0.002が得られている。 Therefore, considering that the position of the person's image P 1 is a position that affects the recognition of the attribute A 1 , in the example of FIG. )=f 1 (A 1 )=0.2. As a result, for each class, the attribute information Q 1 obtained by adding the recognition result of the position to the recognition result of the attribute A 1 , Q 1 (P 20M )=C 1 (P 20M ) for the class of "male in his twenties" ) ×f 1 (A 1 ) = 0.7 × 0.2 =0.14. f 1 (A 1 )=0.01×0.2=0.002 is obtained.
次に、属性決定部11cは、処理を継続するか否か、つまり、次の(n+1)フレーム目の画像についても、上記と同様の処理を行うか否かを判断する(S9)。基本的には、属性決定部11cは、S9にて処理を継続すると判断して、S10に移行する。S10では、属性決定装置3は、n=n+1とし、その後、S2以降の処理を繰り返す。つまり、属性決定装置3は、撮像部2から、2フレーム目の画像を取得して、S2以降の処理を繰り返す。この場合、S4では、人物同定部11bは、1フレーム目の人物情報と、2フレーム目の人物情報(例えば各フレームにおける人物矩形の位置(移動量)、大きさなど)に基づいて、各フレーム間で人物矩形内の人物の像が同一人の像であるか否かを判断する。
Next, the
以降、同様にして、(n+2)フレーム目以降の画像についても、S2以降の処理を繰り返す。そして、例えば、(n+k)フレーム目(kは3以上の自然数とする)の画像に基づいて認識された人物のIDが、(n+(k-1))フレーム目の画像に基づいて認識された人物のIDと異なる場合、属性決定部11cは、各フレーム間で同一人についての属性Bを決定できないため、S9にて、処理を継続しないと判断してS11に移行する。
After that, similarly, the processing after S2 is repeated also for the images after the (n+2)th frame. Then, for example, the ID of the person recognized based on the (n+k)-th frame image (where k is a natural number of 3 or more) is recognized based on the (n+(k−1))-th frame image. If it is different from the person's ID, the
図9は、2フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、1フレーム目と同様に、属性A2が「20代男性」である確からしさを示すスコアC2(P20M)が0.7であり、属性A2が「40代男性」である確からしさを示すスコアC2(P40M)が0.01となっている。画像内において、人物の像P2の位置が、属性A2の認識に影響を与える位置(図4の(2)の位置と同じ)であり、人物認識部11aが上記画像に基づいて人物の属性A2の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「20代男性」のスコアC2(P40M)よりも、「20代男性」のスコアC2(P20M)のほうが高くなっている。
FIG. 9 shows an example of information obtained for the second frame. In this example, for the person with ID=0001, the score C 2 ( P 20M ) indicating the likelihood that the attribute A 2 is “male in his 20s” is 0.7, as in the first frame. The score C 2 (P 40M ) indicating the likelihood that the person is a “male in his 40s” is 0.01. In the image, the position of the person image P2 is the position that affects the recognition of the attribute A2 (same as the position (2) in FIG. 4), and the
そこで、人物の像P2の位置が属性A2の認識に影響を与える位置であることを考慮し、図9の例では、スコアC2の信頼度f(A2)を、f(A2)=f2(A2)=0.7に設定している。これにより、各クラスについて、属性A2の認識結果に上記位置の認識結果を加味した属性情報Q2として、「20代男性」のクラスについては、Q2(P20M)=C2(P20M)×f2(A2)=0.7×0.7=0.49が得られており、「40代男性」のクラスについては、Q2(P40M)=C2(P40M)×f2(A2)=0.01×0.7=0.007が得られている。なお、人物像の上記(2)の位置は、上記(1)の位置に比べて属性認識に与える影響が小さいため、スコアC2の信頼度f(A2)を、スコアC1の信頼度f(A1)よりも高く設定している。 Considering that the position of the person image P2 affects the recognition of the attribute A2 , in the example of FIG. )=f 2 (A 2 )=0.7. As a result, for each class, the attribute information Q2 obtained by adding the recognition result of the position to the recognition result of the attribute A2 is calculated as follows: Q2 ( P20M )= C2 ( P20M ) )×f 2 (A 2 ) = 0.7× 0.7 = 0.49 . f 2 (A 2 )=0.01×0.7=0.007 is obtained. Since the position (2) of the human image has a smaller effect on attribute recognition than the position (1), the reliability f(A 2 ) of the score C 2 is replaced by the reliability of the score C 1 It is set higher than f(A 1 ).
一方、図10は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A3が「20代男性」である確からしさを示すスコアC3(P20M)が0.05であり、属性A3が「40代男性」である確からしさを示すスコアC3(P40M)が0.9となっている。画像内において、人物の像P3の位置が、属性A3の認識にほとんど影響を与えない位置(図4の(3)の位置と同じ)であり、人物認識部11aが上記画像に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。
On the other hand, FIG. 10 shows an example of information obtained for the third frame. In this example, for the person with ID=0001, the score C 3 (P 20M ) indicating the probability that the attribute A 3 is “male in his 20s” is 0.05, and the attribute A 3 is “male in his 40s”. The score C 3 (P 40M ) indicating certain certainty is 0.9. In the image, the position of the image P3 of the person is a position that hardly affects the recognition of the attribute A3 (same as the position (3) in FIG. 4), and the
人物の像P3の位置が属性A3の認識にほとんど影響を与えない位置であることを考慮し、図10の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、属性A3の認識結果に上記位置の認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.05×1.0=0.05が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3))=0.9×1.0=0.9が得られている。 Considering that the position of the image P3 of the person is a position that hardly affects the recognition of the attribute A3 , the reliability f( A3 ) of the score C3 is changed to f( A3 )=f 3 (A 3 )=1.0. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the position to the recognition result of the attribute A3 is calculated as follows: Q3 ( P20M )= C3 ( P20M ) ) ×f 3 (A 3 ) = 0.05 × 1.0 =0.05. f 3 (A 3 ))=0.9×1.0=0.9 is obtained.
S11では、属性決定部11cは、属性Anの各クラスについて、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5~S9、S11の工程は、属性決定工程に対応する。
In S11, the
ここで、フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える位置(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例1とする)、3フレームトータルでの「20代男性」の認識結果を示す評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M)
=0.7+0.7+0.05
=1.45
一方、3フレームトータルでの「40代男性」の認識結果を示す評価値Z(P40M)’は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M)
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
Here, in the above example where the number of frames n is 3, if the attribute B is determined without considering the position (reliability f(A n )) that affects attribute recognition (comparative example 1) , an evaluation value Z(P 20M )′ indicating the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.7 + 0.7 + 0.05
= 1.45
On the other hand, the evaluation value Z(P 40M )′ indicating the recognition result of “man in his 40s” in the total of 3 frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.
これに対して、本実施形態のように、属性認識に影響を与える位置(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果を示す評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M)
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2)
+C3(P20M)・f3(A3)
=0.14+0.49+0.05
=0.68
一方、3フレームトータルでの「40代男性」の認識結果を示す評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M)
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2)
+C3(P40M)・f3(A3)
=0.002+0.007+0.9
=0.909
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when attribute B is determined in consideration of the position (reliability f(A n )) that affects attribute recognition, the total of three frames of "male in his twenties" The evaluation value Z (P 20M ) indicating the recognition result is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.14 + 0.49 + 0.05
= 0.68
On the other hand, the evaluation value Z (P 40M ) indicating the recognition result of “man in his 40s” in the total of three frames is calculated by the following formula using the attribute information Q n .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.002 + 0.007 + 0.9
= 0.909
From the above, since Z(P 20M )<Z(P 40M ), the
S11にて、属性決定部11cによって決定された属性Bは、記憶部12に記憶される(S12;記憶工程)。なお、S12において、属性Bを記憶部12に記憶する代わりに、属性Bの情報を通信部15を介して管理サーバー4に送出し、管理サーバー4の格納部21(図6参照)に格納させてもよく、また、記憶部12と格納部21との両方に属性Bの情報を記憶させるようにしてもよい。
The attribute B determined by the
〔効果〕
以上のように、属性決定部11cは、各フレーム間で同一人であると判断された人物に関して、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(ここでは画像内での人物の像Pnの位置)の認識結果を加味した属性情報Qnを、認識した属性Anの各クラスについて求める(S5~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える事象が生じたフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える事象が生じていないフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える事象が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、全体として(複数フレームのトータルで)人物の属性Bを精度よく決定することができる。
〔effect〕
As described above, the
また、属性決定部11cは、属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)を設定し、人物認識部11aによって算出されたスコアCnと、上記の信頼度f(An)とに基づいて、クラスごとに属性情報Qnを求める。このように、上記事象の認識結果に対応して信頼度f(An)を設定してクラスごとに属性情報Qnを求めることにより、各フレームについて得られる上記認識結果の属性Bの決定への寄与度を、上記事象に応じてクラスごとに適切に調整し、人物の属性Bを確実に精度よく決定することができる。
Further, the
また、上記の信頼度f(An)は、属性Anの認識に影響を与える事象としての、人物の像Pnの位置に基づいて設定されている。これにより、属性決定部11cは、各フレームごとに、上記信頼度f(An)を用いて、人物の像Pnの位置を考慮した適切な属性情報Qnを取得することができる。
Further, the reliability f(A n ) described above is set based on the position of the person's image P n as an event that affects the recognition of the attribute A n . Thereby, the
また、上記の信頼度f(An)は、画像内における人物の像Pnの位置が、全身が撮影された位置であるか否かに基づいて設定されている。これにより、本実施形態のように、人物の像Pnの位置が、全身が撮影された位置である場合とそうでない場合とで信頼度f(An)に差を持たせて、人物の像Pnの位置に応じた適切な属性情報Qnを取得することができる。 Further, the reliability f(A n ) is set based on whether or not the position of the person's image P n in the image is the position where the whole body is photographed. As a result, as in the present embodiment, the reliability f(A n ) differs depending on whether the position of the person's image P n is the position where the whole body is photographed or not. Appropriate attribute information Q n corresponding to the position of image P n can be obtained.
特に、本実施形態では、画像内における人物の像Pnの位置が、全身が撮影された位置(例えば図4の(3)の位置)である場合の信頼度f(An)は、画像内における人物の像Pnの位置が、全身の一部のみが撮影された位置(例えば図4の(1)または(2)の位置)である場合の信頼度f(An)よりも高く設定されている。これにより、人物の全身が撮影された画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。一方、人物の全身の一部のみが撮影された画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when the position of the image P n of the person in the image is the position where the whole body is photographed (for example, the position of (3) in FIG. 4) is is higher than the reliability f(A n ) when the position of the person's image P n is the position where only a part of the whole body is photographed (for example, the position of (1) or (2) in FIG. 4) is set. As a result, the reliability f(A n ) of the recognition result of a person's attribute A n that is recognized with high accuracy based on the image of the whole body of the person is increased, and the final attribute B is determined. It is possible to obtain the attribute information Q n in which the degree of contribution of the recognition result to is increased. On the other hand, for a person's attribute A n that is recognized with low accuracy based on an image in which only a part of the whole body of the person is captured, the reliability f(A n ) of the recognition result is lowered, and the final attribute Attribute information Q n can be obtained in which the degree of contribution of the recognition result to the determination of B is reduced.
また、人物の属性(AnおよびB)は、人物の年齢および性別である。これにより、人物の年齢および性別を、複数フレームのトータルで精度よく決定することができる。なお、上記属性は、人物の年齢および性別のどちらか一方だけであってもよい。この場合であっても、上述した本実施形態の属性決定方法を採用することによって、人物の年齢または性別を、複数フレームのトータルで精度よく決定することができる。 Also, the person's attributes (A n and B) are the person's age and sex. As a result, the age and sex of a person can be determined with high accuracy in total for a plurality of frames. Note that the attribute may be only one of the person's age and gender. Even in this case, by adopting the attribute determination method of the present embodiment described above, it is possible to accurately determine the age or sex of a person in total for a plurality of frames.
また、本実施形態の属性決定装置3は、属性決定部11cによって決定された属性Bを記憶する記憶部12を備えている。これにより、例えば店舗やシステムの管理者(責任者)は、記憶部12に記憶された属性Bの情報をもとに、店舗を訪れる人物の分析(どのような年代層が店舗に多く訪れるか)、人物の属性Bに応じた商品の開発や販売、マーケティングに関する分析などを行うことが可能となる。
The
また、本実施形態の属性決定システム1は、上述した属性決定装置3と、管理サーバー4とを含み、管理サーバー4は、属性決定装置3から送出される情報を格納する格納部21を備え、上記情報には、属性決定装置3の属性決定部11cによって決定された属性Bが含まれている。これにより、システムの管理者(責任者)は、管理サーバー4の格納部21に記憶された属性Bの情報をもとに、店舗を訪れる人物の分析等を行うことが可能となる。また、店舗が複数存在し、各店舗に属性決定装置3が設けられる場合には、各属性決定装置3から送出される情報(属性B)を管理サーバー4の格納部21にて一括管理(集中管理)し、格納された情報をもとに、複数の店舗間で分析結果を比較することも容易となる。
In addition, the
<実施の形態2>
本実施形態では、属性Anの認識に影響を与える事象に人物の行動が含まれ、上記行動を加味して属性Bを決定する以外は、実施の形態1と同様である。なお、人物の行動については、後述するように、画像内の人物の像(画像データ)から把握することができる。以下、実施の形態1と異なる部分について説明する。
<
This embodiment is the same as the first embodiment except that the event that affects the recognition of the attribute A n includes a person's behavior, and the attribute B is determined in consideration of the above behavior. As will be described later, the behavior of a person can be grasped from the image (image data) of the person in the image. The parts different from the first embodiment will be described below.
図11は、時間的に異なる複数フレームのうち、一部のフレームの画像2a1~2a4を模式的に示している。なお、図11の画像2a1~2a4は、いずれも人物を斜め上方から撮影して得られた画像である。同図に示すように、店舗内で人物が行動するパターンとしては、歩行や立ち止まりなどが考えられ、この他にも、走行、旋回などが考えられる。人物の行動が、歩行中、走行中、旋回中など、動きを伴う行動である場合、画像内では人物の像がブレやすい。この場合、上記画像に基づく人物の属性Anの認識精度が低下しやすくなる。一方、人物の行動が立ち止まりなどの滞留行動(歩みを止める行動)である場合、画像内では人物の像にブレがほとんど生じないため、上記画像に基づく人物の属性Anの認識精度の低下はほとんど生じない。
FIG. 11 schematically shows
そこで、本実施形態では、属性決定部11cは、属性Anの認識に影響を与える行動(歩行中などの動きを伴う行動)については、図11に示すように、信頼度f(An)を1未満(例えば0.2)に設定し、属性Anの認識に影響を与えない行動(立ち止まりなどの滞留行動)については、信頼度f(An)を1に設定して、各フレームごとに属性情報Qnを各クラスについて求め、求めた属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定するようにしている。
Therefore , in the present embodiment, the
図12は、本実施形態の属性決定システム1における処理の流れを示すフローチャートである。なお、図12のフローチャートは、図7のフローチャートのS3およびS5を、それぞれS3-1およびS5-1に置き換えたものである。なお、ここでは、実施の形態1と同様に、属性を判断する対象となる人物は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。
FIG. 12 is a flow chart showing the flow of processing in the
S3-1(人物認識工程)では、人物認識部11aは、人物を上方から撮影したnフレーム目の画像に基づき、人物矩形Rnと、人物の属性Anと、属性Anの認識に影響を与える事象(ここでは人物の行動)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCnを算出する(人物認識工程)。
In S3-1 (human recognition step), the
ここで、人物の行動の認識およびスコアCnの算出は、予め学習されたニューラルネットワークを用いることによって行うことができる。つまり、人物認識部11aは、各画像2a1~2a4のデータを、予め行動認識用に学習されたニューラルネットワークに入力することにより、ニューラルネットワークから人物の行動の認識結果およびその確からしさを示すスコアCnを出力させることができる。したがって、人物認識部11aは、ニューラルネットワークからの出力に基づき、人物の行動が、属性認識に影響を与える行動(動きを伴う行動)であるか、属性認識に影響を与えない滞留行動であるかを認識することができる。S3-1で得られた認識結果およびスコアCnは、記憶部12に記憶される。
Here, the recognition of the person's actions and the calculation of the score C n can be performed by using a pre-learned neural network. In other words, the
S5-1では、属性決定部11cは、S3-1での属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)を設定する(S5-1~S7)。つまり、S3-1にて認識された事象(人物の行動)が、属性認識に影響を与える行動(動きを伴う行動)である場合(S5-1でYes)、属性決定部11cは、上記認識結果に対応して、スコアCnの信頼度f(An)を1未満(例えば0.2)に設定する(S6)。一方、S3-1にて認識された事象(人物の行動)が、属性認識に影響を与えない滞留行動である場合(S5-1でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。
In S5-1, the
次に、属性決定部11cは、S3-1で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。求めた属性情報Qnは、記憶部12に人物の識別情報と対応付けて記憶される。
Next, the
(n+1)フレーム目以降の画像についてもS2以降の処理を繰り返し(S9、S10)、例えば異なるフレーム間で人物のIDが異なる場合など、処理の継続が不要となった時点で(S9でNo)、処理を継続しないと判断してS11に移行する。S11では、属性決定部11cは、属性Anの各クラスについて、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5-1~S9、S11の工程は、属性決定工程に対応する。
The processing after S2 is repeated for the (n+1)-th frame and subsequent images (S9, S10). , it determines not to continue the process, and shifts to S11. In S11, the
図13は、1フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A1が「20代男性」である確からしさを示すスコアC1(P20M)が0.7であり、属性A1が「40代男性」である確からしさを示すスコアC1(P40M)が0.01となっている。人物の行動が動きを伴う行動(歩行中)であり、画像内で人物の像にブレが生じ、人物認識部11aが上記画像に基づいて人物の属性A1の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)よりも、「20代男性」のスコアC1(P20M)のほうが高くなっている。
FIG. 13 shows an example of information obtained for the first frame. In this example, for the person with ID=0001, the score C 1 (P 20M ) indicating the probability that the attribute A 1 is "male in his 20s" is 0.7, and the attribute A 1 is "male in his 40s". The score C 1 (P 40M ) indicating certain certainty is 0.01. If the action of the person is an action accompanied by movement (walking), the image of the person is blurred in the image, and the
そこで、人物の行動が属性A1の認識に影響を与える行動であることを考慮し、図13の例では、スコアC1の信頼度f(A1)を、f(A1)=f1(A1)=0.2に設定している。これにより、各クラスについて、属性A1の認識結果に上記行動の認識結果を加味した属性情報Q1として、「20代男性」のクラスについては、Q1(P20M)=C1(P20M)×f1(A1)=0.7×0.2=0.14が得られており、「40代男性」のクラスについては、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.2=0.002が得られている。 Considering that the behavior of a person affects the recognition of attribute A 1 , in the example of FIG . 13, the reliability f(A 1 ) of score C 1 is set to (A 1 )=0.2 is set. As a result, for each class, the attribute information Q 1 obtained by adding the recognition result of the behavior to the recognition result of the attribute A 1 , Q 1 (P 20M )=C 1 (P 20M ) ×f 1 (A 1 ) = 0.7 × 0.2 =0.14. f 1 (A 1 )=0.01×0.2=0.002 is obtained.
図14は、2フレーム目について得られた情報の一例を示している。この例においても、ID=0001の人物について、人物の行動が動きを伴う行動(歩行中)であるため、1フレーム目と同様に、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC2(P40M)よりも、「20代男性」のスコアC2(P20M)のほうが高くなっている。そこで、1フレーム目と同様に、人物の行動が属性A2の認識に影響を与える行動であることを考慮し、スコアC2の信頼度f(A2)を、f(A2)=f2(A2)=0.2に設定している。これにより、各クラスについて、属性A2の認識結果に上記行動の認識結果を加味した属性情報Q2として、「20代男性」のクラスについては、Q2(P20M)=C2(P20M)×f2(A2)=0.7×0.2=0.14が得られており、「40代男性」のクラスについては、Q2(P40M)=C2(P40M)×f2(A2)=0.01×0.2=0.002が得られている。 FIG. 14 shows an example of information obtained for the second frame. In this example as well, for the person with ID=0001, the behavior of the person involves movement (walking). The score C 2 (P 20M ) of “male in his 20s” is higher than the score C 2 (P 40M ) of “male in his 40s”. Therefore, as in the first frame, considering that the behavior of the person affects the recognition of the attribute A 2 , the reliability f(A 2 ) of the score C 2 is given by f(A 2 )=f 2 (A 2 )=0.2 is set. As a result, for each class, the attribute information Q2 obtained by adding the recognition result of the behavior to the recognition result of the attribute A2 is calculated as follows: Q2 ( P20M )= C2 ( P20M ) )×f 2 (A 2 )=0.7×0.2=0.14, and for the class of “men in their 40s”, Q 2 (P 40M )=C 2 (P 40M )× f 2 (A 2 )=0.01×0.2=0.002 is obtained.
図15は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A3が「20代男性」である確からしさを示すスコアC3(P20M)が0.05であり、属性A3が「40代男性」である確からしさを示すスコアC3(P40M)が0.9となっている。人物の行動が滞留行動(立ち止まり)であり、画像内で人物の像にブレが生じず、人物認識部11aが上記画像に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。
FIG. 15 shows an example of information obtained for the third frame. In this example, for the person with ID=0001, the score C 3 (P 20M ) indicating the probability that the attribute A 3 is “male in his 20s” is 0.05, and the attribute A 3 is “male in his 40s”. The score C 3 (P 40M ) indicating certain certainty is 0.9. The behavior of the person is a staying behavior (pause), the image of the person does not blur in the image, and the
人物の行動が属性A3の認識にほとんど影響を与えない行動であることを考慮し、図15の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、属性A3の認識結果に上記位置の認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.05×1.0=0.05が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3)=0.9×1.0=0.9が得られている。 Considering that the behavior of a person hardly affects the recognition of attribute A3 , in the example of FIG . 15, the reliability f(A3 ) of score C3 is set to (A 3 )=1.0 is set. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the position to the recognition result of the attribute A3 is calculated as follows: Q3 ( P20M )= C3 ( P20M ) ) ×f 3 (A 3 ) = 0.05× 1.0 =0.05. f 3 (A 3 )=0.9×1.0=0.9 is obtained.
フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える人物の行動(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例2とする)、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M)
=0.7+0.7+0.05
=1.45
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)’ は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M)
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
In the above example where the number of frames n is 3, if the attribute B is determined without considering the behavior of the person (reliability f(A n )) that affects attribute recognition (comparative example 2), The evaluation value Z(P 20M )′ of the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.7 + 0.7 + 0.05
= 1.45
On the other hand, the evaluation value Z(P 40M )′ of the recognition result of “male in his 40s” in the total of three frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.
これに対して、本実施形態のように、属性認識に影響を与える人物の行動(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M)
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2)
+C3(P20M)・f3(A3)
=0.14+0.14+0.05
=0.33
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M)
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2)
+C3(P40M)・f3(A3)
=0.002+0.002+0.9
=0.904
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when attribute B is determined in consideration of a person's behavior (reliability f(A n )) that affects attribute recognition, "a male in his twenties ” is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.14 + 0.14 + 0.05
= 0.33
On the other hand, the evaluation value Z (P 40M ) of the recognition result of "male in his 40s" in the total of three frames is calculated by the following formula using the attribute information Qn .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.002 + 0.002 + 0.9
= 0.904
From the above, since Z(P 20M )<Z(P 40M ), the
以上のように、本実施形態においても、属性決定部11cは、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(ここでは人物の行動)の認識結果を加味した属性情報Qn、認識した属性Anの各クラスについて求める(S5-1~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える行動(動きを伴う行動)が生じたフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える行動が生じていないフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える行動が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、全体として(複数フレームのトータルで)人物の属性Bを精度よく決定することができる。
As described above, also in the present embodiment, the attribute determination unit 11c adds an event (in this case, a person 's Attribute information Q n that takes into account the recognition result of behavior) and recognized attributes A n are obtained for each class (S5-1 to S8). As a result, when the
また、上記の信頼度f(An)は、属性Anの認識に影響を与える事象、つまり、画像内における人物の像から把握される人物の行動に基づいて設定されている。これにより、属性決定部11cは、上記信頼度f(An)を用いて、人物の行動を考慮した適切な属性情報Qnを取得することができる。
The reliability f(A n ) described above is set based on an event that affects the recognition of the attribute A n , that is, the action of the person ascertained from the image of the person in the image. Accordingly, the
また、上記の信頼度f(An)は、人物の行動が、動きを伴う行動であるか否かに基づいて設定されている。これにより、人物の行動が、動きを伴う行動である場合とそうでない場合とで信頼度f(An)に差を持たせて、人物の行動に応じた属性情報Qnを取得することができる。 Also, the reliability f(A n ) described above is set based on whether or not the action of the person is an action involving movement. As a result, it is possible to acquire the attribute information Q n according to the behavior of the person by giving a difference in the reliability f(A n ) depending on whether the behavior of the person involves movement or not. can.
特に、本実施形態では、人物の行動が動きを伴う行動である場合の信頼度f(An)は、人物の行動が滞留行動である場合の信頼度f(An)よりも低く設定されている。これにより、動きを伴う人物の行動が撮影された画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。一方、人物の滞留行動が撮影された画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when a person's action is an action accompanied by movement is set lower than the reliability f(A n ) when a person's action is a staying action. ing. As a result, for a person's attribute A n that is recognized with low accuracy based on an image in which a person's behavior accompanied by movement is captured, the reliability f(A n ) of the recognition result is lowered, and the final attribute Attribute information Q n can be obtained in which the degree of contribution of the recognition result to the determination of B is reduced. On the other hand, for a person's attribute A n that is recognized with high accuracy based on an image of a person's staying behavior, the reliability f(A n ) of the recognition result is increased, and the final attribute B is determined. It is possible to obtain the attribute information Q n in which the degree of contribution of the recognition result to is increased.
<実施の形態3>
本実施形態では、属性Anの認識に影響を与える事象に人物の姿勢がさらに含まれ、上記姿勢をさらに加味して属性Bを決定する以外は、実施の形態2と同様である。なお、人物の姿勢については、後述するように、画像内の人物の像(画像データ)から把握することができる。以下、実施の形態2と異なる部分について説明する。なお、「姿勢」とは、体の構えを指す点で、動作の有無に着目した「行動」とは区別されるが、立ち止まった姿勢など、一部の姿勢については、行動(立ち止まり)と重複する場合もある。
<
This embodiment is the same as the second embodiment except that the posture of the person is included in the events that affect the recognition of the attribute A n , and the attribute B is determined with the posture further taken into consideration. As will be described later, the posture of the person can be grasped from the image (image data) of the person in the image. Portions different from the second embodiment will be described below. In addition, "posture" refers to the posture of the body, so it is distinguished from "action" that focuses on the presence or absence of movement, but some postures such as standing posture overlap with action (stopping). sometimes.
図16は、時間的に異なる複数フレームのうち、一部のフレームの画像2a11~2a15を模式的に示している。なお、図16の画像2a11~2a15は、いずれも人物を斜め上方から撮影して得られた画像である。同図に示すように、店舗内で人物がとる姿勢としては、例えば店舗内の商品棚の最下部の商品を観察するときの「しゃがみ込み」がある。なお、立ち止まった状態からしゃがみ込むまでの動作(例えばしゃがみ始め)や、しゃがみ込んだ状態から立ち止まるまでの動作(例えば立ち上がり)は、行動と認識することができる。
FIG. 16 schematically shows
人物の姿勢が「しゃがみ込み」である場合、人物を上方から撮影した画像では、上半身によって下半身が隠れる画像が得られる。また、上方から見て、全身の一部が商品棚に隠れるような姿勢では、全身の一部のみを撮影した画像が得られる。これらの場合、人物の画像データが欠落しているため(全身の画像データが得られないため)、上記画像に基づく人物の属性Anの認識精度が低下しやすくなる。一方、人物の姿勢が、立ち止まりなど、全身が撮影される姿勢である場合、人物の撮影画像においては、人物の画像データの欠落がないため、上記画像に基づく人物の属性Anの認識精度の低下はほとんどない。 When the posture of the person is "crouching", an image in which the lower half of the body is hidden by the upper half of the body is obtained in an image of the person photographed from above. In addition, when viewed from above, an image in which only a part of the whole body is photographed is obtained in a posture in which a part of the whole body is hidden by the product shelf. In these cases, since the image data of the person is missing (because the image data of the whole body cannot be obtained), the accuracy of recognizing the attribute A n of the person based on the image tends to decrease. On the other hand, when the posture of the person is such that the whole body is photographed, such as standing still, there is no lack of image data of the person in the photographed image of the person . almost no decline.
そこで、本実施形態では、属性決定部11cは、人物の姿勢が属性Anの認識に影響を与える姿勢(例えば全身の一部しか撮影されない姿勢)である場合は、図16に示すように、信頼度f(An)を1未満に設定し、人物の姿勢が属性Anの認識に影響を与えない姿勢(例えば全身が撮影される姿勢)である場合は、信頼度f(An)を1に設定して、各フレームごとに属性情報Qnを各クラスについて求め、求めた属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定するようにしている。なお、人物の行動については、実施の形態2と同様に、動きを伴う行動の場合には信頼度f(An)を1未満に設定し、滞留行動の場合には信頼度f(An)を1に設定して、各フレームごとおよび各クラスごとに属性情報Qnを求める。 Therefore, in the present embodiment, when the posture of the person affects the recognition of the attribute A n (for example, a posture in which only a part of the whole body is photographed), as shown in FIG. When the reliability f(A n ) is set to less than 1, and the posture of the person is a posture that does not affect the recognition of the attribute A n (for example, a posture in which the whole body is photographed), the reliability f(A n ) is set to 1, the attribute information Q n is obtained for each class for each frame, and the attribute B of the person is determined based on the result of integrating the obtained attribute information Q n in a plurality of frames. As for human behavior, as in the second embodiment, the reliability f(A n ) is set to less than 1 for behavior involving movement, and the reliability f(A n ) is set to 1, and attribute information Q n is obtained for each frame and each class.
図17は、本実施形態の属性決定システム1における処理の流れを示すフローチャートである。なお、図17のフローチャートは、図12のフローチャートのS3-1およびS5-1を、それぞれS3-2およびS5-2に置き換えたものである。なお、ここでは、実施の形態2と同様に、属性を判断する対象となる人物は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。
FIG. 17 is a flow chart showing the flow of processing in the
S3-2(人物認識工程)では、人物認識部11aは、人物を上方から撮影したnフレーム目の画像に基づき、人物矩形Rnと、人物の属性Anと、属性Anの認識に影響を与える事象(ここでは人物の行動および姿勢)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCnを算出する(人物認識工程)。
In S3-2 (human recognition step), the
ここで、人物の姿勢の認識およびスコアCnの算出は、予め学習されたニューラルネットワークを用いることによって行うことができる。つまり、人物認識部11aは、各画像2a1~2a4のデータを、予め姿勢認識用に学習されたニューラルネットワークに入力することにより、ニューラルネットワークから人物の姿勢の認識結果およびその確からしさを示すスコアCnを出力させることができる。したがって、人物認識部11aは、ニューラルネットワークからの出力に基づき、人物の姿勢が、属性認識に影響を与える姿勢(全身の一部のみが撮影された姿勢)であるか、属性認識に影響を与えない姿勢(全身が撮影された姿勢)であるかを認識することができる。S3-1で得られた認識結果およびスコアCnは、記憶部12に記憶される。
Here, the recognition of the posture of the person and the calculation of the score C n can be performed by using a pre-learned neural network. In other words, the
S5-2では、属性決定部11cは、S3-2での属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)を設定する(S5-2~S7)。つまり、S3-2にて認識された事象(人物の行動、姿勢)が、属性認識に影響を与える事象である場合(S5-2でYes)、属性決定部11cは、上記認識結果に対応して、スコアCnの信頼度f(An)を1未満に設定する(S6)。一方、S3-2にて認識された事象(人物の行動、姿勢)が、属性認識に影響を与えない事象である場合(S5-2でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。
In S5-2, the
次に、属性決定部11cは、S3-2で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。求めた属性情報Qnは、記憶部12に人物の識別情報と対応付けて記憶される。
Next, the
(n+1)フレーム目以降の画像についてもS2以降の処理を繰り返し(S9、S10)、例えば異なるフレーム間で人物のIDが異なる場合など、処理の継続が不要となった時点で(S9でNo)、処理を継続しないと判断してS11に移行する。S11では、属性決定部11cは、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5-2~S9、S11の工程は、属性決定工程に対応する。
The processing after S2 is repeated for the (n+1)-th frame and subsequent images (S9, S10). , it determines not to continue the process, and shifts to S11. In S11, the
図18は、1フレーム目および2フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、C1(P20M)=C2(P20M)=0.8であり、C1(P40M)=C2(P40M)=0.01となっている。画像中の人物の姿勢が「しゃがみ込み」であり、全身の一部のみ撮影された姿勢であるため、人物認識部11aが上記画像に基づいて人物の属性A1・A2の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)およびC2(P40M)よりも、「20代男性」のスコアC1(P20M)およびC2(P20M)のほうが高くなっている。
FIG. 18 shows an example of information obtained for the first and second frames. In this example, for the person with ID=0001, C 1 (P 20M )=C 2 (P 20M )=0.8 and C 1 (P 40M )=C 2 (P 40M )=0.01. ing. Since the posture of the person in the image is "squatting down" and only a part of the whole body is photographed, the
そこで、人物の姿勢が属性A1・A2の認識に影響を与える姿勢であることを考慮し、図18の例では、1フレーム目のスコアC1の信頼度f(A1)を、f(A1)=f1(A1)=0.2に設定し、2フレーム目のスコアC2の信頼度f(A2)を、f(A2)=f2(A1)=0.2に設定している。これにより、1フレーム目の属性A1の認識結果に上記姿勢の認識結果を加味した属性情報Q1として、Q1(P20M)=C1(P20M)×f1(A1)=0.8×0.2=0.16が得られており、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.2=0.002が得られている。また、2フレーム目の属性A2の認識結果に上記姿勢の認識結果を加味した属性情報Q2として、Q2(P20M)=C2(P20M)×f2(A2)=0.8×0.2=0.16が得られており、Q2(P40M)=C2(P40M)×f2(A3)=0.01×0.2=0.002が得られている。 Therefore, considering that the posture of a person affects the recognition of attributes A 1 and A 2 , in the example of FIG. (A 1 )=f 1 (A 1 )=0.2, and the reliability f(A 2 ) of the score C 2 in the second frame is set to f(A 2 )=f 2 (A 1 )=0 .2. As a result, attribute information Q 1 obtained by adding the posture recognition result to the attribute A 1 recognition result of the first frame is Q 1 (P 20M )=C 1 (P 20M )×f 1 (A 1 )=0. .8 x 0.2 = 0.16 is obtained, and Q 1 (P 40M ) = C 1 (P 40M ) x f 1 (A 1 ) = 0.01 x 0.2 = 0.002. It is Also, as the attribute information Q2 obtained by adding the recognition result of the posture to the recognition result of the attribute A2 in the second frame, Q2 ( P20M )= C2 ( P20M )× f2 ( A2 )=0. 8*0.2=0.16 is obtained, and Q2 ( P40M )= C2 ( P40M )* f2 ( A3 )=0.01*0.2=0.002 is obtained. ing.
図19は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、スコアC3(P20M)が0.05であり、スコアC3(P40M)が0.9となっている。画像中の人物の姿勢が「立ち止まり」であり、全身が撮影された姿勢であるため、人物認識部11aが上記画像に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。
FIG. 19 shows an example of information obtained for the third frame. In this example, the person with ID=0001 has a score C 3 (P 20M ) of 0.05 and a score C 3 (P 40M ) of 0.9. Since the posture of the person in the image is "stopping" and the whole body is photographed, the
人物の姿勢が属性A3の認識にほとんど影響を与えない姿勢であることを考慮し、図19の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、属性A3の認識結果に上記位置の認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.05×1.0=0.05が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3)=0.9×1.0=0.9が得られている。 Considering that the posture of a person has little effect on the recognition of attribute A3 , in the example of FIG . (A 3 )=1.0 is set. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the position to the recognition result of the attribute A3 is calculated as follows: Q3 ( P20M )= C3 ( P20M ) ) ×f 3 (A 3 ) = 0.05 × 1.0 =0.05. f 3 (A 3 )=0.9×1.0=0.9 is obtained.
フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える人物の姿勢(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例3とする)、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M)
=0.8+0.8+0.05
=1.65
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)’ は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M)
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
In the above example where the number of frames n is 3, if the attribute B is determined without considering the posture of the person (reliability f(A n )) that affects attribute recognition (comparative example 3), The evaluation value Z(P 20M )′ of the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.8 + 0.8 + 0.05
= 1.65
On the other hand, the evaluation value Z(P 40M )′ of the recognition result of “male in his 40s” in the total of three frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.
これに対して、本実施形態のように、属性認識に影響を与える人物の姿勢(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M)
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2)
+C3(P20M)・f3(A3)
=0.16+0.16+0.05
=0.37
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M)
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2)
+C3(P40M)・f3(A3)
=0.002+0.002+0.9
=0.904
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when attribute B is determined in consideration of a person's posture (reliability f(A n )) that affects attribute recognition, "a male in his twenties" in three frames in total ” is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.16 + 0.16 + 0.05
= 0.37
On the other hand, the evaluation value Z (P 40M ) of the recognition result of "male in his 40s" in the total of three frames is calculated by the following formula using the attribute information Qn .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.002 + 0.002 + 0.9
= 0.904
From the above, since Z(P 20M )<Z(P 40M ), the
以上のように、本実施形態においても、属性決定部11cは、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(ここでは人物の姿勢)の認識結果を加味した属性情報Qnを各クラスについて求める(S5-2~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える姿勢が生じたフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える姿勢が生じていないフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える姿勢が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、複数フレームのトータルで人物の属性Bを精度よく決定することができる。
As described above, also in the present embodiment, the attribute determination unit 11c adds an event (in this case, a person 's Attribute information Q n that takes into account the recognition result of posture) is obtained for each class (S5-2 to S8). As a result, when the
また、上記の信頼度f(An)は、属性Anの認識に影響を与える事象、つまり、画像内における人物の像から把握される人物の姿勢に基づいて設定されている。これにより、属性決定部11cは、上記信頼度f(An)を用いて、人物の姿勢を考慮した適切な属性情報Qnを取得することができる。
The reliability f(A n ) described above is set based on an event that affects the recognition of the attribute A n , that is, the posture of the person ascertained from the image of the person in the image. Accordingly, the
また、上記の信頼度f(An)は、画像内における人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されている。これにより、人物の姿勢が、全身が撮影された姿勢である場合とそうでない場合とで信頼度f(An)に差を持たせて、人物の姿勢に応じた属性情報Qnを取得することができる。 Further, the reliability f(A n ) is set based on whether or not the posture of the person in the image is a posture in which only a part of the whole body is photographed. As a result, the attribute information Q n corresponding to the posture of the person is acquired by giving a difference in reliability f(A n ) depending on whether the posture of the person is a posture in which the whole body is photographed or not. be able to.
特に、本実施形態では、画像内における人物の姿勢が、全身の一部のみが撮影された姿勢である場合の信頼度f(An)は、画像内における人物の姿勢が、全身が撮影された姿勢である場合の信頼度f(An)よりも低く設定されている。これにより、全身の一部のみが撮影された画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。一方、全身が撮影された画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when the posture of a person in an image is a posture in which only a part of the whole body is photographed is calculated as follows: It is set to be lower than the reliability f(A n ) in the case of the posture that is in the normal position. As a result, for a person's attribute A n that is recognized with low accuracy based on an image in which only a part of the whole body is captured, the reliability f(A n ) of the recognition result is lowered, and the final attribute B It is possible to obtain the attribute information Q n in which the degree of contribution of the recognition result to the determination of is reduced. On the other hand, for a person's attribute A n that is recognized with high accuracy based on an image of the whole body, the reliability f(A n ) of the recognition result is increased, and the above recognition for the final determination of attribute B is performed. It is possible to obtain attribute information Q n with a higher degree of contribution of the result.
<実施の形態4>
本実施形態では、属性Anの認識に影響を与える事象として、人物の位置を考えている点で実施の形態1と共通しているが、画像内での複数人の人物の像の位置関係、つまり、各人物矩形の位置関係を加味して属性Bを決定している点で、実施の形態1とは異なっている。以下、実施の形態1と異なる部分について説明する。
<
This embodiment is similar to the first embodiment in that the position of a person is considered as an event that affects the recognition of the attribute A n . That is, the attribute B is determined in consideration of the positional relationship of each person rectangle, which is different from the first embodiment. The parts different from the first embodiment will be described below.
図20は、2人の人物を上方から撮影した任意のフレームの画像2aを模式的に示している。例えば、店舗内(実空間)において、2人の人物が物理的に密着していたり、一方の人物が他方の人物に密着せずに覆いかぶさる状態であった場合には、2人の人物を上方から撮影して得られる画像2aでは、同図のように、2人の人物の像Pa・Pbが互いに重なる。その結果、図21に示すように、画像2a内では、2人の人物の像Pa・Pbの位置を規定する人物矩形Ra・Rbも互いに重なる。この場合、人物矩形Ra内の情報のうち、人物矩形Rbと重なる部分の情報は、人物矩形Rb内の像Pbに対応する人物の属性の認識に影響を及ぼす。同様に、人物矩形Rb内の情報のうち、人物矩形Raと重なる部分の情報は、人物矩形Ra内の像Paに対応する人物の属性の認識に影響を及ぼす。その結果、双方の人物の属性の認識精度が低下する可能性がある。一方、画像2a内で各人物矩形Ra・Rbが離れている場合は、各人物矩形Ra・Rb内の情報が、各人物の属性認識に互いに影響を及ぼすことはなく、各人物の属性の認識精度は向上する。
FIG. 20 schematically shows an
そこで、本実施形態では、属性決定部11cは、画像2a内で、人物の像Paの位置を規定する一の人物矩形Raが、他の人物の像Pbの位置を規定する他の人物矩形Rbと重なっている場合には、信頼度f(An)を1未満に設定し、一の人物矩形Raが他の人物矩形Rbと離れている場合には、信頼度f(An)を1に設定して、各フレームごとに属性情報Qnを各クラスについて求め、求めた属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定するようにしている。
Therefore, in the present embodiment, the
図22は、本実施形態の属性決定システム1における処理の流れを示すフローチャートである。なお、図22のフローチャートは、図7のフローチャートのS3およびS5を、それぞれS3-3およびS5-3に置き換えたものである。なお、ここでは、実施の形態1と同様に、属性を判断する対象となる人物(ID=0001の人物)は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。
FIG. 22 is a flow chart showing the flow of processing in the
S3-3(人物認識工程)では、人物認識部11aは、実施の形態1と同様の手法で、2人の人物を上方から撮影したnフレーム目の画像に基づいて、2人の人物の像を認識し、一方の人物の人物矩形Rnaと、その人物矩形Rna内の像に対応する人物の属性Anと、属性Anの認識に影響を与える事象(ここでは他の人物の人物矩形Rnb)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCnを算出する(人物認識工程)。得られた認識結果およびスコアCnは、記憶部12に記憶される。S4では、一の人物矩形Rnaの人物に、ID=0001の識別番号を付与し、他の人物矩形Rnbの人物に、ID=0002の識別番号を付与する。
In S3-3 (person recognition step), the
S5-3では、属性決定部11cは、S3-3での属性Anの認識に影響を与える事象の認識結果(他の人物矩形Rnbが一の人物矩形Rnaと重なっているか否か)に対応してスコアCnの信頼度f(An)を設定する(S5-3~S7)。つまり、画像内で、一の人物矩形Rnaと他の人物矩形Rnbとが重なっており、他の人物矩形Rnbが一の人物矩形Rna内の像に対応する人物(ID=0001)の属性認識に影響を与える場合(S5-3でYes)、属性決定部11cは、上記認識結果に対応して、スコアCnの信頼度f(An)を1未満に設定する(S6)。一方、画像内で、一の人物矩形Rnaと他の人物矩形Rnbとが離れており、他の人物矩形Rnbが一の人物矩形Rna内の像に対応する人物の属性認識に影響を与えない場合(S5-2でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。
In S5-3, the
次に、属性決定部11cは、S3-3で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。求めた属性情報Qnは、記憶部12に人物の識別情報(ID=0001)と対応付けて記憶される。
Next, the
(n+1)フレーム目以降の画像についてもS2以降の処理を繰り返し(S9、S10)、処理の継続が不要となった時点でS11に移行する。S11では、属性決定部11cは、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5-3~S9、S11の工程は、属性決定工程に対応する。
The processing after S2 is repeated for the (n+1)-th frame and subsequent images (S9, S10), and when the continuation of the processing becomes unnecessary, the process proceeds to S11. In S11, the
図23は、1フレーム目および2フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、C1(P20M)=C2(P20M)=0.7であり、C1(P40M)=C2(P40M)=0.01となっている。画像中で人物矩形Rna・Rnbが重なっており、人物認識部11aが、人物矩形Rna内の像に対応する人物(ID=0001)の属性A1・A2の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)およびC2(P40M)よりも、「20代男性」のスコアC1(P20M)およびC2(P20M)のほうが高くなっている。
FIG. 23 shows an example of information obtained for the first and second frames. In this example, for the person with ID=0001, C 1 (P 20M )=C 2 (P 20M )=0.7 and C 1 (P 40M )=C 2 (P 40M )=0.01. ing. The person rectangles Rna and Rnb overlap in the image, and the
そこで、人物矩形Rnbが、人物(ID=0001)の属性A1・A2の認識に影響を与える位置にあることを考慮し、図23の例では、1フレーム目のスコアC1の信頼度f(A1)を、f(A1)=f1(A1)0.1に設定し、2フレーム目のスコアC2の信頼度f(A2)を、f(A2)=f2(A2)=0.1に設定している。これにより、1フレーム目の属性A1の認識結果に上記人物矩形Rnbの認識結果(位置)を加味した属性情報Q1として、Q1(P20M)=C1(P20M)×f1(A1)=0.7×0.1=0.07が得られており、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.1=0.001が得られている。また、2フレーム目の属性A2の認識結果に上記人物矩形Rnbの認識結果(位置)を加味した属性情報Q2として、Q2(P20M)=C2(P20M)×f2(A2)=0.7×0.1=0.07が得られており、Q2(P40M)=C2(P40M)×f2(A2)=0.01×0.1=0.001が得られている。 Considering that the person rectangle R nb is located at a position that affects the recognition of the attributes A 1 and A 2 of the person (ID=0001), in the example of FIG . The degree f(A 1 ) is set to f(A 1 )=f 1 (A 1 ) 0.1, and the reliability f(A 2 ) of the score C 2 in the second frame is set to f(A 2 )= It is set to f 2 (A 2 )=0.1. As a result, as attribute information Q1 obtained by adding the recognition result (position) of the person rectangle Rnb to the recognition result of the attribute A1 of the first frame, Q1 ( P20M )= C1 ( P20M )× f1 (A 1 )=0.7×0.1=0.07 is obtained and Q 1 (P 40M )=C 1 (P 40M )×f 1 (A 1 )=0.01×0.1 = 0.001 is obtained. Also, as attribute information Q2 obtained by adding the recognition result (position) of the person rectangle Rnb to the recognition result of the attribute A2 in the second frame, Q2 ( P20M )= C2 ( P20M )× f2 ( A 2 ) = 0.7 x 0.1 = 0.07 and Q 2 (P 40M ) = C 2 (P 40M ) x f 2 (A 2 ) = 0.01 x 0.1 = 0.001 is obtained.
図24は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、スコアC3(P20M)が0.01であり、スコアC3(P40M)が0.9となっている。画像中で人物矩形Rna・Rnbが互いに離れており、人物認識部11aが上記画像(人物矩形Rna内の人物(ID=0001)の像)に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。
FIG. 24 shows an example of information obtained for the third frame. In this example, for the person with ID=0001, the score C 3 (P 20M ) is 0.01 and the score C 3 (P 40M ) is 0.9. In the image, the person rectangles Rna and Rnb are separated from each other, and the
人物矩形Rnbが、人物(ID=0001)の属性A3の認識にほとんど影響を与えない位置であることを考慮し、図24の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、人物(ID=0001)の属性A3の認識結果に上記人物矩形Rnbの認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.01×1.0=0.01が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3)=0.9×1.0=0.9が得られている。 Considering that the person rectangle Rnb is a position that hardly affects the recognition of the attribute A3 of the person (ID=0001), in the example of FIG . , f(A 3 )=f 3 (A 3 )=1.0. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the person rectangle Rnb to the attribute A3 of the person (ID=0001) is obtained. (P 20M ) = C 3 (P 20M ) x f 3 (A 3 ) = 0.01 x 1.0 = 0.01 . 40M )= C3 ( P40M )* f3 ( A3 )=0.9*1.0=0.9 is obtained.
フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える人物矩形Rnbの位置(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例4とする)、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M)
=0.7+0.7+0.01
=1.41
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)’ は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M)
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
In the above example where the number of frames n is 3, if the attribute B is determined without considering the position (reliability f(A n )) of the person rectangle R nb that affects attribute recognition (comparative example 4 and ), and the evaluation value Z(P 20M )′ of the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.7 + 0.7 + 0.01
= 1.41
On the other hand, the evaluation value Z(P 40M )′ of the recognition result of “male in his 40s” in the total of three frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.
これに対して、本実施形態のように、属性認識に影響を与える人物矩形Rnbの位置(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M)
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2)
+C3(P20M)・f3(A3)
=0.07+0.07+0.01
=0.15
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M)
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2)
+C3(P40M)・f3(A3)
=0.001+0.001+0.9
=0.902
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when the attribute B is determined in consideration of the position (reliability f(A n )) of the person rectangle R nb that affects attribute recognition, " The evaluation value Z (P 20M ) of the recognition result of "male in his twenties" is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.07 + 0.07 + 0.01
= 0.15
On the other hand, the evaluation value Z (P 40M ) of the recognition result of "male in his 40s" in the total of three frames is calculated by the following formula using the attribute information Qn .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.001 + 0.001 + 0.9
= 0.902
From the above, since Z(P 20M )<Z(P 40M ), the
以上のように、本実施形態においても、属性決定部11cは、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(人物の位置(特に人物矩形Rna・Rnbの重なり))の認識結果を加味した属性情報Qnを各クラスについて求める(S5-3~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える事象が生じたフレーム(画像内で人物矩形Rna・Rnbが重なっているフレーム)については、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える事象が生じていないフレーム(画像内で人物矩形Rna・Rnbが離れているフレーム)については、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える事象(人物矩形Rna・Rnbの重なり)が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、複数フレームのトータルで人物の属性Bを精度よく決定することができる。
As described above, also in the present embodiment, the attribute determining unit 11c adds an event (person's position ( In particular, the attribute information Q n that takes into account the recognition results of the person rectangles R na and R nb overlapping)) is obtained for each class (S5-3 to S8). As a result, when the
また、上記の信頼度f(An)は、画像内で、一の人物矩形Rnaが他の人物矩形Rnbと重なっているか否かに基づいて設定されている。これにより、画像内で、一の人物矩形Rnaが他の人物矩形Rnbと重なっている場合とそうでない場合とで信頼度f(An)に差を持たせて、人物矩形Rna・Rnbの位置に応じた属性情報Qnを取得することができる。 Further, the reliability f(A n ) is set based on whether or not one person rectangle R na overlaps another person rectangle R nb in the image. As a result, the reliability f(A n ) differs depending on whether or not one person rectangle R na overlaps another person rectangle R nb in the image, and the person rectangle R na · Attribute information Q n corresponding to the position of R nb can be obtained.
特に、本実施形態では、画像内で、一の人物矩形Rnaが他の人物矩形Rnbと重なっている場合の信頼度f(An)は、一の人物矩形Rnaが他の人物矩形Rnbから離れている場合の信頼度f(An)よりも低く設定されている。これにより、人物矩形Rna・Rnbが重なっている画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。一方、人物矩形Rna・Rnbが離れている画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when one person rectangle R na overlaps another person rectangle R nb in an image is calculated as follows. It is set lower than the reliability f(A n ) when far from R nb . As a result, based on the image in which the person rectangles R na and R nb are superimposed, the reliability f(A n ) of the recognition result for the attribute A n of the person recognized with low accuracy is lowered, and the final Attribute information Q n in which the degree of contribution of the recognition result to determination of attribute B is reduced can be obtained. On the other hand, for a person attribute A n that is recognized with high accuracy based on an image in which the person rectangles R na and R nb are distant, the reliability f(A n ) of the recognition result is increased, and the final attribute It is possible to obtain attribute information Q n in which the degree of contribution of the recognition result to the determination of B is increased.
<プログラムおよび記録媒体>
以上の各実施の形態で説明した属性決定装置3は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部16)が読み取って実行することにより、属性決定装置3の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部12に記憶される。また、上記プログラムは、例えばCD-ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取って記憶部12に記憶する形態であってもよい。
<Program and recording medium>
The
<補足>
以上の各実施の形態を組み合わせて、複数フレームのトータルで人物の属性を決定することも可能である。例えば、属性の認識に影響を与える事象として、人物の位置、行動、姿勢を適宜組み合わせて信頼度を設定し、上記信頼度とスコアとに基づいて各フレームごとに属性情報を求め、複数フレームで属性情報を統合することによって、属性を決定するようにしてもよい。
<Supplement>
By combining the above embodiments, it is possible to determine the attributes of a person in total for a plurality of frames. For example, as an event that affects the recognition of attributes, a reliability level is set by appropriately combining a person's position, action, and posture, and attribute information is obtained for each frame based on the above reliability level and score, Attributes may be determined by integrating attribute information.
以上で説明した本実施形態の属性決定装置、属性決定システムおよび属性決定方法は、以下のように表現されてもよい。また、本実施形態で説明した内容は、以下のプログラムおよび記録媒体を含む。 The attribute determination device, attribute determination system, and attribute determination method of this embodiment described above may be expressed as follows. Further, the contents described in this embodiment include the following programs and recording media.
1.人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定装置であって、
各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識部と、
各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定部と、
各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定部とを備えていることを特徴とする属性決定装置。
1. An attribute determining device for determining an attribute of a person based on an image of each frame photographing the person from above,
A person who recognizes, for each frame, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and events affecting recognition of the attributes. a recognition unit;
a person identification unit that determines whether or not the image of the person is the image of the same person between frames based on the person information of each frame;
With respect to the person whose images are determined to be the same person in each frame, the recognized attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is added for each frame. an attribute determination unit that determines the attributes of the person based on results obtained for each class of attributes and integrating the attribute information in a plurality of frames for each of the classes. .
2.前記人物認識部は、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定部は、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識部によって算出された前記スコアと、前記信頼度とに基づいて、前記クラスごとに前記属性情報を求めることを特徴とする前記1に記載の属性決定装置。
2. The person recognition unit calculates a score indicating the likelihood of the recognition result of the attribute based on the image of each frame,
The attribute determination unit sets the reliability of the score corresponding to the recognition result of the event, and based on the score calculated by the person recognition unit and the reliability, the 2. The attribute determination device according to 1 above, which obtains attribute information.
3.前記事象は、前記画像内における前記人物の像の位置を含み、
前記信頼度は、前記人物の像の位置に基づいて設定されていることを特徴とする前記2に記載の属性決定装置。
3. the event includes the position of the image of the person within the image;
3. The attribute determination device according to 2, wherein the reliability is set based on the position of the image of the person.
4.前記信頼度は、前記画像内における前記人物の像の位置が、全身が撮影された位置であるか否かに基づいて設定されていることを特徴とする前記3に記載の属性決定装置。 4. 4. The attribute determination device according to 3 above, wherein the reliability is set based on whether or not the position of the image of the person in the image is a position where the whole body is photographed.
5.前記画像内における前記人物の像の位置が、全身が撮影された位置である場合の前記信頼度は、前記画像内における前記人物の像の位置が、全身の一部のみが撮影された位置である場合の前記信頼度よりも高く設定されていることを特徴とする前記4に記載の属性決定装置。 5. The reliability when the position of the image of the person in the image is the position where the whole body is photographed is the position where the image of the person in the image is the position where only a part of the whole body is photographed. 5. The attribute determination device according to 4 above, wherein the reliability is set higher than the reliability in a certain case.
6.前記信頼度は、前記画像内で、前記人物の像の位置を規定する一の人物矩形が、他の人物の像の位置を規定する他の人物矩形と重なっているか否かに基づいて設定されていることを特徴とする前記3に記載の属性決定装置。 6. The reliability is set based on whether or not one person rectangle defining the position of the image of the person overlaps another person rectangle defining the position of the image of another person in the image. 4. The attribute determination device according to 3 above, characterized in that:
7.前記画像内で、前記一の人物矩形が前記他の人物矩形と重なっている場合の前記信頼度は、前記一の人物矩形が前記他の人物矩形から離れている場合の前記信頼度よりも低く設定されていることを特徴とする前記6に記載の属性決定装置。 7. In the image, the confidence when the one person rectangle overlaps with the other person rectangle is lower than the confidence when the one person rectangle is separated from the other person rectangle. 7. The attribute determination device according to 6 above, characterized in that it is set.
8.前記事象は、前記画像内における前記人物の像から把握される前記人物の行動を含み、
前記信頼度は、前記人物の行動に基づいて設定されていることを特徴とする前記2から7のいずれかに記載の属性決定装置。
8. The event includes the behavior of the person grasped from the image of the person in the image,
8. The attribute determination device according to any one of 2 to 7, wherein the reliability is set based on the behavior of the person.
9.前記信頼度は、前記人物の行動が、動きを伴う行動であるか否かに基づいて設定されていることを特徴とする前記8に記載の属性決定装置。 9. 9. The attribute determination device according to 8, wherein the reliability is set based on whether or not the action of the person involves movement.
10.前記人物の行動が動きを伴う行動である場合の前記信頼度は、前記人物の行動が滞留行動である場合の前記信頼度よりも低く設定されていることを特徴とする前記9に記載の属性決定装置。 10. 10. The attribute according to 9 above, wherein the reliability when the action of the person is an action involving movement is set lower than the reliability when the action of the person is a staying action. decision device.
11.前記事象は、前記画像内における前記人物の像から把握される前記人物の姿勢を含み、
前記信頼度は、前記人物の姿勢に基づいて設定されていることを特徴とする前記2から10のいずれかに記載の属性決定装置。
11. The event includes the posture of the person grasped from the image of the person in the image,
11. The attribute determination device according to any one of 2 to 10, wherein the reliability is set based on the posture of the person.
12.前記信頼度は、前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されていることを特徴とする前記11に記載の属性決定装置。 12. 12. The attribute determination apparatus according to 11 above, wherein the reliability is set based on whether or not the posture of the person in the image is a posture in which only a part of the whole body is photographed. .
13.前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢である場合の前記信頼度は、前記画像内における前記人物の姿勢が、全身が撮影された姿勢である場合の前記信頼度よりも低く設定されていることを特徴とする前記12に記載の属性決定装置。 13. The reliability when the posture of the person in the image is a posture in which only a part of the whole body is photographed is the reliability when the posture of the person in the image is a posture in which the whole body is photographed. 13. The attribute determination device according to 12 above, wherein the attribute is set lower than the reliability.
14.前記人物の前記属性は、前記人物の年齢および性別の少なくとも一方であることを特徴とする前記1から13のいずれかに記載の属性決定装置。 14. 14. The attribute determination device according to any one of 1 to 13, wherein the attribute of the person is at least one of age and sex of the person.
15.前記属性決定部によって決定された前記属性を記憶する記憶部をさらに備えていることを特徴とする前記1から14のいずれかに記載の属性決定装置。 15. 15. The attribute determination device according to any one of 1 to 14, further comprising a storage unit that stores the attribute determined by the attribute determination unit.
16.前記1から15のいずれかに記載の属性決定装置と、
前記属性決定装置と通信回線を介して接続される管理サーバーとを含み、
前記管理サーバーは、前記属性決定装置から送出される情報を格納する格納部を備え、
前記情報には、前記属性決定装置の前記属性決定部によって決定された前記属性が含まれることを特徴とする属性決定システム。
16. 16. The attribute determination device according to any one of 1 to 15;
including a management server connected to the attribute determination device via a communication line,
The management server comprises a storage unit for storing information sent from the attribute determination device,
The attribute determination system, wherein the information includes the attribute determined by the attribute determination unit of the attribute determination device.
17.人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定方法であって、
各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識工程と、
各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定工程と、
各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定工程とを含むことを特徴とする属性決定方法。
17. An attribute determination method for determining an attribute of a person based on an image of each frame photographing the person from above,
A person who recognizes, for each frame, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and events affecting recognition of the attributes. a recognition process;
a person identification step of determining whether or not the images of the person between the frames are images of the same person based on the person information of each frame;
With respect to the person whose images are determined to be the same person in each frame, the recognized attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is added for each frame. and an attribute determination step of determining the attributes of the person based on results obtained for each attribute class and integrating the attribute information in a plurality of frames for each class.
18.前記人物認識工程では、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定工程では、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識部によって算出された前記スコアと、前記信頼度とに基づいて、前記クラスごとに前記属性情報を求めることを特徴とする前記17に記載の属性決定方法。
18. In the person recognition step, based on the image of each frame, a score indicating the likelihood of the recognition result of the attribute is calculated;
In the attribute determination step, the reliability of the score is set corresponding to the recognition result of the event, and based on the score calculated by the person recognition unit and the reliability, the 18. The attribute determination method according to 17 above, wherein attribute information is obtained.
19.前記事象は、前記画像内における前記人物の像の位置を含み、
前記信頼度は、前記人物の像の位置に基づいて設定されていることを特徴とする前記18に記載の属性決定方法。
19. the event includes the position of the image of the person within the image;
19. The attribute determination method according to 18 above, wherein the reliability is set based on the position of the image of the person.
20.前記信頼度は、前記画像内における前記人物の像の位置が、全身が撮影された位置であるか否かに基づいて設定されていることを特徴とする前記19に記載の属性決定方法。 20. 20. The attribute determination method according to 19, wherein the reliability is set based on whether or not the position of the image of the person in the image is a position where the whole body is photographed.
21.前記画像内における前記人物の像の位置が、全身が撮影された位置である場合の前記信頼度は、前記画像内における前記人物の像の位置が、全身の一部のみが撮影された位置である場合の前記信頼度よりも高く設定されていることを特徴とする前記20に記載の属性決定方法。 21. The reliability when the position of the image of the person in the image is the position where the whole body is photographed is the position where the image of the person in the image is the position where only a part of the whole body is photographed. 21. The attribute determination method as described in 20 above, wherein the reliability is set higher than the reliability in a certain case.
22.前記信頼度は、前記画像内で、前記人物の像の位置を規定する一の人物矩形が、他の人物の像の位置を規定する他の人物矩形と重なっているか否かに基づいて設定されていることを特徴とする前記19に記載の属性決定方法。 22. The reliability is set based on whether or not one person rectangle defining the position of the image of the person overlaps another person rectangle defining the position of the image of another person in the image. 20. The attribute determination method according to 19 above, characterized in that
23.前記画像内で、前記一の人物矩形が前記他の人物矩形と重なっている場合の前記信頼度は、前記一の人物矩形が前記他の人物矩形から離れている場合の前記信頼度よりも低く設定されていることを特徴とする前記22に記載の属性決定方法。 23. In the image, the confidence when the one person rectangle overlaps with the other person rectangle is lower than the confidence when the one person rectangle is separated from the other person rectangle. 23. The attribute determination method according to the above 22, wherein the attribute is set.
24.前記事象は、前記画像内における前記人物の像から把握される前記人物の行動を含み、
前記信頼度は、前記人物の行動に基づいて設定されていることを特徴とする前記18から23のいずれかに記載の属性決定方法。
24. The event includes the behavior of the person grasped from the image of the person in the image,
24. The attribute determination method according to any one of 18 to 23, wherein the reliability is set based on behavior of the person.
25.前記信頼度は、前記人物の行動が、動きを伴う行動であるか否かに基づいて設定されていることを特徴とする前記24に記載の属性決定方法。 25. 25. The attribute determination method according to 24 above, wherein the reliability is set based on whether or not the action of the person involves movement.
26.前記人物の行動が動きを伴う行動である場合の前記信頼度は、前記人物の行動が滞留行動である場合の前記信頼度よりも低く設定されていることを特徴とする前記25に記載の属性決定方法。 26. 26. The attribute according to 25 above, wherein the reliability when the action of the person is an action involving movement is set lower than the reliability when the action of the person is a staying action. How to decide.
27.前記事象は、前記画像内における前記人物の像から把握される前記人物の姿勢を含み、
前記信頼度は、前記人物の姿勢に基づいて設定されていることを特徴とする前記18から26のいずれかに記載の属性決定方法。
27. The event includes the posture of the person grasped from the image of the person in the image,
27. The attribute determination method according to any one of 18 to 26, wherein the reliability is set based on the posture of the person.
28.前記信頼度は、前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されていることを特徴とする前記27に記載の属性決定方法。 28. 28. The attribute determination method according to 27 above, wherein the reliability is set based on whether or not the posture of the person in the image is a posture in which only a part of the whole body is photographed. .
29.前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢である場合の前記信頼度は、前記画像内における前記人物の姿勢が、全身が撮影された姿勢である場合の前記信頼度よりも低く設定されていることを特徴とする前記28に記載の属性決定方法。 29. The reliability when the posture of the person in the image is a posture in which only a part of the whole body is photographed is the reliability when the posture of the person in the image is a posture in which the whole body is photographed. 29. The attribute determination method according to 28 above, wherein the attribute is set lower than the reliability.
30.前記人物の前記属性は、前記人物の年齢および性別の少なくとも一方であることを特徴とする前記17から29のいずれかに記載の属性決定方法。 30. 30. The attribute determination method according to any one of 17 to 29, wherein the attribute of the person is at least one of age and sex of the person.
31.前記属性決定工程によって決定された前記属性を記憶する記憶工程をさらに含むことを特徴とする請求項17から30のいずれかに記載の属性決定方法。 31. 31. The attribute determination method according to any one of claims 17 to 30, further comprising a storage step of storing said attributes determined by said attribute determination step.
32.前記17から31のいずれかに記載の属性決定方法をコンピュータに実行させるための属性決定プログラム。 32. 32. An attribute determination program for causing a computer to execute the attribute determination method according to any one of 17 to 31 above.
33.前記32に記載の属性決定プログラムを記録した、コンピュータ読取可能な記録媒体。 33. 33. A computer-readable recording medium recording the attribute determination program according to 32 above.
以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited thereto, and can be implemented by being expanded or modified without departing from the gist of the invention.
本発明は、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する装置、システムおよび方法に利用可能である。 INDUSTRIAL APPLICABILITY The present invention is applicable to apparatuses, systems, and methods for determining attributes of a person based on each frame image of the person photographed from above.
1 属性決定システム
3 属性決定装置
4 管理サーバー
11a 人物認識部
11b 人物同定部
11c 属性決定部
12 記憶部
21 格納部
1
Claims (19)
各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識部と、
各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定部と、
各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定部とを備え、
前記人物認識部は、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定部は、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識部によって算出された前記スコアに前記信頼度を乗算することによって、前記クラスごとに前記属性情報を求め、前記クラスごとに求めた前記属性情報を複数フレームで統合した、前記クラスごとの評価値の大小関係に基づいて前記人物の属性を決定することを特徴とする属性決定装置。An attribute determining device for determining an attribute of a person based on an image of each frame photographing the person from above,
A person who recognizes, for each frame, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and events affecting recognition of the attributes. a recognition unit;
a person identification unit that determines whether or not the image of the person is the image of the same person between frames based on the person information of each frame;
With respect to the person whose images are determined to be the same person between frames, the recognized attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is obtained for each frame. an attribute determining unit that determines the attributes of the person based on results obtained for each class of attributes and integrating the attribute information in a plurality of frames for each class;
The person recognition unit calculates a score indicating the likelihood of the recognition result of the attribute based on the image of each frame,
The attribute determination unit sets the reliability of the score corresponding to the recognition result of the event, and multiplies the score calculated by the person recognition unit by the reliability to obtain the 1. An attribute determination device, wherein attribute information is obtained, and the attribute information obtained for each class is integrated in a plurality of frames , and the attribute of the person is determined based on the magnitude relation of the evaluation values for each class .
前記信頼度は、前記人物の像の位置に基づいて設定されていることを特徴とする請求項1に記載の属性決定装置。the event includes the position of the image of the person within the image;
2. The attribute determination device according to claim 1, wherein the reliability is set based on the position of the image of the person.
前記信頼度は、前記人物の行動に基づいて設定されていることを特徴とする請求項1から6のいずれかに記載の属性決定装置。The event includes the behavior of the person grasped from the image of the person in the image,
7. The attribute determination device according to any one of claims 1 to 6, wherein the reliability is set based on behavior of the person.
前記信頼度は、前記人物の姿勢に基づいて設定されていることを特徴とする請求項1から9のいずれかに記載の属性決定装置。The event includes the posture of the person grasped from the image of the person in the image,
10. The attribute determination device according to any one of claims 1 to 9, wherein the reliability is set based on the posture of the person.
前記属性決定装置と通信回線を介して接続される管理サーバーとを含み、
前記管理サーバーは、前記属性決定装置から送出される情報を格納する格納部を備え、
前記情報には、前記属性決定装置の前記属性決定部によって決定された前記属性が含まれることを特徴とする属性決定システム。an attribute determination device according to any one of claims 1 to 14;
including a management server connected to the attribute determination device via a communication line,
The management server comprises a storage unit for storing information sent from the attribute determination device,
The attribute determination system, wherein the information includes the attribute determined by the attribute determination unit of the attribute determination device.
人物認識部が、各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識工程と、
人物同定部が、各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定工程と、
属性決定部が、各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定工程とを含み、
前記人物認識工程では、前記人物認識部が、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定工程では、前記属性決定部が、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識工程によって算出された前記スコアに前記信頼度を乗算することによって、前記クラスごとに前記属性情報を求め、前記クラスごとに求めた前記属性情報を複数フレームで統合した、前記クラスごとの評価値の大小関係に基づいて前記人物の属性を決定することを特徴とする属性決定方法。An attribute determination method for determining an attribute of a person based on an image of each frame of the person photographed from above,
A person recognition unit recognizes, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and an event affecting recognition of the attributes for each frame. a person recognition process for recognizing each
a person identification step in which the person identification unit determines whether or not the images of the person between the frames are images of the same person based on the person information of each frame;
attribute information obtained by adding the recognition result of the event to the recognition result of the attribute for each frame with respect to the person whose image is determined to be the same person in each frame by the attribute determination unit; is obtained for each class of the recognized attribute, and for each class, the attribute of the person is determined based on the result of integrating the attribute information in a plurality of frames,
In the person recognition step, the person recognition unit calculates a score indicating the likelihood of the recognition result of the attribute based on the image of each frame,
In the attribute determination step, the attribute determination unit sets the reliability of the score corresponding to the recognition result of the event, and multiplies the score calculated by the person recognition step by the reliability. , the attribute information is obtained for each class, and the attribute of the person is determined based on the magnitude relationship of the evaluation values for each class, which is obtained by integrating the attribute information obtained for each class in a plurality of frames. attribute determination method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090459A JP7336835B2 (en) | 2018-05-09 | 2018-05-09 | Attribute determination device, attribute determination system, and attribute determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090459A JP7336835B2 (en) | 2018-05-09 | 2018-05-09 | Attribute determination device, attribute determination system, and attribute determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019197353A JP2019197353A (en) | 2019-11-14 |
JP7336835B2 true JP7336835B2 (en) | 2023-09-01 |
Family
ID=68537535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018090459A Active JP7336835B2 (en) | 2018-05-09 | 2018-05-09 | Attribute determination device, attribute determination system, and attribute determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7336835B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115552460A (en) | 2020-05-22 | 2022-12-30 | 富士胶片株式会社 | Image data processing apparatus and image data processing system |
CN112396494B (en) * | 2020-11-23 | 2024-06-21 | 北京百度网讯科技有限公司 | Commodity guiding method, commodity guiding device, commodity guiding equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012053311A1 (en) | 2010-10-22 | 2012-04-26 | Necソフト株式会社 | Attribute determination method, attribute determination device, program, recording medium, and attribute determination system |
JP2012226609A (en) | 2011-04-20 | 2012-11-15 | Canon Inc | Information processor, information processor control method and program |
JP2015222881A (en) | 2014-05-23 | 2015-12-10 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
JP2017204095A (en) | 2016-05-10 | 2017-11-16 | 富士通株式会社 | Feature quantity comparison program, information processor, and feature quantity comparison method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4198951B2 (en) * | 2002-07-17 | 2008-12-17 | 独立行政法人科学技術振興機構 | Group attribute estimation method and group attribute estimation apparatus |
-
2018
- 2018-05-09 JP JP2018090459A patent/JP7336835B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012053311A1 (en) | 2010-10-22 | 2012-04-26 | Necソフト株式会社 | Attribute determination method, attribute determination device, program, recording medium, and attribute determination system |
JP2012226609A (en) | 2011-04-20 | 2012-11-15 | Canon Inc | Information processor, information processor control method and program |
JP2015222881A (en) | 2014-05-23 | 2015-12-10 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
JP2017204095A (en) | 2016-05-10 | 2017-11-16 | 富士通株式会社 | Feature quantity comparison program, information processor, and feature quantity comparison method |
Also Published As
Publication number | Publication date |
---|---|
JP2019197353A (en) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11526549B2 (en) | Method and system for interfacing with a user to facilitate an image search for an object-of-interest | |
US10891509B2 (en) | Method and system for facilitating identification of an object-of-interest | |
US8036416B2 (en) | Method and apparatus for augmenting a mirror with information related to the mirrored contents and motion | |
US10380603B2 (en) | Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale | |
CN106897659B (en) | The recognition methods of blink movement and device | |
EP2908220A1 (en) | Gesture recognition device and method of controlling gesture recognition device | |
CN110738101A (en) | Behavior recognition method and device and computer readable storage medium | |
US20190080003A1 (en) | Method and system for interfacing with a user to facilitate an image search for a person-of-interest | |
US10559102B2 (en) | Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program | |
JP2010262425A (en) | Computer execution method for recognizing and classifying clothes | |
US20210035187A1 (en) | Device and method for item recommendation based on visual elements | |
JP2008203916A (en) | Image processing apparatus, program, and image processing method | |
US20230089155A1 (en) | Information processing device, monitoring system, information processing method, andnon-transitory computer-readable storage medium | |
JP2014016968A (en) | Person retrieval device and data collection device | |
JP7336835B2 (en) | Attribute determination device, attribute determination system, and attribute determination method | |
US20170083782A1 (en) | Image analysis apparatus, image analysis method, and storage medium | |
US20130236065A1 (en) | Image semantic clothing attribute | |
JP6312991B2 (en) | Image output device | |
JP2006323507A (en) | Attribute identifying system and attribute identifying method | |
JP7259313B2 (en) | Attribute determination device, attribute determination system, attribute determination method, program and recording medium | |
US20220343112A1 (en) | Learning data generation device, learning data generation method, and learning data generation program | |
CN116311347A (en) | Person on Shift detection method, electronic device, and computer-readable storage medium | |
CN112487980A (en) | Micro-expression-based treatment method, device, system and computer-readable storage medium | |
JP7494130B2 (en) | Information processing system, information processing method, and program | |
JP7560015B2 (en) | OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220906 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220914 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220920 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221028 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20221101 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221122 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230110 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20230411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336835 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |