JP2017204757A - 被写体追跡装置及びそのプログラム - Google Patents
被写体追跡装置及びそのプログラム Download PDFInfo
- Publication number
- JP2017204757A JP2017204757A JP2016095717A JP2016095717A JP2017204757A JP 2017204757 A JP2017204757 A JP 2017204757A JP 2016095717 A JP2016095717 A JP 2016095717A JP 2016095717 A JP2016095717 A JP 2016095717A JP 2017204757 A JP2017204757 A JP 2017204757A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- tracking
- infrared
- visible image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
ここで、可視画像とは、可視光(肉眼で見える波長の光)で撮影した画像のことである。また、非可視画像とは、非可視光(肉眼で見えない波長の光)で撮影した画像のことである。
被写体追跡装置は、学習部によって、非可視画像で被写体を追跡できた場合には、非可視画像の非可視光マーカに対応した位置にある可視画像の被写体の画像特徴量をオンライン学習することで、被写体の識別器を生成する。
被写体追跡装置は、追跡制御部によって、非可視画像で被写体を追跡できた場合には、非可視画像で追跡した被写体の位置を出力し、非可視画像で被写体を追跡できなかった場合には、可視画像で追跡した被写体の位置を出力する。
本発明に係る被写体追跡装置は、非可視画像による追跡中に可視画像の被写体をオンライン学習し、非可視画像による追跡が行えない場合、オンライン学習した識別器を用いて、可視画像による追跡を行うので、頑健な被写体追跡を実現することができる。
図1を参照し、実施形態における被写体追跡システム1の構成について説明する。
被写体追跡システム1は、可視画像及び赤外画像を用いて、動いている被写体9を追跡するものであり、図1に示すように、赤外線投光部10と、撮影部20と、被写体追跡装置30とを備える。
本実施形態では、被写体追跡システム1は、非可視光として赤外線(赤外光)を利用することとする。また、被写体追跡システム1は、フェンシングの試合を撮影し、選手が使用する剣の先端が高速で可動な被写体9を追跡する。
また、赤外線マーカ12は、その形状や大きさが特に制限されず、被写体9の先端部を一周するように環状に貼り付けてもよい。
なお、撮影部20の詳細は、例えば、特開2006−270798号公報に記載されているため、これ以上の説明を省略する。
また、赤外画像とは、被写体9を赤外線(例えば、0.7μm〜1mmの波長領域)で撮影した画像のことである。
図3を参照し、被写体追跡装置30の構成について説明する。
図3に示すように、被写体追跡装置30は、赤外画像追跡部(非可視画像追跡部)310と、追跡制御部320と、可視画像追跡部330と、学習部340と、出力部350とを備える。
学習部340は、赤外画像の赤外線マーカ12に対応した位置にある可視画像の被写体9の多次元画像特徴量をオンライン学習することで、被写体9の識別器を生成する。
なお、被写体追跡装置30の各手段は、その詳細を後述する。
図3,図4を参照し、被写体追跡装置30の動作について説明する。
図4に示すように、追跡制御部320は、初期化処理を行う。この初期化処理は、可視画像追跡部330が行う被写体9の検出処理を初期化すると共に、撮影部20から可視画像及び赤外画像を入力可能な初期状態に戻す処理である(ステップS1)。
被写体追跡装置30は、撮影部20から赤外画像を入力し、後述する赤外画像による被写体検出処理を行う(ステップS2)。
ここで、追跡制御部320は、赤外画像追跡部310から入力した被写体9の位置が赤外画像内での座標である場合には、赤外画像から被写体9を検出できたと判定する。
一方、追跡制御部320は、赤外画像追跡部310から入力した被写体9の位置が赤外画像内での座標でない場合、又は、ヌルの場合には、赤外画像から被写体9を検出できなかったと判定する。
被写体追跡装置30は、後述する可視画像によるオンライン学習処理を行う(ステップS5)。
追跡制御部320は、終了フラグの有無を判定する(ステップS7)。例えば、被写体追跡装置30のユーザがキーボードやマウス等の入力手段を操作することで、この終了フラグの有無を手動で設定できる。
終了フラグが有りの場合には(ステップS7でYes)、被写体追跡装置30は、処理を終了する。
ここで、追跡制御部320は、可視画像追跡部330から入力した被写体9の位置が可視画像内での座標である場合には、可視画像で被写体9を追跡できたと判定する。
一方、追跡制御部320は、可視画像追跡部330から入力した被写体9の位置が可視画像内での座標でない場合、又は、ヌルの場合には、可視画像で被写体9を追跡できなかったと判定する。
可視画像で追跡できた場合には(ステップS9でYes)、被写体追跡装置30は、ステップS6の処理を行う。
図3,図5〜図7を参照し、図4の赤外画像による被写体検出処理について説明する。
赤外画像は、図5に示すように、赤外線マーカ12の領域で反射光が強くなるので輝度が高くなる一方、赤外線マーカ12以外の領域では赤外線が散乱するので輝度が低くなる。従って、赤外画像では、この輝度差により赤外線マーカ12の領域と赤外線マーカ12以外の領域とを識別できる。なお、図5では、輝度が低くなる赤外線マーカ12以外の領域を破線で図示した。
なお、ラベリング処理とは、反射光を検出した各領域を一意に識別するラベル(例えば、1,2,…のような連番)を各領域に付加する処理のことである。
検出した領域数が1でない場合には(ステップS23でNo)、赤外画像追跡部310は、被写体9の位置を検出できなかった旨の通知(例えば、被写体9の位置がヌル)を追跡制御部320に出力し、処理を終了する(ステップS25)。
図3,図8〜図10を参照し、図4の可視画像によるオンライン学習処理について説明する。
図8に示すように、撮影部20は、可視画像を赤外画像と同一光軸及び同一画角で同時に撮影する。これにより、追跡制御部320は、赤外画像から得た被写体9の位置を可視画像に対応付けることができる。また、赤外画像を得るために赤外線を被写体9に照射しているが、撮影部20が備えるフィルタによって可視画像には影響を与えないようになっている。
図3,図11,図12を参照し、可視画像追跡部330が算出する多次元画像特徴量について詳細に説明する。
ここで、可視画像追跡部330は、被写体9の形状と色に注目し、色ヒストグラム及びLBPからなる多次元画像特徴量を算出する。
まず、色ヒストグラム生成部331は、図11(a)の可視画像から、赤色成分を抽出したR画像、緑色成分を抽出したG画像、及び、青色成分を抽出したB画像を生成する。そして、色ヒストグラム生成部331は、図11(b)〜(d)に示すように、R画像、G画像及びB画像において、それぞれの画素値の分布を表したヒストグラムを算出する。例えば、色ヒストグラム生成部331は、画素値が0〜255の範囲となる場合には、この範囲を4等分し、0〜63、64〜127、128〜191、192〜255のグループに分割する。そして、色ヒストグラム生成部331は、R画像、G画像及びB画像のそれぞれで、各グループに含まれる画素値の数を格納した配列を生成する。例えば、色ヒストグラム生成部331は、R画像について、0〜63のグループに対応したR[0]と、64〜127のグループに対応したR[1]と、128〜191のグループに対応したR[2]と、192〜255のグループに対応したR[3]とを格納した配列を生成する(G画像及びB画像も同様)。そして、色ヒストグラム生成部331は、R[0]〜R[3]、G[0]〜G[3]、B[0]〜B[3]を要素とする色ヒストグラムを生成する。
図12(a)に示すように、可視画像に含まれる3×3の画素領域を一例として考える。図12(a)の数値は、画素領域の各画素の画素値を表す。ここで、LBP算出部333は、中心画素の画素値‘6’を各周辺画素の画素値から減算した値を求め、図12(b)に示すように、その値が0以上なら‘1’、その値が負なら‘0’を割り当てる。ここで、LBP算出部333は、図12(c)に示すように、左上の周辺画素から時計回りで順番に2nの重みを予め設定しておき(n=0,…,7)、図12(b)の値と図12(c)の重みを乗じ、その総和をLBP特徴量として求める。例えば、図12の例であれば、LBP特徴量は、1+16+32+64+128=241となる。
参考文献:長谷川修,"Local Binary Patternとその周辺,"情処研報,Vol.2012-CG-149,no.3,pp.1-6,Dec,2012.
図3,図13〜図15を参照し、学習部340が行うオンライン学習について詳細に説明する。
本実施形態では、学習部340は、例えば確率的勾配降下法(SGD:Stochastic Gradient Descent)による線形SVM(Support Vector Machine)を用いて、オンライン学習する。
図3,図16を参照し、可視画像による追跡処理について説明する。
図16に示すように、追跡制御部320は、可視画像追跡部330が初期化済みであるか否かを判定する(ステップS80)。
参考文献:J. Shi and C. Tomasi,"Good features to track,"Proc.CVPR'94,pp.593-600,Seattle,United States,June,1994.DOI:10.1109/CVPR.1994.323794
参考文献:D.S.Bolme,J.R.Beveridge,B.A.Draper and Y.M.Lui,"Visual object tracking using adaptive correlation filters,"Proc.CVPR 2010,pp.2544-2550,San Francisco,United States,June,2010.DOI:10.1109/CVPR.2010.5539960
なお、コーナーの領域が被写体9を含まない場合には(ステップS84でNo)、可視画像追跡部330は、ステップS87の処理において、追跡結果として、追跡失敗(例えば、被写体9の位置がヌル)を出力する。
前記した実施形態では、非可視光として赤外線を利用することとして説明したが、本発明は、赤外線以外の不可視光を利用することもできる。
図18は、被写体追跡装置における可視画像による追跡処理の実験結果例である。x及びyの数値が画像中の被写体の位置を表す。図18(a)の可視画像中の点は、赤外画像による追跡処理結果を表す。図18(a)の可視画像をグレースケール化すると、図18(b)のようになる。また、図18(c)の赤外画像を2値化すると、図18(d)のようになる。図18の場合、被写体に貼り付けた赤外線マーカから十分な反射光を得られるため、赤外画像による追跡処理を行うことができた。
10 赤外線投光部
20 撮影部
30 被写体追跡装置
310 赤外画像追跡部(非可視画像追跡部)
320 追跡制御部
330 可視画像追跡部
331 色ヒストグラム生成部
333 LBP算出部
340 学習部
350 出力部
Claims (5)
- 可動域を有する被写体を可視光により撮影した可視画像と、前記可視画像と同一の光軸及び同一の画角で前記被写体を非可視光により撮影した非可視画像とを用いて、前記被写体を追跡する被写体追跡装置であって、
前記非可視画像を入力し、入力した前記非可視画像から、前記被写体に付した非可視光マーカを検出し、検出した前記非可視光マーカを前記被写体として追跡する非可視画像追跡部と、
前記非可視画像で前記被写体を追跡できたか否かを判定する追跡制御部と、
前記非可視画像で前記被写体を追跡できた場合、前記非可視画像の前記非可視光マーカに対応した位置にある前記可視画像の被写体の画像特徴量をオンライン学習することで、前記被写体の識別器を生成する学習部と、
前記非可視画像で前記被写体を追跡できなかった場合、前記識別器により前記可視画像から前記被写体を検出し、前記可視画像から検出した前記被写体を追跡する可視画像追跡部と、を備え、
前記追跡制御部は、前記非可視画像で前記被写体を追跡できた場合、前記非可視画像で追跡した前記被写体の位置を出力し、前記非可視画像で前記被写体を追跡できなかった場合、前記可視画像で追跡した前記被写体の位置を出力することを特徴とする被写体追跡装置。 - 前記学習部は、前記オンライン学習として、確率的勾配降下法による線形SVMを行うことを特徴とする請求項1に記載の被写体追跡装置。
- 前記可視画像追跡部は、前記非可視光マーカの位置を基準として所定サイズの正例画像領域を前記可視画像に設定し、前記正例画像領域と同一サイズで前記正例画像領域を含まない負例画像領域を前記可視画像に設定し、設定した前記正例画像領域及び前記負例画像領域の画像特徴量を算出し、
前記学習部は、算出した前記正例画像領域及び前記負例画像領域の画像特徴量を前記オンライン学習することを特徴とする請求項1又は請求項2に記載の被写体追跡装置。 - 前記可視画像追跡部は、前記正例画像領域及び前記負例画像領域の画像特徴量として、色ヒストグラム及びLBPからなる多次元画像特徴量を算出することを特徴とする請求項3に記載の被写体追跡装置。
- コンピュータを、請求項1から請求項4の何れか一項に記載の被写体追跡装置として機能させるための被写体追跡プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016095717A JP6647134B2 (ja) | 2016-05-12 | 2016-05-12 | 被写体追跡装置及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016095717A JP6647134B2 (ja) | 2016-05-12 | 2016-05-12 | 被写体追跡装置及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017204757A true JP2017204757A (ja) | 2017-11-16 |
JP6647134B2 JP6647134B2 (ja) | 2020-02-14 |
Family
ID=60322447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016095717A Expired - Fee Related JP6647134B2 (ja) | 2016-05-12 | 2016-05-12 | 被写体追跡装置及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6647134B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101892A (ja) * | 2017-12-06 | 2019-06-24 | 日本放送協会 | オブジェクト追跡装置及びそのプログラム |
CN115222776A (zh) * | 2022-09-19 | 2022-10-21 | 中国人民解放军国防科技大学 | 匹配辅助视觉目标跟踪方法、装置、电子设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024035568A1 (en) * | 2022-08-09 | 2024-02-15 | The Johns Hopkins University | Wide-angle monocular tracking using markers |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006050280A (ja) * | 2004-08-05 | 2006-02-16 | Sony Corp | 撮像装置及び撮像方法 |
JP2011044871A (ja) * | 2009-08-20 | 2011-03-03 | Sony Corp | シーンラベル生成装置、シーンラベル生成方法及びコンテンツ配信サーバ |
JP2013025398A (ja) * | 2011-07-15 | 2013-02-04 | Tokyo Institute Of Technology | 識別器生成装置、方法及びプログラム、並びにクラス認識器、方法及びプログラム |
JP2015099338A (ja) * | 2013-11-20 | 2015-05-28 | 株式会社ニコン | 撮像装置 |
-
2016
- 2016-05-12 JP JP2016095717A patent/JP6647134B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006050280A (ja) * | 2004-08-05 | 2006-02-16 | Sony Corp | 撮像装置及び撮像方法 |
JP2011044871A (ja) * | 2009-08-20 | 2011-03-03 | Sony Corp | シーンラベル生成装置、シーンラベル生成方法及びコンテンツ配信サーバ |
JP2013025398A (ja) * | 2011-07-15 | 2013-02-04 | Tokyo Institute Of Technology | 識別器生成装置、方法及びプログラム、並びにクラス認識器、方法及びプログラム |
JP2015099338A (ja) * | 2013-11-20 | 2015-05-28 | 株式会社ニコン | 撮像装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101892A (ja) * | 2017-12-06 | 2019-06-24 | 日本放送協会 | オブジェクト追跡装置及びそのプログラム |
CN115222776A (zh) * | 2022-09-19 | 2022-10-21 | 中国人民解放军国防科技大学 | 匹配辅助视觉目标跟踪方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6647134B2 (ja) | 2020-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6592000B2 (ja) | 目追跡でのグレアに対処すること | |
JP6032921B2 (ja) | 物体検出装置及びその方法、プログラム | |
JP2020107349A (ja) | 物体追跡システム、物体追跡方法、プログラム | |
JP6582604B2 (ja) | 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム | |
US10163027B2 (en) | Apparatus for and method of processing image based on object region | |
WO2014030378A1 (ja) | 画像処理装置、プログラム、画像処理方法及びコンピュータ読み取り媒体並びに画像処理システム | |
US9922245B2 (en) | Method and system for recognizing an object | |
US10325184B2 (en) | Depth-value classification using forests | |
JP2005521146A (ja) | さまざまな光線条件下におけるリアルタイムの目の検知および追跡 | |
JP5800175B2 (ja) | 画像処理装置、画像処理方法、プログラム、及び電子機器 | |
US20140204238A1 (en) | Feature extraction apparatus, feature extraction program, and image processing apparatus | |
US20160321825A1 (en) | Measuring apparatus, system, and program | |
US20170116736A1 (en) | Line of sight detection system and method | |
CN107025442A (zh) | 一种基于颜色和深度信息的多模态融合手势识别方法 | |
JP6647134B2 (ja) | 被写体追跡装置及びそのプログラム | |
JP2012164026A (ja) | 画像認識装置及び車両用表示装置 | |
JP4825473B2 (ja) | 顔向き判別装置 | |
US20140003728A1 (en) | Object determination device | |
US20170243061A1 (en) | Detection system and detection method | |
KR20120049605A (ko) | 동공 중심 검출 장치 및 방법 | |
JP2010237976A (ja) | 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム | |
JP2010002960A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR101617182B1 (ko) | 차량의 헤드라이트에 강인한 실시간 객체 영역 검출 방법 및 장치 | |
JP2007304732A (ja) | 画像検出方法および画像検出装置 | |
JP5172995B2 (ja) | 顔向き判別装置およびコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6647134 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |