JP5235770B2 - 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 - Google Patents
顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP5235770B2 JP5235770B2 JP2009108474A JP2009108474A JP5235770B2 JP 5235770 B2 JP5235770 B2 JP 5235770B2 JP 2009108474 A JP2009108474 A JP 2009108474A JP 2009108474 A JP2009108474 A JP 2009108474A JP 5235770 B2 JP5235770 B2 JP 5235770B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- saliency area
- feature amount
- saliency
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
以下、本発明の第1の実施形態に係る顕著領域映像生成装置1000について図面を参照して説明する。なお、本実施形態(後述する第2の実施形態も同様)においては、領域分割を映像顕著性に基づいて実現するため、以下、「顕著領域抽出」と「領域分割」とを同義で用いる。同様に、「顕著領域」と「物体領域」とを同義で用い、「非顕著領域」と「背景領域」とを同義で用いる。また、以下の説明において、式中の文字上部に ̄が付いた文字は、文中において文字の前に ̄を記載して示す。例えば、式中の文字(下記式1)は文中において ̄xと記載して示す。
また、確率的基礎注目度画像抽出部12によって抽出される確率的基礎注目度画像S(t)は、各位置yにおける確率的基礎注目度s(t,y)の期待値である下記式(6)(以下、「期待値^s(t,y|t)」と表す)及び標準偏差σs(t,y|t)を保持する画像である。
なお、確率的基礎注目度画像抽出部12には、確率的基礎注目度母数逐次推定部13によって更新された確率的基礎注目度母数Θs(t+1)が入力される。
このことによって、上述の確率的基礎注目度画像抽出部12における期待値^s(t,y|t)及び標準偏差σs(t,y|t)の更新は、上述したカルマンフィルタを用いた推定方法と同様に、画像中の各位置で独立して実行することができ、これらの更新処理を容易に並列化できる。
また、確率的基礎注目度母数逐次推定部13は、更新した確率的基礎注目度母数Θs(t+1)を確率的基礎注目度画像抽出部12に出力する。
視線位置確率密度画像抽出部14は、視線位置確率密度映像を構成するフレームである視線位置確率密度画像X(t)を抽出する。なお、視線位置確率密度画像抽出部14による視線位置確率密度画像X(t)の抽出は、確率的基礎注目度画像抽出部12から入力された確率的基礎注目度画像S(t)、該視線位置確率密度画像抽出部14が抽出したこれまでの視線位置確率密度画像X(t)、及び事前に与えられた母数である視線位置確率密度母数Θx(t)に基づいて行われる。
また、視線位置確率密度画像抽出部14は、視線位置確率密度画像X(t)を視線位置確率密度映像出力部5に出力する。
また、視線移動状態変数更新部141は、更新した視線移動状態変数u(t)の集合である視線移動状態変数集合U(t)を代表視線位置更新部142及び代表視線位置集合再構成部145に出力する。
なお、現在の視線移動状態変数集合U(t)に含まれる視線移動状態変数のサンプルun(t)の経験確率分布が、視線移動状態変数の生起確率の近似となっている。
また、代表視線位置更新部142は、更新した代表視線位置集合V(t)を代表視線位置重み係数算出部143、視線位置確率密度画像出力部144、及び代表視線位置集合再構成部145に出力する。
また、代表視線位置重み係数算出部143は、算出した代表視線位置重み係数の集合である代表視線位置重み係数集合である下記式(90)を視線位置確率密度画像出力部144及び代表視線位置集合再構成部145に出力する。
このことから、サンプリングを用いずに代表視線位置重み係数集合W(t)を抽出する方法では、代表視線位置集合V(t)の要素数Nxは、予め与えられるものではなく、入力画像によって異なることがわかる。
また、視線位置確率密度画像出力部144は、抽出した代表視線位置確率密度画像H(t)を代表視線位置集合再構成部145に出力する。
また、代表視線位置集合再構成部145は、代表視線位置重み係数集合W(t)を再構成する。
また、代表視線位置集合再構成部145は、再構成された代表視線位置集合V*(t)、視線移動状態変数集合U*(t)、及び代表視線位置重み係数集合W*(t)に基づいた、視線位置確率密度画像X(t)を視線位置確率密度映像出力部5に出力する。
また、代表視線位置集合再構成部145は、視線位置確率密度画像X(t)を視線移動状態変数更新部141及び代表視線位置更新部142に出力する。
また、例えば、下記式(121)に示す代表視線位置重み係数の偏りに関する条件を満たさないときのみ実施することもできる。
(非特許文献4)Akisato Kimura,Derek Pang,Tatsuto Takeuchi, Junji Yamato and Kunio Kashino,”Dynamic Markov random fields for stochastic modeling of visual attention,”Proc.International Conference on Pattern Recognition (ICPR2008), Mo.BT8.35,Tampa, Florida,USA,December 2008.
EMアルゴリズムを用いて導出する。このとき、EMアルゴリズムに与える各サンプルは注目度画像(b)のある特定の位置xに対応し、位置xにおける画素値と等しい値の重みを持つことに注意する。EMアルゴリズムによるガウス混合分布パラメータの推定は、下記式(126)〜下記式(129)をk=1,2,・・・で繰り返すことによって行われ、各パラメータが収束した時点で手順を打ち切り、パラメータを固定する。
注目度画像の画素値の極大値をMs個検出し、極大値となる位置を中心位置〜xj(t)(j=1,2,・・・,Ms)として定め、その位置の注目度画像の画素値を混合比〜ηs,j(t)とする。共分散行列〜Σs,j(t)については、第1の推定方法と同様にして求めるか、予め定めておいた値を利用する。
2種類の顕著領域特徴量尤度を混合することによって更新する。具体的には、求めるべき現時点(時刻t)の顕著領域特徴量尤度ψ1(c,t)を、顕著領域特徴量尤度生成部311から出力された更新前の顕著領域特徴量尤度ψ1(c,t)、および、1時点前(時刻t−1)の顕著領域特徴量尤度 ̄ψ1(c,t−1)を、あらかじめ定められた混合比λcにて混合する下記式(144)によって計算する。
1時点前(時刻t−1)の顕著領域画像A(t−1)に基づいて、1時点前の顕著領域特徴量尤度ψ1(c,t−1)を更新した上で第1の実施形態と同様の方法を実施する。具体的には、1時点前の顕著領域画像A(t−1)において顕著領域であるとされた領域(下記式(145)によって示される顕著領域Aobj(t))を取り出し、顕著領域Aobj(t)にある入力画像中の画素値から、顕著領域特徴量尤度生成部311に示した方法と同様の方法で顕著領域特徴量尤度ψ1(c,t−1)を再学習する。但し、本実施形態では、重みとして、顕著領域事前確率画像に代えて顕著領域画像を用いるものとする。1時点前の顕著領域特徴量尤度ψ1(c,t−1)を再学習した後、第1の実施形態と同様の方法により、現在の顕著領域特徴量尤度ψ1(c,t)を生成する。
非顕著領域事前確率画像(f)の位置xにおける画素値ξ2(x,t)を、1−ξ1(x,t)に変換する。
(方法2)
ξ1(x,t)=0である位置xのみ、その位置の非顕著領域事前確率画像(f)の画素値を1とする。それ以外の位置は、画素値を0とする。
(非特許文献6)A.V.Goldberg,R.E.Tarjan:“A new approach to the maximum-flow problem,”Journal of the ACM,Vol.35,pp.921-940,1988.
以下、本発明の第2の実施形態に係る顕著領域映像生成装置1100について図面を参照して説明する。顕著領域映像生成装置1100は、外部から入力映像を取得し、当該入力映像を構成する各入力フレーム(各入力画像)からそれぞれの顕著領域を抽出した各顕著領域フレーム(各顕著領域画像)から構成される顕著領域映像を生成し、外部に出力する。
(1)第1の実施形態に記載の更新式のパラメータの一つであるσ1、および、1時点前(時刻t−1)顕著領域事前確率の分散(下記式(154))を強制的に0に置き換える。
(3)顕著領域事前確率の分散(下記式(155))を更新せずに、平均ξ1(x,t)のみを第1の実施形態と同様の方法で更新する。
1.入力画像に代えて平滑化画像Hk(t)(k=ng−1,ng−2,・・・,0) のうち1つを用いてもよい。このとき、時刻tにおいて本処理をj(j=1,2,・・・,ng)回目に実行するときには、平滑化係数k=ng−jの平滑化画像(下記式156)が用いられる。このことは、平滑化係数が大きい平滑化画像から順に用いられることを意味する。
3.ある時刻tにおいて本処理を再度実行する際、即ち、平滑化係数k(k=ng−2,ng−1,・・・,0)の平滑化画像Hk(t)が入力として用いられる場合には、以下を用いる。
(1)1時点前(時刻t−1)の顕著領域画像A(t−1)に代えて、現時点(時刻t)で平滑化係数が1つ大きい平滑化画像Hk+1(t)を用いて生成された顕著領域画像A(t;k+1)を用いる。
(2)1時点前の顕著領域特徴量尤度ψ1(c,t−1)に代えて、現時点で平滑化係数が1つ大きい平滑化画像Hk+1(t)を用いて生成された顕著領域特徴量尤度ψ1(c,t;k+1)を用いる。
(3)1時点前の非顕著領域特徴量尤度ψ2(c,t−1)に代えて、現時点で平滑化係数が1つ大きい平滑化画像Hk+1(t)を用いて生成された非顕著領域特徴量尤度ψ2(c,t;k+1)を用いる。
4.入力として平滑化係数kの平滑化画像Hk(t)を用いたことを明確にするため、出力である顕著領域特徴量尤度をψ1(t;k)、非顕著領域特徴量尤度をψ2(t;k)と表記する。
(2)顕著領域事前確率画像更新部22および非顕著領域特徴量尤度算出部32による、顕著領域、非顕著領域に関する事前情報の逐次更新
物体領域・背景領域に関する事前情報が全く与えられない場合においても領域分割が可能になる。従って、物体領域、背景領域に関する事前知識がない場合でも、精度良く物体領域と背景領域を分割して、注目している領域(物体領域)を抽出することができるようになる。
Claims (14)
- 入力映像から、人間が注意を向けやすい度合いである注目度を示す注目度映像を抽出する注目度映像抽出過程と、
入力映像を構成する各フレームである入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を抽出する顕著領域事前確率画像抽出過程と、
前記入力画像の顕著領域および顕著領域外の領域にそれぞれ含まれる画像特徴量の尤度を示す特徴量尤度を算出する特徴量尤度算出過程と、
前記入力画像、前記顕著領域事前確率画像および前記特徴量尤度から、前記入力画像の顕著領域を示す顕著領域画像を抽出する顕著領域画像抽出過程と、
前記各入力画像に対し、前記注目度映像抽出過程、前記顕著領域事前確率画像抽出過程、前記特徴量尤度算出過程および前記顕著領域画像抽出過程を実行して得られる前記各顕著領域画像から前記顕著領域映像を生成する顕著領域映像生成過程と
を有し、
前記顕著領域事前確率画像抽出過程は、
一の前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を、前記注目度映像抽出過程によって抽出された前記注目度映像内の前記入力画像に対応する画像である注目度画像および前記顕著領域画像に基づいて抽出し、
前記特徴量尤度算出過程は、
前記特徴量尤度を、前記入力画像、前記注目度画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記特徴量尤度の少なくとも1つに基づいて算出する
ことを特徴とする顕著領域映像生成方法。 - 前記注目度映像抽出過程は、
前記入力画像に基づいて、該入力画像の中で顕著な特性を持つ空間領域を表示した画像である基礎注目度画像を算出する基礎注目度画像抽出過程と、
現在の前記入力画像の各位置における顕著性を確率的な表現を用いて表示した画像である確率的基礎注目度画像を、前記基礎注目度画像抽出過程によって算出された基礎注目度画像と、前回の前記入力画像から該確率的基礎注目度画像抽出過程によって算出された前記確率的基礎注目度画像と、逐次更新され、視線位置推定に用いる第1の母数である確率的基礎注目度母数とに基づいて算出する確率的基礎注目度画像抽出過程と、
現在の前記入力画像における前記視線位置確率密度映像のフレームである視線位置確率密度画像を、前記確率的基礎注目度画像抽出過程によって算出された確率的基礎注目度画像と、前回の前記入力画像から該視線位置確率密度画像抽出過程によって算出された前記視線位置確率密度画像と、逐次更新され、視線位置推定に用いる第2の母数である視線位置確率密度母数とに基づいて算出する視線位置確率密度画像抽出過程と、
前記基礎注目度画像抽出過程と、前記確率的基礎注目度画像抽出過程と、前記視線位置確率密度画像抽出過程とを、それぞれの前記入力画像に対して順に繰り返し行うことにより算出される時系列の前記視線位置確率密度画像を前記視線位置確率密度映像として出力する視線位置確率密度映像出力過程と
を有し、
前記視線位置確率密度画像抽出過程は、
視線移動の大きさを制御する確率変数である視線移動状態変数を、前回の前記入力画像から該視線位置確率密度画像抽出過程によって算出された前記視線位置確率密度画像と、前回の前記入力画像から該視線移動状態変数更新過程によって算出された視線移動状態変数と、前記視線位置確率密度母数とに基づいて更新し、該視線移動状態変数の集合である視線移動状態変数集合を出力する視線移動状態変数更新過程と、
視線移動を考慮した代表的な視線位置を示す代表視線位置の集合である代表視線位置集合を、前記確率的基礎注目度画像抽出過程によって算出された確率的基礎注目度画像と、前回の前記入力画像から該代表視線位置更新過程によって更新された代表視線位置集合と、前記視線移動状態変数集合と、前記視線位置確率密度母数とに基づいて更新する代表視線位置更新過程と、
それぞれの前記代表視線位置に関連付けられた重みからなる代表視線位置重み係数の集合である代表視線位置重み係数集合を、前記確率的基礎注目度画像抽出過程によって算出された確率的基礎注目度画像と、前記代表視線位置更新過程によって更新された代表視線位置集合と、前記視線移動状態変数更新過程から出力された視線移動状態変数集合と、前記視線位置確率密度母数とに基づいて算出する代表視線位置重み係数算出過程と、
前記代表視線位置更新過程によって更新された代表視線位置集合と、代表視線位置重み係数算出過程によって算出された代表視線位置重み係数集合とに基づいて、前記視線位置確率密度画像を算出する視線位置確率密度画像出力過程と
を有し、前記代表視線位置集合と、前記代表視線位置重み係数集合とを含む前記視線位置確率密度画像を算出する
ことを特徴とする請求項1に記載の顕著領域映像生成方法。 - 前記顕著領域事前確率画像抽出過程は、
前記注目度画像のみを用いて前記顕著領域事前確率画像を生成する顕著領域事前確率画像生成過程と、
前記顕著領域画像を用いて前記顕著領域事前確率画像生成過程によって生成された前記顕著領域事前確率画像を更新する顕著領域事前確率画像更新過程と
から構成されることを特徴とする請求項1または請求項2の何れか1項に記載の顕著領域映像生成方法。 - 前記特徴量尤度算出過程は、
顕著領域に含まれる画像特徴量の尤度を示す顕著領域特徴量尤度を、前記入力画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記顕著領域特徴量尤度のうち少なくとも1つに基づいて算出する顕著領域特徴量尤度算出過程と、
顕著領域外の領域に含まれる画像特徴量の尤度を示す非顕著領域特徴量尤度を、前記入力画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記非顕著領域特徴量尤度のうち少なくとも1つに基づいて算出する非顕著領域特徴量尤度算出過程と、
前記顕著領域特徴量尤度および前記非顕著領域特徴量尤度を加算して特徴量尤度として出力する特徴量尤度出力過程と
から構成されることを特徴とする請求項1から請求項3の何れか1項に記載の顕著領域映像生成方法。 - 前記顕著領域特徴量尤度算出過程は、
前記入力画像、前記顕著領域事前確率画像および前記顕著領域画像に基づいて、前記顕著領域特徴量尤度を生成する顕著領域特徴量尤度生成過程と、
前記顕著領域特徴量尤度生成過程によって生成された前記顕著領域特徴量尤度を更新する顕著領域特徴量尤度更新過程と
から構成され、
前記非顕著領域特徴量尤度算出過程は、
前記入力画像、前記顕著領域事前確率画像および前記顕著領域画像に基づいて、前記非顕著領域特徴量尤度を生成する非顕著領域特徴量尤度生成過程と、
前記非顕著領域特徴量尤度生成過程によって生成された前記非顕著領域特徴量尤度を更新する非顕著領域特徴量尤度更新過程と
から構成され、
前記顕著領域特徴量尤度更新過程は、
前記入力画像、前記顕著領域画像および前回迄に更新した更新後の前記顕著領域特徴量尤度のうち少なくとも1つに基づいて前記顕著領域特徴量尤度を更新し、
前記非顕著領域特徴量尤度更新過程は、
前記入力画像、非顕著領域画像および前回迄に更新した更新後の前記非顕著領域特徴量尤度のうち少なくとも1つに基づいて前記非顕著領域特徴量尤度を更新する
ことを特徴とする請求項4に記載の顕著領域映像生成方法。 - 前記入力画像を異なる解像度によってそれぞれ平滑化した複数の平滑化画像からなる平滑化画像群を生成する平滑化画像群生成過程と、
前記平準化画像群に対し、前記顕著領域事前確率画像抽出過程、前記特徴量尤度算出過程、前記顕著領域画像抽出過程を実行し、前記入力画像の前記顕著領域画像を確定する顕著領域画像確定過程と
を更に有し、
前記特徴量尤度算出過程および顕著領域画像抽出過程は、
前記入力画像に代えて前記平滑化画像を用い、
前記顕著領域映像生成過程は、
前記各入力画像に対し、前記注目度映像抽出過程、前記顕著領域事前確率画像抽出過程、前記特徴量尤度算出過程、前記顕著領域画像抽出過程、前記平滑化画像群生成過程および前記顕著領域画像確定過程を実行して得られる前記顕著領域画像から前記顕著領域映像を生成する
ことを特徴とする請求項1から請求項5の何れか1項に記載の顕著領域映像生成方法。 - 入力映像から、人間が注意を向けやすい度合いである注目度を示す注目度映像を抽出する注目度映像抽出部と、
入力映像を構成する各フレームである前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を抽出する顕著領域事前確率画像抽出部と、
前記入力画像の顕著領域および顕著領域外の領域にそれぞれ含まれる画像特徴量の尤度を示す特徴量尤度を算出する特徴量尤度算出部と、
前記入力画像、前記顕著領域事前確率画像および前記特徴量尤度から、前記入力画像の顕著領域を示す顕著領域画像を抽出する顕著領域画像抽出部と、
前記各入力画像に対し、前記注目度映像抽出部、前記顕著領域事前確率画像抽出部、前記特徴量尤度算出部および前記顕著領域画像抽出部を実行して得られる前記各顕著領域画像から前記顕著領域映像を生成する顕著領域映像生成部と
を備え、
前記顕著領域事前確率画像抽出部は、
一の前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を、前記注目度映像抽出部によって抽出された前記注目度映像内の前記入力画像に対応する画像である注目度画像および前記顕著領域画像に基づいて抽出し、
前記特徴量尤度算出部は、
前記特徴量尤度を、前記入力画像、前記注目度画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記特徴量尤度の少なくとも1つに基づいて算出する
ことを特徴とする顕著領域映像生成装置。 - 前記注目度映像抽出部は、
前記入力画像に基づいて、該入力画像の中で顕著な特性を持つ空間領域を表示した画像である基礎注目度画像を算出する基礎注目度画像抽出部と、
現在の前記入力画像の各位置における顕著性を確率的な表現を用いて表示した画像である確率的基礎注目度画像を、前記基礎注目度画像抽出部によって算出された基礎注目度画像と、前回の前記入力画像から該確率的基礎注目度画像抽出部によって算出された前記確率的基礎注目度画像と、逐次更新され、視線位置推定に用いる第1の母数である確率的基礎注目度母数とに基づいて算出する確率的基礎注目度画像抽出部と、
現在の前記入力画像における前記視線位置確率密度映像のフレームである視線位置確率密度画像を、前記確率的基礎注目度画像抽出部によって算出された確率的基礎注目度画像と、前回の前記入力画像から該視線位置確率密度画像抽出部によって算出された前記視線位置確率密度画像と、逐次更新され、視線位置推定に用いる第2の母数である視線位置確率密度母数とに基づいて算出する視線位置確率密度画像抽出部と、
前記基礎注目度画像抽出部と、前記確率的基礎注目度画像抽出部と、前記視線位置確率密度画像抽出部とを、それぞれの前記入力画像に対して順に繰り返し行うことにより算出される時系列の前記視線位置確率密度画像を前記視線位置確率密度映像として出力する視線位置確率密度映像出力部と
を備え、
前記視線位置確率密度画像抽出部は、
視線移動の大きさを制御する確率変数である視線移動状態変数を、前回の前記入力画像から該視線位置確率密度画像抽出部によって算出された前記視線位置確率密度画像と、前回の前記入力画像から該視線移動状態変数更新部によって算出された視線移動状態変数と、前記視線位置確率密度母数とに基づいて更新し、該視線移動状態変数の集合である視線移動状態変数集合を出力する視線移動状態変数更新部と、
視線移動を考慮した代表的な視線位置を示す代表視線位置の集合である代表視線位置集合を、前記確率的基礎注目度画像抽出部によって算出された確率的基礎注目度画像と、前回の前記入力画像から該代表視線位置更新部によって更新された代表視線位置集合と、前記視線移動状態変数集合と、前記視線位置確率密度母数とに基づいて更新する代表視線位置更新部と、
それぞれの前記代表視線位置に関連付けられた重みからなる代表視線位置重み係数の集合である代表視線位置重み係数集合を、前記確率的基礎注目度画像抽出部によって算出された確率的基礎注目度画像と、前記代表視線位置更新部によって更新された代表視線位置集合と、前記視線移動状態変数更新部から出力された視線移動状態変数集合と、前記視線位置確率密度母数とに基づいて算出する代表視線位置重み係数算出部と、
前記代表視線位置更新部によって更新された代表視線位置集合と、代表視線位置重み係数算出部によって算出された代表視線位置重み係数集合とに基づいて、前記視線位置確率密度画像を算出する視線位置確率密度画像出力部と
を有し、前記代表視線位置集合と、前記代表視線位置重み係数集合とを含む前記視線位置確率密度画像を算出する
ことを特徴とする請求項7に記載の顕著領域映像生成装置。 - 前記顕著領域事前確率画像抽出部は、
前記注目度画像のみを用いて前記顕著領域事前確率画像を生成する顕著領域事前確率画像生成部と、
前記顕著領域画像を用いて前記顕著領域事前確率画像生成部によって生成された前記顕著領域事前確率画像を更新する顕著領域事前確率画像更新部と
から構成されることを特徴とする請求項7または請求項8の何れか1項に記載の顕著領域映像生成装置。 - 前記特徴量尤度算出部は、
顕著領域に含まれる画像特徴量の尤度を示す顕著領域特徴量尤度を、前記入力画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記顕著領域特徴量尤度のうち少なくとも1つに基づいて算出する顕著領域特徴量尤度算出部と、
顕著領域外の領域に含まれる画像特徴量の尤度を示す非顕著領域特徴量尤度を、前記入力画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記非顕著領域特徴量尤度のうち少なくとも1つに基づいて算出する非顕著領域特徴量尤度算出部と、
前記顕著領域特徴量尤度および前記非顕著領域特徴量尤度を加算して特徴量尤度として出力する特徴量尤度出力部と
から構成されることを特徴とする請求項7から請求項9の何れか1項に記載の顕著領域映像生成装置。 - 前記顕著領域特徴量尤度算出部は、
前記入力画像、前記顕著領域事前確率画像および前記顕著領域画像に基づいて、前記顕著領域特徴量尤度を生成する顕著領域特徴量尤度生成部と、
前記顕著領域特徴量尤度生成部によって生成された前記顕著領域特徴量尤度を更新する顕著領域特徴量尤度更新部と
から構成され、
前記非顕著領域特徴量尤度算出部は、
前記入力画像、前記顕著領域事前確率画像および前記顕著領域画像に基づいて、前記非顕著領域特徴量尤度を生成する非顕著領域特徴量尤度生成部と、
前記非顕著領域特徴量尤度生成部によって生成された前記非顕著領域特徴量尤度を更新する非顕著領域特徴量尤度更新部と
から構成され、
前記顕著領域特徴量尤度更新部は、
前記入力画像、前記顕著領域画像および前回迄に更新した更新後の前記顕著領域特徴量尤度のうち少なくとも1つに基づいて前記顕著領域特徴量尤度を更新し、
前記非顕著領域特徴量尤度更新部は、
前記入力画像、非顕著領域画像および前回迄に更新した更新後の前記非顕著領域特徴量尤度のうち少なくとも1つに基づいて前記非顕著領域特徴量尤度を更新する
ことを特徴とする請求項10に記載の顕著領域映像生成装置。 - 前記入力画像を異なる解像度によってそれぞれ平滑化した複数の平滑化画像からなる平滑化画像群を生成する平滑化画像群生成部と、
前記平準化画像群に対し、前記顕著領域事前確率画像抽出部、前記特徴量尤度算出部、前記顕著領域画像抽出部の処理を実行し、前記入力画像の前記顕著領域画像を確定する顕著領域画像確定部と
を更に備え、
前記特徴量尤度算出部および顕著領域画像抽出部は、
前記入力画像に代えて前記平滑化画像を用い、
前記顕著領域映像生成部は、
前記各入力画像に対し、前記注目度映像抽出部、前記顕著領域事前確率画像抽出部、前記特徴量尤度算出部、前記顕著領域画像抽出部、前記平滑化画像群生成部および前記顕著領域画像確定部の各処理を実行して得られる前記顕著領域画像から前記顕著領域映像を生成する
ことを特徴とする請求項7から請求項11の何れか1項に記載の顕著領域映像生成装置。 - 入力映像から、人間が注意を向けやすい度合いである注目度を示す注目度映像を抽出する注目度映像抽出ステップと、
入力映像を構成する各フレームである前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を抽出する顕著領域事前確率画像抽出ステップと、
前記入力画像の顕著領域および顕著領域外の領域にそれぞれ含まれる画像特徴量の尤度を示す特徴量尤度を算出する特徴量尤度算出ステップと、
前記入力画像、前記顕著領域事前確率画像および前記特徴量尤度から、前記入力画像の顕著領域を示す顕著領域画像を抽出する顕著領域画像抽出ステップと、
前記各入力画像に対し、前記注目度映像抽出ステップ、前記顕著領域事前確率画像抽出ステップ、前記特徴量尤度算出ステップおよび前記顕著領域画像抽出ステップを実行して得られる前記各顕著領域画像から前記顕著領域映像を生成する顕著領域映像生成ステップと
をコンピュータに実行させるプログラムであって、
前記顕著領域事前確率画像抽出ステップは、
一の前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を、前記注目度映像抽出ステップによって抽出された前記注目度映像内の前記入力画像に対応する画像である注目度画像および前記顕著領域画像に基づいて抽出し、
前記特徴量尤度算出ステップは、
前記特徴量尤度を、前記入力画像、前記注目度画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記特徴量尤度の少なくとも1つに基づいて算出する
ことを特徴とするプログラム。 - 入力映像から、人間が注意を向けやすい度合いである注目度を示す注目度映像を抽出する注目度映像抽出ステップと、
入力映像を構成する各フレームである前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を抽出する顕著領域事前確率画像抽出ステップと、
前記入力画像の顕著領域および顕著領域外の領域にそれぞれ含まれる画像特徴量の尤度を示す特徴量尤度を算出する特徴量尤度算出ステップと、
前記入力画像、前記顕著領域事前確率画像および前記特徴量尤度から、前記入力画像の顕著領域を示す顕著領域画像を抽出する顕著領域画像抽出ステップと、
前記各入力画像に対し、前記注目度映像抽出ステップ、前記顕著領域事前確率画像抽出ステップ、前記特徴量尤度算出ステップおよび前記顕著領域画像抽出ステップを実行して得られる前記各顕著領域画像から前記顕著領域映像を生成する顕著領域映像生成ステップと
をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録憶媒体であって、
前記顕著領域事前確率画像抽出ステップは、
一の前記入力画像の各位置が顕著領域である確率を示す顕著領域事前確率画像を、前記注目度映像抽出ステップによって抽出された前記注目度映像内の前記入力画像に対応する画像である注目度画像および前記顕著領域画像に基づいて抽出し、
前記特徴量尤度算出ステップは、
前記特徴量尤度を、前記入力画像、前記注目度画像、前記顕著領域事前確率画像、前記顕著領域画像および前回迄に算出した前記特徴量尤度の少なくとも1つに基づいて算出する
ことを特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009108474A JP5235770B2 (ja) | 2009-04-27 | 2009-04-27 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009108474A JP5235770B2 (ja) | 2009-04-27 | 2009-04-27 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010258914A JP2010258914A (ja) | 2010-11-11 |
JP5235770B2 true JP5235770B2 (ja) | 2013-07-10 |
Family
ID=43319300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009108474A Active JP5235770B2 (ja) | 2009-04-27 | 2009-04-27 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5235770B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011061905A1 (ja) * | 2009-11-20 | 2011-05-26 | 日本電気株式会社 | 物体領域抽出装置、物体領域抽出方法、及びコンピュータ可読媒体 |
US8943426B2 (en) * | 2011-11-03 | 2015-01-27 | Htc Corporation | Method for displaying background wallpaper and one or more user interface elements on display unit of electrical apparatus at the same time, computer program product for the method and electrical apparatus implementing the method |
JP5766620B2 (ja) * | 2012-01-10 | 2015-08-19 | 日本電信電話株式会社 | 物体領域検出装置、方法、及びプログラム |
JP6135283B2 (ja) | 2013-04-26 | 2017-05-31 | オムロン株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
JP6136537B2 (ja) | 2013-04-26 | 2017-05-31 | オムロン株式会社 | 画像処理装置、画像処理方法、画像処理制御プログラム、および記録媒体 |
JP6103765B2 (ja) * | 2013-06-28 | 2017-03-29 | Kddi株式会社 | 行動認識装置、方法及びプログラム並びに認識器構築装置 |
JP6232982B2 (ja) | 2013-12-02 | 2017-11-22 | オムロン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6330385B2 (ja) | 2014-03-13 | 2018-05-30 | オムロン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN103996189B (zh) * | 2014-05-05 | 2017-10-03 | 小米科技有限责任公司 | 图像分割方法及装置 |
US9633444B2 (en) | 2014-05-05 | 2017-04-25 | Xiaomi Inc. | Method and device for image segmentation |
CN106557765A (zh) | 2015-09-29 | 2017-04-05 | 欧姆龙株式会社 | 注意检测装置以及注意检测方法 |
CN109934825B (zh) * | 2019-03-01 | 2023-02-28 | 辽宁工程技术大学 | 一种结合层次化高斯混合模型和m-h的遥感影像分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4750758B2 (ja) * | 2007-06-20 | 2011-08-17 | 日本電信電話株式会社 | 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体 |
-
2009
- 2009-04-27 JP JP2009108474A patent/JP5235770B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010258914A (ja) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5235770B2 (ja) | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 | |
US10600185B2 (en) | Automatic liver segmentation using adversarial image-to-image network | |
Svensén et al. | Robust Bayesian mixture modelling | |
US20200401916A1 (en) | Systems and methods for training generative machine learning models | |
JP5766620B2 (ja) | 物体領域検出装置、方法、及びプログラム | |
Li et al. | Exploring compositional high order pattern potentials for structured output learning | |
JPWO2006132194A1 (ja) | 情報処理装置及び情報処理方法、画像処理装置及び画像処理方法、並びにコンピュータ・プログラム | |
Papastamoulis | Handling the label switching problem in latent class models via the ECR algorithm | |
Yu et al. | Modeling spatial extremes via ensemble-of-trees of pairwise copulas | |
Wenzel | Generative adversarial networks and other generative models | |
CN115526223A (zh) | 潜在空间中的基于得分的生成建模 | |
CN113284151A (zh) | 一种基于深度卷积神经网络的胰腺分割方法及系统 | |
JP6623184B2 (ja) | 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム | |
Adams et al. | Dynamic trees for image modelling | |
CN116563524B (zh) | 一种基于多视觉记忆单元的扫视路径预测方法 | |
JP2010257344A (ja) | 視線位置推定方法、視線位置推定装置、プログラム、及び記録媒体 | |
US20190156182A1 (en) | Data inference apparatus, data inference method and non-transitory computer readable medium | |
Nguyen | Gaussian mixture model based spatial information concept for image segmentation | |
Lu et al. | Generalized competitive learning of Gaussian mixture models | |
Chin et al. | Efficient data augmentation for multivariate probit models with panel data: an application to general practitioner decision making about contraceptives | |
JP2018195200A (ja) | 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム | |
Allassonnière et al. | Map estimation of statistical deformable templates via nonlinear mixed effects models: Deterministic and stochastic approaches | |
CN111475668A (zh) | 针对复杂关系描述的图片视觉推理方法、设备及存储介质 | |
Xin | GENERATIVE IMAGE-TO-IMAGE REGRESSION BASED ON SCORE MATCHING MODELS | |
Xiong et al. | A unified Bayesian mixture model framework via spatial information for grayscale image segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130326 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5235770 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |