CN106570885A - 基于亮度和纹理融合阈值的背景建模方法 - Google Patents
基于亮度和纹理融合阈值的背景建模方法 Download PDFInfo
- Publication number
- CN106570885A CN106570885A CN201610991994.7A CN201610991994A CN106570885A CN 106570885 A CN106570885 A CN 106570885A CN 201610991994 A CN201610991994 A CN 201610991994A CN 106570885 A CN106570885 A CN 106570885A
- Authority
- CN
- China
- Prior art keywords
- pixel
- threshold value
- brightness
- background
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于亮度和纹理融合阈值的背景建模方法。所述方法首先计算亮度和纹理的融合阈值;然后借助VIBE算法将一帧图像上所有像素点分成两类:前景像素和背景像素;接着对新图像帧中亮度有变化的像素点进行混合高斯建模;最后更新每个像素点对应的阈值。本发明融合纹理和色彩亮度来作为阈值,并结合混合高斯模型和VIBE算法这两个检测算法的优点,能够在存在多种外部扰动,如光照变化、摄像机轻微抖动、动态背景元素等情况下准确的提取背景,并能在一定程度上抑制阴影对真实运动目标的影响,增强了抗干扰能力,加快了图像帧处理速度,同时有效提高运动目标分割精度。
Description
技术领域
本方法属于视频分析领域,具体涉及基于亮度和纹理融合阈值的背景建模方法。
背景技术
随着科学技术的发展以及人们对安全防范意识的不断增强,具有智能分析功能的新一代视频监控系统,获得越来越多的关注,并已开始渗入到我们的日常生活当中。
运动目标的精确提取是智能视频监控系统重要的研究内容之一,也是当前运动视觉研究中尚未根本解决的难点问题。运动目标检测的目的是通过对监控视频图像序列的分析,确定监控场景中有无运动目标,进而把运动区域(也称前景区域)从检测图像中提取出来。对运动区域准确有效地分割是进行运动目标跟踪、分类和识别等后续处理的基本前提。目前研究比较成熟同时应用也比较广泛的运动目标检测方法是背景减除法。
背景减除法首先为背景图像建立背景模型,然后通过比较检测图像和背景模型的差异,来判断场景中是否存在运动目标。背景模型能否正确有效地反映实时背景,会直接影响运动目标检测的准确性。但在复杂的场景中,通常会存在各种外界因素的干扰(如光照变化、摄像机轻微抖动、动态的背景元素等等),这些都对设计一个理想的背景模型提出了挑战;此外,运动阴影和运动目标紧密相连,且在光照比较强的情况下,运动阴影和运动目标一样都与背景有明显差别,因此常常被作为运动目标的一部分被提取出来,严重影响了运动目标分割的精度。
发明内容
本发明的目的是针对现有技术的不足,提出了基于亮度和纹理融合阈值的背景建模方法。所述方法能有效提高运动目标分割精度,快速提取背景,同时抑制阴影对真实目标的影响。
为了解决上述技术问题,本发明采用的技术方案是:
基于亮度和纹理融合阈值的背景建模方法,所述方法针对视频中的图像序列,首先计算一帧图像中每个像素的亮度和纹理融合阈值;然后借助VIBE(Visual Backgroundextractor,视觉背景提取)算法将该帧图像上所有像素点分成两类,分别是前景像素和背景像素;接着对新图像帧中亮度信息有变化的像素点进行混合高斯建模;最后更新每个像素点对应的阈值;具体包括以下步骤:
步骤1:采集一帧图像中的所用像素点,并获取图像数据和纹理数据;
步骤2:根据步骤1中获得的图像数据以及纹理数据,利用ViBe算法对背景模型的初始状态进行赋值,计算亮度和纹理的融合阈值;
步骤3:将当前像素点的像素值与步骤2中获得的融合阈值相比较,如果像素值大于融合阈值,则该像素点为背景点;否则转步骤6;
步骤4:用步骤3检测出的新背景点更新VIBE背景模型;
步骤5:对新图像帧中亮度信息有变化的像素点进行混合高斯建模;
步骤6:更新每个像素点对应的阈值T和计算更新率R。
所述步骤2包括以下步骤:
步骤201:随机选择当前像素点的一个邻域像素;
步骤202:根据以下公式计算亮度和纹理的融合阈值dist:
dist=alpha*(norm/N)+beta*dis;
其中,j∈{1,2,3},表示RGB三个通道的标号;randIndex为步骤201中随机选择的邻域像素的标号;sobel_xj[randIndex]和sobel_yj[randIndex]分别表示第j个通道样本集中随机选择的第randIndex个样本的水平和竖直的sobel梯度;sobel_xj表示沿水平方向的sobel梯度和sobel_yj表示沿垂直方向的sobel梯度;lumij[randIndex]表示第j个通道样本集中随机选择的第randIndex个样本的亮度;alpha和beta为纹理和亮度的融合系数,alpha取值为7,beta取值为1;N为前一帧中统计需要更新的像素点对应的norm之和。
有益效果:本发明公开了基于亮度和纹理融合阈值的背景建模方法。所述方法首先计算亮度和纹理的融合阈值;然后借助VIBE算法将一帧图像上所有像素点分成两类:前景像素和背景像素;接着对新图像帧中亮度有变化的像素点进行混合高斯建模;最后更新每个像素点对应的阈值。本发明融合纹理和色彩亮度来作为阈值,并结合混合高斯模型和VIBE算法这两个检测算法的优点,能够在存在多种外部扰动,如光照变化、摄像机轻微抖动、动态背景元素等情况下准确的提取背景,并能在一定程度上抑制阴影对真实运动目标的影响,增强了抗干扰能力,加快了图像帧处理速度,同时有效提高运动目标分割精度。
附图说明
图1是本发明提供的方法的流程图。
具体实施方式
下面结合附图,对本发明进行详细说明。
本发明提供基于亮度和纹理融合阈值的背景建模方法,包括以下步骤:
步骤1:采集一帧图像中的所有像素点,并获取图像数据和纹理数据。
步骤2:根据步骤1中获得的图像数据以及纹理数据,利用VIBE算法对背景模型的初始状态进行赋值,计算亮度和纹理的融合阈值。具体包括以下步骤:
步骤201:随机选择当前像素点的一个邻域像素点,即M0(x)={v0(y|y∈NG(x))},其中t=0代表初始时刻,v0表示y点处的像素值,y是随机选择的当前像素点的一个邻域像素,NG(x)为邻域点集合,M0(x)的含义是当前像素点的模型相关信息,其中包含亮度数据和纹理数据。初始化需要两种数据,第一个是图像数据即为亮度数据,对三通道的GMM模型的亮度的数据样本集进行初始化,图像数据就是图像中RGB三通道的数据,通道的GMM模型的亮度样本集获取是通过对邻域点的亮度进行随机采样N次获得;第二个是纹理数据,对三通道的GMM模型的纹理样本集进行初始化,通过对邻域的纹理进行N次随机采样获取。纹理数据采用三通道的x方向sobel和y方向的sobel数据,共6组sobel纹理特征,通过计算sobel梯度来得到,用来表述当前点像素和邻域像素变化的相位和幅度。
步骤202:计算亮度和纹理的融合阈值;
亮度数据和纹理数据的融合在判断背景是否需要更新时,即判断当前像素点是否是前景点时,需要一个阈值来进行判断,这个阈值就是通过对亮度和纹理计算得到的,其方法如下:
dist=alpha*(norm/N)+beta*dis;
其中,j∈{1,2,3},表示RGB三个通道的标号;randIndex为步骤201中随机选择的邻域像素的标号。sobel_xj[randIndex]和sobel_yj[randIndex]分别表示第j个通道样本集中随机选择的第randIndex个样本的水平和竖直的sobel梯度;lumij[randIndex]表示第j个通道样本集中随机选择的第randIndex个样本的亮度;alpha和beta为纹理和亮度的融合系数,一般alpha为7,beta为1;N为前一帧中统计需要更新的像素点对应的norm之和,dist即为融合阈值。
步骤3:将当前像素点的像素值与步骤2中获得的融合阈值相比较,如果像素值大于融合阈值,则该像素点为背景点;否则转步骤6。
步骤4:用步骤3检测出的新背景点对VIBE背景模型进行更新。随机选择步骤2中获得的样本集中需要被替换的样本,随机选择像素邻域的样本集合更新,ViBe的更新率是自适应的,并且更新邻域样本集合是用邻域的新像素值进行更新,在更新时需要同步更新对应的纹理信息。
步骤5:对新图像帧中亮度信息有变化的像素点进行混合高斯建模;
GMM背景模型初始化,为图像中的每个像素点构建K个高斯分布,一般K选择3-5,而后用这K个分布的加权和来描述图像。将图像序列中的任意一点像素(x,y)的灰度看作独立的统计过程,假设其服从高斯分布,记为N(u,σ)。图像序列(I1,I2,…,It,IN)在t时刻(t∈{1,2,…,N})的图像It的概率密度函数p(Xt)表示为:
其中wi,t是t时刻第i个高斯分布的权值,且η(Xt,ui,tσi,t)表示t时刻第i个高斯分布的概率密度函数,以此对t时刻红外图像It的每个像素点建立GMM;ui,t和σi,t分别表示t时刻第i个高斯分布的均值和标准差。
当读取新图像帧的像素值之后,将当前像素xt与K个高斯分布进行匹配,匹配判据是:
|xt-ui,t-1|<2.5σi,t-1(i=1,…,K,t=1,…,N)。
如果像素xt与某个高斯分布的均值ui,t-1满足上式,则认为像素xt与该分布匹配,否则不匹配。对于匹配的分布,按公式wi,t=(1-α)wi,t-1+αMi,t进行参数更新,其中α是更新速率,α取值为0.005;权值按照公式进行更新;其中对于匹配的分布Mi,t=1,而不匹配的分布Mi,t=0,重新初始化。判断像素点的模型数目是不是超过5,超过5就把分布概率最小的去掉,小于5直接把初始化的模型放进模型集合。
当新的一帧图像来到时,根据背景更新公式利用新图像的像素对模型参数进行更新,把像素点的K个高斯分布按照权值由大到小排列,将优先级高的b个分布权值求和,即最大的b个分布权值求和,其中b优选为5,当其值大于阈值T时,这里T为0.9,由这b个分布构成背景模型,也即:
通过上述混合高斯建模法获得背景图像,然后利用背景减除法提取出运动前景区域Dt:
Dt(x,y)=It(x,y)-BGt(x,y)
步骤6:更新每个像素点对应的阈值T和计算更新率R。每个像素都对应一个阈值T和R,当前像素判断结束,都要对这两个值进行更新,以便下一帧图像使用。阈值T越大更新速度越快。
Claims (2)
1.基于亮度和纹理融合阈值的背景建模方法,其特征在于:所述方法针对视频中的图像序列,首先计算一帧图像中每个像素的亮度和纹理融合阈值;然后使用VIBE算法将该帧图像上所有像素点分成两类,分别是前景像素和背景像素;接着对新图像帧中亮度信息有变化的像素点进行混合高斯建模;最后更新每个像素点对应的阈值;具体包括以下步骤:
步骤1:采集一帧图像中的所用像素点,并获取图像数据和纹理数据;
步骤2:根据步骤1中获得的图像数据以及纹理数据,利用VIBE算法对背景模型的初始状态进行赋值,计算亮度和纹理的融合阈值;
步骤3:将当前像素点的像素值与步骤2中获得的融合阈值相比较,如果像素值大于融合阈值,则该像素点为背景点;否则转步骤6;
步骤4:用步骤3检测出的新背景点更新ViBe背景模型;
步骤5:对新图像帧中亮度信息有变化的像素点进行混合高斯建模;
步骤6:更新每个像素点对应的阈值T和计算更新率R。
2.根据权利要求1所述的基于亮度和纹理融合阈值的背景建模方法,其特征在于,所述步骤2包括以下步骤:
步骤201:随机选择当前像素点的一个邻域像素;
步骤202:根据以下公式计算亮度和纹理的融合阈值dist:
dist=alpha*(norm/N)+beta*dis;
其中,j∈{1,2,3},表示RGB三个通道的标号;randIndex为步骤201中随机选择的邻域像素的标号;sobel_xj[randIndex]和sobel_yj[randIndex]分别表示第j个通道样本集中随机选择的第randIndex个样本的水平和竖直的sobel梯度;sobel_xj表示沿水平方向的sobel梯度和sobel_yj表示沿垂直方向的sobel梯度;lumij[randIndex]表示第j个通道样本集中随机选择的第randIndex个样本的亮度;alpha和beta为纹理和亮度的融合系数,alpha取值为7,beta取值为1;
N为前一帧中统计需要更新的像素点对应的norm之和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610991994.7A CN106570885A (zh) | 2016-11-10 | 2016-11-10 | 基于亮度和纹理融合阈值的背景建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610991994.7A CN106570885A (zh) | 2016-11-10 | 2016-11-10 | 基于亮度和纹理融合阈值的背景建模方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106570885A true CN106570885A (zh) | 2017-04-19 |
Family
ID=58541130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610991994.7A Pending CN106570885A (zh) | 2016-11-10 | 2016-11-10 | 基于亮度和纹理融合阈值的背景建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106570885A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301655A (zh) * | 2017-06-16 | 2017-10-27 | 上海远洲核信软件科技股份有限公司 | 一种基于背景建模的视频移动目标侦测方法 |
CN110580429A (zh) * | 2018-06-11 | 2019-12-17 | 北京中科晶上超媒体信息技术有限公司 | 一种视频背景库的管理方法、装置及其应用 |
CN110765979A (zh) * | 2019-11-05 | 2020-02-07 | 中国计量大学 | 一种基于背景建模与光控的智能led庭院灯 |
CN111784723A (zh) * | 2020-02-24 | 2020-10-16 | 成科扬 | 一种基于置信度加权融合和视觉注意的前景提取算法 |
CN112235476A (zh) * | 2020-09-15 | 2021-01-15 | 南京航空航天大学 | 一种基于融合变异的测试数据生成方法 |
CN113222873A (zh) * | 2021-06-01 | 2021-08-06 | 平安科技(深圳)有限公司 | 基于二维高斯分布的图像数据增强方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513053A (zh) * | 2015-11-26 | 2016-04-20 | 河海大学 | 一种用于视频分析中背景建模方法 |
US20160180195A1 (en) * | 2013-09-06 | 2016-06-23 | Toyota Jidosha Kabushiki Kaisha | Augmenting Layer-Based Object Detection With Deep Convolutional Neural Networks |
CN105741277A (zh) * | 2016-01-26 | 2016-07-06 | 大连理工大学 | 基于ViBe算法与SLIC超像素的背景差分法 |
-
2016
- 2016-11-10 CN CN201610991994.7A patent/CN106570885A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160180195A1 (en) * | 2013-09-06 | 2016-06-23 | Toyota Jidosha Kabushiki Kaisha | Augmenting Layer-Based Object Detection With Deep Convolutional Neural Networks |
CN105513053A (zh) * | 2015-11-26 | 2016-04-20 | 河海大学 | 一种用于视频分析中背景建模方法 |
CN105741277A (zh) * | 2016-01-26 | 2016-07-06 | 大连理工大学 | 基于ViBe算法与SLIC超像素的背景差分法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301655A (zh) * | 2017-06-16 | 2017-10-27 | 上海远洲核信软件科技股份有限公司 | 一种基于背景建模的视频移动目标侦测方法 |
CN110580429A (zh) * | 2018-06-11 | 2019-12-17 | 北京中科晶上超媒体信息技术有限公司 | 一种视频背景库的管理方法、装置及其应用 |
CN110580429B (zh) * | 2018-06-11 | 2023-06-06 | 北京中科晶上超媒体信息技术有限公司 | 一种视频背景库的管理方法、装置及其应用 |
CN110765979A (zh) * | 2019-11-05 | 2020-02-07 | 中国计量大学 | 一种基于背景建模与光控的智能led庭院灯 |
CN111784723A (zh) * | 2020-02-24 | 2020-10-16 | 成科扬 | 一种基于置信度加权融合和视觉注意的前景提取算法 |
CN112235476A (zh) * | 2020-09-15 | 2021-01-15 | 南京航空航天大学 | 一种基于融合变异的测试数据生成方法 |
CN113222873A (zh) * | 2021-06-01 | 2021-08-06 | 平安科技(深圳)有限公司 | 基于二维高斯分布的图像数据增强方法、装置及存储介质 |
CN113222873B (zh) * | 2021-06-01 | 2023-06-16 | 平安科技(深圳)有限公司 | 基于二维高斯分布的图像数据增强方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jia et al. | Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot | |
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
CN109961049B (zh) | 一种复杂场景下香烟品牌识别方法 | |
CN105513053B (zh) | 一种用于视频分析中背景建模方法 | |
WO2021208275A1 (zh) | 一种交通视频背景建模方法及系统 | |
CN106570885A (zh) | 基于亮度和纹理融合阈值的背景建模方法 | |
CN107564022B (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
CN108288033B (zh) | 一种基于随机蕨融合多特征的安全帽检测方法 | |
CN105740945B (zh) | 一种基于视频分析的人群计数方法 | |
CN110717896A (zh) | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 | |
CN106934386B (zh) | 一种基于自启发式策略的自然场景文字检测方法及系统 | |
CN103258332B (zh) | 一种抗光照变化的运动目标的检测方法 | |
CN109934224B (zh) | 基于马尔科夫随机场和视觉对比机制的小目标检测方法 | |
CN107169985A (zh) | 一种基于对称帧间差分和背景更新的运动目标检测方法 | |
CN105046206B (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN112686928B (zh) | 一种基于多源信息融合的运动目标视觉跟踪方法 | |
CN102136059A (zh) | 一种基于视频分析的烟雾检测方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN107895379A (zh) | 一种视频监控中前景提取的改进算法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN109359549A (zh) | 一种基于混合高斯和hog_lbp的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170419 |