[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110781846B - 一种融合视觉广度特点的视觉注意计算方法 - Google Patents

一种融合视觉广度特点的视觉注意计算方法 Download PDF

Info

Publication number
CN110781846B
CN110781846B CN201911043889.0A CN201911043889A CN110781846B CN 110781846 B CN110781846 B CN 110781846B CN 201911043889 A CN201911043889 A CN 201911043889A CN 110781846 B CN110781846 B CN 110781846B
Authority
CN
China
Prior art keywords
point
fixation
edge
class
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911043889.0A
Other languages
English (en)
Other versions
CN110781846A (zh
Inventor
胡文婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Open University of Jiangsu City Vocational College
Original Assignee
Jiangsu Open University of Jiangsu City Vocational College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Open University of Jiangsu City Vocational College filed Critical Jiangsu Open University of Jiangsu City Vocational College
Priority to CN201911043889.0A priority Critical patent/CN110781846B/zh
Publication of CN110781846A publication Critical patent/CN110781846A/zh
Application granted granted Critical
Publication of CN110781846B publication Critical patent/CN110781846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种融合视觉广度特点的视觉注意计算方法,将人类视觉系统视网膜成像机制作为视觉具有注意广度特点的基础,利用眼动仪采集用户浏览界面的眼动信息,将界面上每一个类注视点分别采用核心注视点集和边缘注视点集来表示,进而建立边缘注视点的隶属度表达式,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。最后根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,构建个体对界面对象的视觉注意计算表达式。本发明用于描述用户对界面对象的感兴趣程度,旨在提高预测用户兴趣意图的准确性。

Description

一种融合视觉广度特点的视觉注意计算方法
技术领域
本发明属于人机交互技术领域,具体涉及一种融合视觉广度特点的视觉注意计算方法。
背景技术
注意是心理活动或意识在某一时刻所处的状态,表现为对一定对象的指向与集中。然而,当前对于注意的研究面临不少困难和挑战,主要因为注意难以被人察觉,也很难找到合适的方法进行度量。实际上,人类在同一时间接收到的刺激是海量的,但是人类对于信息加工和处理在很大程度上却依赖于视觉。
视觉注意是利用视觉信息进行注意选择的心理现象,眼睛能够在复杂的视觉场景中忽视其他不太重要的场景信息,迅速地找到感兴趣的区域或对象。因此,采用计算机模拟人类视觉的视觉注意机制具有重要意义,这种视觉注意计算模型应用越来越广泛,涉及网页测试、广告评估、人机交互研究、产品可用性评估等多个领域。然而,与传统的视觉注意计算模型相比,眼动信息更能真实地反映个体视觉系统整合了哪些信息,准确地体现个体如何分配视觉注意,用于计算个体对界面场景中对象的感兴趣程度。
视网膜成像的空间不均匀性是人类视觉系统感知外界的重要特性之一。视网膜的中央凹区域的视觉敏感度最高,随着偏离中央凹角度越大,敏感度呈现指数下降形式。
本专利将人类视觉系统视网膜成像机制作为视觉具有注意广度特点的基础,利用眼动仪采集用户浏览界面的眼动信息,将界面上每一个类注视点分别采用核心注视点集和边缘注视点集来表示,用于建立一种边缘注视点的隶属度表达式,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。最后,根据每个边缘注视点的隶属度值,结合每个界面上眼动信息(注视点坐标和注视时间),构建个体对界面对象的视觉注意计算表达式。该方法用于描述用户对界面对象的感兴趣程度,旨在提高预测用户兴趣意图的准确性。
发明内容
本发明所要解决的技术问题是针对上述现有技术的不足,提供一种融合视觉广度特点的视觉注意计算方法。
为实现上述技术目的,本发明采取的技术方案为:
一种融合视觉广度特点的视觉注意计算方法,包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息;
步骤3:聚类界面上的注视点,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Cj表示第j个聚类集合;
步骤4:将每一个类注视点集划分为核心注视点集和边缘注视点集;
步骤5:计算边缘注视点的隶属度;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意。
为优化上述技术方案,采取的具体措施还包括:
上述的步骤1中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息。
上述的步骤2中,筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
上述的步骤3中,采用K-means聚类方法对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类中。
上述的步骤4中,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集。
上述的步骤5中,每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。
上述的步骤3所述聚类界面上的注视点,包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
Figure GDA0002853446190000021
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Cj表示为某j个聚类集合;否则,回到步骤302。
上述的步骤4所述将每一个类注视点集划分为核心注视点集和边缘注视点集,包括以下步骤:
步骤401:输入聚类结果集CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类Cj中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集
Figure GDA0002853446190000031
反之,该注视点xi划分到该类Cj的边缘注视点集
Figure GDA0002853446190000032
步骤403:输出聚类结果集
Figure GDA0002853446190000033
并满足以下性质:1)
Figure GDA0002853446190000034
不能为空集,2)保证所有注视点坐标集U中每个注视点至少被划分到一个类中,U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
上述的步骤5所述计算边缘注视点的隶属度,包括以下步骤:
步骤501:输入聚类结果集
Figure GDA0002853446190000035
及界面上所有边缘注视点集
Figure GDA0002853446190000036
l表示为界面上边缘注视点的个数;
步骤502:计算每个类中边缘注视点集
Figure GDA0002853446190000037
的注视点到其他类中边缘注视点集的注视点的距离,如果某个类
Figure GDA0002853446190000038
中边缘注视点集的注视点
Figure GDA0002853446190000039
到其他类
Figure GDA00028534461900000310
中边缘注视点集的任意注视点的距离小于2r,则表明注视点
Figure GDA00028534461900000311
与其他类
Figure GDA00028534461900000312
有一定的隶属关系;反之,该注视点
Figure GDA00028534461900000313
只属于该类
Figure GDA00028534461900000314
中边缘注视点集,与其他类没有任何隶属关系;
步骤503:构建隶属度关系的判断矩阵
Figure GDA00028534461900000315
如果某个类
Figure GDA00028534461900000316
中边缘注视点集的注视点
Figure GDA00028534461900000317
到其他类
Figure GDA00028534461900000318
中边缘注视点集的任意注视点的距离小于2r,则标记
Figure GDA00028534461900000319
数值为1;反之,标记
Figure GDA00028534461900000320
数值为0;
步骤504:根据隶属度关系的判断矩阵
Figure GDA00028534461900000321
构建距离矩阵
Figure GDA00028534461900000322
Figure GDA0002853446190000041
时,计算注视点
Figure GDA0002853446190000042
到其他类
Figure GDA0002853446190000043
聚类中心
Figure GDA0002853446190000044
的距离,计算公式为:
Figure GDA0002853446190000045
Figure GDA0002853446190000046
时,
Figure GDA0002853446190000047
步骤505:计算各个类中注视点
Figure GDA0002853446190000048
与其他类
Figure GDA0002853446190000049
的隶属度值:
Figure GDA00028534461900000410
上述的步骤6所述根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意,包括以下步骤:
步骤601:输入隶属度
Figure GDA00028534461900000411
及界面上所有注视点时间集
Figure GDA00028534461900000412
且1≤j≤k,其中tj表示为第j个注视点所对应的注视时间,
Figure GDA00028534461900000413
表示为类Cj的核心点注视时间集,
Figure GDA00028534461900000414
表示为类Cj的边缘注视点的注视时间集;
步骤602:分别计算每个界面对象核心注视点的注视时间;
步骤603:分别计算每个界面对象边缘注视点的注视时间
Figure GDA00028534461900000415
计算公式为:
Figure GDA00028534461900000416
步骤604:计算用户对界面对象的视觉注意,计算公式为:
Figure GDA00028534461900000417
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
本发明具有以下有益效果:
1、采用眼动仪捕捉个体的眼动信息,能够真实刻画用户对界面感兴趣的位置和程度,突破传统使用计算机算法模拟人类视觉注意方法;
2、根据人类视觉系统的感知特点,即根据人类视线一次感知具有广度的特点,将界面上每一个类注视点采用两个集合(核心注视点集和边缘注视点集)来表示;
3、构建一种隶属度函数,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度;
4、构建个体对界面对象的视觉注意计算表达式,用于描述用户对界面对象的感兴趣程度,识别用户在线浏览的兴趣意图。
附图说明
图1是本发明的流程图。
图2是本发明实施例的注视点聚类示意图。
图3是本发明实施例的视线—界面的映射关系图。
图4是本发明实施例的注视点的视网膜成像图。
图5是本发明实施例的核心和边缘注视点聚类示意图。
具体实施方式
以下结合附图对本发明的实施例作进一步详细描述。
如图1所示,本发明的一种融合视觉广度特点的视觉注意计算方法,包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
实施例中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息,剔除无效或有误的眼动信息。眼动信息包含了一系列空间和时间维度的眼动指标,如注视时间、眼跳、瞳孔大小和眨眼等,本发明选取眼动指标中的注视点坐标、注视时间用于衡量个体对界面对象感兴趣程度;
具体筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
步骤3:聚类界面上的注视点,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Cj表示第j个聚类集合;
实施例中,根据注视点坐标这一眼动指标,采用K-means聚类方法(硬聚类)对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类(界面对象)中;
包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
Figure GDA0002853446190000061
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Cj表示为某j个聚类集合;否则,回到步骤302。
如图2所示,注视点明确地划分到两个类中,其中实心圆形属于一个类,五角星是该类的聚类中心;实心正方形属于另一个类,七角星是该类的聚类中心。
步骤4:根据人类视线一次感知具有广度的特点,将每一个类注视点集划分为核心注视点集和边缘注视点集,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集;
如图3所示,人类视线一次感知具有广度的特点,视线就像聚光灯一样,在光线聚焦的地方清晰可见,而在其它没有聚焦的地方相对比较模糊。如图4所示,当注视点落在红色十字处的眼睛视网膜成像图时,离注视点越近的区域成像越清楚,离注视点越远的区域成像越模糊。如图5所示,注视点划分到两个类中,每一类包含核心注视点和边缘注视点,其中实心圆形属于一个类的核心注视点,空心圆圈属于该类的边缘注视点,五角星是该类的聚类中心;实心正方形属于另一个类的核心注视点,空心方块属于该类的边缘注视点,七角星是该类的聚类中心。
具体包括以下步骤:
步骤401:输入聚类结果集CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类Cj中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集
Figure GDA0002853446190000062
反之,该注视点xi划分到该类Cj的边缘注视点集
Figure GDA0002853446190000063
步骤403:输出聚类结果集
Figure GDA0002853446190000064
并满足以下性质:1)
Figure GDA0002853446190000065
不能为空集,2)保证所有注视点坐标集U中每个注视点至少被划分到一个类中,U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤5:由于类中的边缘注视点对其他类(界面对象)也有所感知,需计算边缘注视点的隶属度,使每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度;
包括以下步骤:
步骤501:输入聚类结果集
Figure GDA0002853446190000071
及界面上所有边缘注视点集
Figure GDA0002853446190000072
l表示为界面上边缘注视点的个数;
步骤502:计算每个类中边缘注视点集
Figure GDA0002853446190000073
的注视点到其他类中边缘注视点集的注视点的距离,如果某个类
Figure GDA0002853446190000074
中边缘注视点集的注视点
Figure GDA0002853446190000075
到其他类
Figure GDA0002853446190000076
中边缘注视点集的任意注视点的距离小于2r,则表明注视点
Figure GDA0002853446190000077
与其他类
Figure GDA0002853446190000078
有一定的隶属关系;反之,该注视点
Figure GDA0002853446190000079
只属于该类
Figure GDA00028534461900000710
中边缘注视点集,与其他类没有任何隶属关系;
步骤503:为了判断每个类中边缘注视点与其他类之间是否存在隶属度关系,构建隶属度关系的判断矩阵
Figure GDA00028534461900000711
如果某个类
Figure GDA00028534461900000712
中边缘注视点集的注视点
Figure GDA00028534461900000713
到其他类
Figure GDA00028534461900000714
中边缘注视点集的任意注视点的距离小于2r,则标记
Figure GDA00028534461900000715
数值为1;反之,标记
Figure GDA00028534461900000716
数值为0;
步骤504:根据隶属度关系的判断矩阵
Figure GDA00028534461900000717
构建距离矩阵
Figure GDA00028534461900000718
Figure GDA00028534461900000719
时,计算注视点
Figure GDA00028534461900000720
到其他类
Figure GDA00028534461900000721
聚类中心
Figure GDA00028534461900000722
的距离,计算公式为:
Figure GDA00028534461900000723
Figure GDA00028534461900000724
时,
Figure GDA00028534461900000725
步骤505:计算各个类中注视点
Figure GDA00028534461900000726
与其他类
Figure GDA00028534461900000727
的隶属度值:
Figure GDA0002853446190000081
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息(注视点坐标和注视时间),计算用户对界面对象的视觉注意,包括以下步骤:
步骤601:输入隶属度
Figure GDA0002853446190000082
及界面上所有注视点时间集
Figure GDA0002853446190000083
且1≤j≤k,其中tj表示为第j个注视点所对应的注视时间,
Figure GDA0002853446190000084
表示为类Cj的核心点注视时间集,
Figure GDA0002853446190000085
表示为类Cj的边缘注视点的注视时间集;
步骤602:分别计算每个界面对象核心注视点的注视时间
Figure GDA0002853446190000086
即对每个界面对象中所有核心点注视时间求和;
步骤603:分别计算每个界面对象边缘注视点的注视时间
Figure GDA0002853446190000087
即对每个界面对象中所有边缘点注视时间加权求和,计算公式为:
Figure GDA0002853446190000088
步骤604:计算用户对界面对象的视觉注意,计算公式为:
Figure GDA0002853446190000089
Figure GDA00028534461900000810
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (8)

1.一种融合视觉广度特点的视觉注意计算方法,其特征在于:包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息;
步骤3:聚类界面上的注视点,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Cj表示第j个聚类集合;
步骤4:将每一个类注视点集划分为核心注视点集和边缘注视点集;
步骤5:计算边缘注视点的隶属度;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意;
步骤4所述将每一个类注视点集划分为核心注视点集和边缘注视点集,包括以下步骤:
步骤401:输入聚类结果集CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类Cj中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集
Figure FDA0002853446180000011
反之,该注视点xi划分到该类Cj的边缘注视点集
Figure FDA0002853446180000012
步骤403:输出聚类结果集
Figure FDA0002853446180000013
并满足以下性质:1)
Figure FDA0002853446180000014
不能为空集,2)保证所有注视点坐标集U中每个注视点至少被划分到一个类中,U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤5所述计算边缘注视点的隶属度,包括以下步骤:
步骤501:输入聚类结果集
Figure FDA0002853446180000015
及界面上所有边缘注视点集
Figure FDA0002853446180000016
l表示为界面上边缘注视点的个数;
步骤502:计算每个类中边缘注视点集
Figure FDA0002853446180000017
的注视点到其他类中边缘注视点集的注视点的距离,如果某个类
Figure FDA0002853446180000018
中边缘注视点集的注视点
Figure FDA0002853446180000019
到其他类
Figure FDA00028534461800000110
中边缘注视点集的任意注视点的距离小于2r,则表明注视点
Figure FDA00028534461800000111
与其他类
Figure FDA00028534461800000112
有一定的隶属关系;反之,该注视点
Figure FDA00028534461800000113
只属于该类
Figure FDA00028534461800000114
中边缘注视点集,与其他类没有任何隶属关系;
步骤503:构建隶属度关系的判断矩阵
Figure FDA0002853446180000021
如果某个类
Figure FDA0002853446180000022
中边缘注视点集的注视点
Figure FDA0002853446180000023
到其他类
Figure FDA0002853446180000024
中边缘注视点集的任意注视点的距离小于2r,则标记
Figure FDA0002853446180000025
数值为1;反之,标记
Figure FDA0002853446180000026
数值为0;
步骤504:根据隶属度关系的判断矩阵
Figure FDA0002853446180000027
构建距离矩阵
Figure FDA0002853446180000028
Figure FDA0002853446180000029
时,计算注视点
Figure FDA00028534461800000210
到其他类
Figure FDA00028534461800000211
聚类中心
Figure FDA00028534461800000212
的距离,计算公式为:
Figure FDA00028534461800000213
Figure FDA00028534461800000214
时,
Figure FDA00028534461800000215
步骤505:计算各个类中注视点
Figure FDA00028534461800000216
与其他类
Figure FDA00028534461800000217
的隶属度值:
Figure FDA00028534461800000218
2.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤1中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息。
3.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤2中,筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
4.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤3中,采用K-means聚类方法对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类中。
5.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤4中,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集。
6.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤5中,每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。
7.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤3所述聚类界面上的注视点,包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
Figure FDA0002853446180000031
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Cj表示为某j个聚类集合;否则,回到步骤302。
8.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤6所述根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意,包括以下步骤:
步骤601:输入隶属度
Figure FDA0002853446180000032
及界面上所有注视点时间集
Figure FDA0002853446180000033
且1≤j≤k,其中tj表示为第j个注视点所对应的注视时间,
Figure FDA0002853446180000034
表示为类Cj的核心点注视时间集,
Figure FDA0002853446180000035
表示为类Cj的边缘注视点的注视时间集;
步骤602:分别计算每个界面对象核心注视点的注视时间
Figure FDA0002853446180000036
步骤603:分别计算每个界面对象边缘注视点的注视时间
Figure FDA0002853446180000037
计算公式为:
Figure FDA0002853446180000038
步骤604:计算用户对界面对象的视觉注意,计算公式为:
Figure FDA0002853446180000041
Figure FDA0002853446180000042
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
CN201911043889.0A 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法 Active CN110781846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911043889.0A CN110781846B (zh) 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911043889.0A CN110781846B (zh) 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法

Publications (2)

Publication Number Publication Date
CN110781846A CN110781846A (zh) 2020-02-11
CN110781846B true CN110781846B (zh) 2021-02-09

Family

ID=69387690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911043889.0A Active CN110781846B (zh) 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法

Country Status (1)

Country Link
CN (1) CN110781846B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法
CN104700090A (zh) * 2015-03-25 2015-06-10 武汉大学 基于密度的眼动注视点测定方法及系统
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN109726713A (zh) * 2018-12-03 2019-05-07 东南大学 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007125115A1 (en) * 2006-04-28 2007-11-08 Thomson Licensing Salience estimation for object-based visual attention model
JP6495254B2 (ja) * 2013-06-12 2019-04-03 スリーエム イノベイティブ プロパティズ カンパニー 視覚的注意モデリングの結果の提示
CN108338798B (zh) * 2017-01-25 2020-11-06 北京数字新思科技有限公司 一种注意力测量方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法
CN104700090A (zh) * 2015-03-25 2015-06-10 武汉大学 基于密度的眼动注视点测定方法及系统
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN109726713A (zh) * 2018-12-03 2019-05-07 东南大学 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种基于模糊核聚类的视觉注意分配度量方法;胡文婷 等;《统计与信息论坛》;20150228;第30卷(第2期);第9-14页 *
基于人眼视觉注意和图像聚类分析的ROI提取方法;陈居现 等;《光学技术》;20150930;第41卷(第5期);第400–404页 *
基于视线跟踪的智能界面实现机制研究;胡文婷 等;《计算机应用与软件》;20160131;第33卷(第1期);第134-137页 *

Also Published As

Publication number Publication date
CN110781846A (zh) 2020-02-11

Similar Documents

Publication Publication Date Title
Kar et al. A review and analysis of eye-gaze estimation systems, algorithms and performance evaluation methods in consumer platforms
Kosch et al. Your eyes tell: Leveraging smooth pursuit for assessing cognitive workload
CN104504390B (zh) 一种基于眼动数据的网上用户状态识别方法和装置
Venugopal et al. Developing an application using eye tracker
Edughele et al. Eye-tracking assistive technologies for individuals with amyotrophic lateral sclerosis
Sharma et al. Eye gaze techniques for human computer interaction: A research survey
Kasprowski et al. Guidelines for the eye tracker calibration using points of regard
Akshay et al. Machine learning algorithm to identify eye movement metrics using raw eye tracking data
CN106326880A (zh) 瞳孔中心点定位方法
Madison et al. The role of crowding in parallel search: Peripheral pooling is not responsible for logarithmic efficiency in parallel search
Singh et al. Use of information modelling techniques to understand research trends in eye gaze estimation methods: An automated review
Till et al. Embodied effects of conceptual knowledge continuously perturb the hand in flight
Huang et al. Real‐Time Precise Human‐Computer Interaction System Based on Gaze Estimation and Tracking
US9867565B2 (en) Sideline test to detect concussions that affect visual, proprioceptive, or vestibular brain functions
Ge et al. Improving intention detection in single-trial classification through fusion of EEG and eye-tracker data
CN109726713A (zh) 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法
Chan et al. Visual lobe shape and search performance for targets of different difficulty
CN110781846B (zh) 一种融合视觉广度特点的视觉注意计算方法
Lee et al. Eye-wearable head-mounted tracking and gaze estimation interactive machine system for human–machine interface
Chen et al. Attention estimation system via smart glasses
Hwang et al. Probing of human implicit intent based on eye movement and pupillary analysis for augmented cognition
Madhusanka et al. Concentrated gaze base interaction for decision making using human-machine interface
Asghari et al. Eye tracking auto-correction using domain information
Olthuis et al. Touchscreen pointing and swiping: the effect of background cues and target visibility
Martín et al. Design and development of a low-cost mask-type eye tracker to collect quality fixation measurements in the sport domain

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant