CN115171658A - 训练方法、训练装置、训练设备及存储介质 - Google Patents
训练方法、训练装置、训练设备及存储介质 Download PDFInfo
- Publication number
- CN115171658A CN115171658A CN202210661128.7A CN202210661128A CN115171658A CN 115171658 A CN115171658 A CN 115171658A CN 202210661128 A CN202210661128 A CN 202210661128A CN 115171658 A CN115171658 A CN 115171658A
- Authority
- CN
- China
- Prior art keywords
- task
- decision
- training
- picture
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 176
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000000638 stimulation Effects 0.000 claims abstract description 137
- 230000008447 perception Effects 0.000 claims abstract description 86
- 230000000007 visual effect Effects 0.000 claims abstract description 59
- 230000004044 response Effects 0.000 claims abstract description 24
- 230000006399 behavior Effects 0.000 claims description 36
- 238000004590 computer program Methods 0.000 claims description 19
- 230000035484 reaction time Effects 0.000 claims description 18
- 238000009792 diffusion process Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 9
- 230000036541 health Effects 0.000 claims description 8
- 230000001747 exhibiting effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 29
- 208000024827 Alzheimer disease Diseases 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 11
- 241001465754 Metazoa Species 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000019771 cognition Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000036632 reaction speed Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 208000006888 Agnosia Diseases 0.000 description 2
- 241001047040 Agnosia Species 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 2
- 201000007201 aphasia Diseases 0.000 description 2
- 230000003930 cognitive ability Effects 0.000 description 2
- 230000006999 cognitive decline Effects 0.000 description 2
- 208000010877 cognitive disease Diseases 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 208000015122 neurodegenerative disease Diseases 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000021317 sensory perception Effects 0.000 description 2
- 206010070246 Executive dysfunction Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000004770 neurodegeneration Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Pathology (AREA)
- Evolutionary Computation (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请提供一种训练方法、训练装置、训练设备及存储介质,涉及计算机技术领域。该训练方法包括:随机展示知觉决策任务,知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务,视觉分类任务包括对M个第一图片分别分类,听觉分类任务包括对N个第一声音分别分类,视听觉分类任务包括对L个视听刺激对分别分类,每个视听刺激对包括第二图片以及与第二图片中的目标对应的第二声音;采集用户在完成知觉决策任务时产生的行为反应数据;根据行为反应数据确定训练结果,训练结果包括用户完成知觉决策任务的正确率。本申请提供的训练方法,通过视觉、听觉以及视听觉多通道结合的方式进行训练,可以有效地提升个体的知觉决策能力。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种训练方法、装置、设备及存储介质。
背景技术
个体在衰老过程中会经历一定程度的认知衰退,阿尔茨海默病(AD)就是一种起病隐匿的进行性发展的神经系统退行性疾病。临床上表现为记忆障碍、失语、失用、失认、视空间技能损害、执行功能障碍以及人格和行为改变等全面性痴呆。
对于老年人老说,阿尔茨海默病会降低其的知觉决策能力,导致其在需要投入感知觉能力、注意资源和记忆等高级认知能力的决策任务上表现不佳。
现有技术中对阿尔茨海默症患者知觉决策的研究,大多只停留在单独的视觉通道,如对个体在视觉层面进行训练。然而,这种单一通道的训练局限性太强,无法有效地提升个体的知觉决策能力。
发明内容
有鉴于此,本申请提供训练方法、训练装置、训练设备及存储介质,可以有效地提升个体的知觉决策能力。
第一方面,本申请提供一种训练方法,包括:随机展示知觉决策任务,该知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务,该视觉分类任务包括对M个第一图片分别分类,该听觉分类任务包括对N个第一声音分别分类,该视听觉分类任务包括对L个视听刺激对分别分类,每个该视听刺激对包括第二图片以及与该第二图片中的目标对应的第二声音,其中,M≥2,N≥2,L≥2;采集用户在完成该知觉决策任务时产生的行为反应数据;根据该行为反应数据确定训练结果,该训练结果包括该用户完成该知觉决策任务的正确率。
在一个可能的实现方式中,行为反应数据包括知觉决策任务中各个分类任务对应的分类结果和完成各个分类任务的反应时间,该训练方法还包括:将分类结果和反应时间输入到预设的漂移扩散模型中进行处理,得到漂移率、决策边界以及非决策时间;根据漂移率、决策边界以及非决策时间,评估该用户的知觉决策能力。
在一个可能的实现方式中,该训练方法还包括:根据用户的知觉决策能力,确定用户的健康状态。
在一个可能的实现方式中,该训练方法还包括:获取M个预设图片;调整每个预设图片的基本属性,得到M个第一图片;根据M个第一图片构建所述视觉分类任务。
在一个可能的实现方式中,该训练方法还包括:获取N个预设声音;调整每个预设声音的声音属性,得到N个第一声音;根据N个第一声音构建听觉分类任务。
在一个可能的实现方式中,该训练方法还包括:在M个第一图片中确定L个第二图片;在N个第一声音中确定L个第二声音;对L个第二图片和L个第二声音进行配对,得到L个视听刺激对;根据L个视听刺激对构建视听觉分类任务。
在一个可能的实现方式中,该训练方法还包括:确定每个所述第一图片和每个所述第一声音分别对应的刺激强度,所述刺激强度用于反映每个所述第一图片和每个所述第一声音被分类时各自对应的正确率;
在所述M个第一图片中选取刺激强度为第一刺激强度的图片和刺激强度为第二刺激强度的图片;
在所述N个第一声音中选取刺激强度为第一刺激强度的声音和刺激强度为第二刺激强度的声音;
根据所述第一刺激强度的图片和所述第一刺激强度的声音,构建第一刺激强度的知觉决策任务;
根据所述第二刺激强度的图片和所述第二刺激强度的声音,构建第二刺激强度的知觉决策任务。
第二方面,本申请提供一种训练装置,包括:
展示单元,用于随机展示知觉决策任务,知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务,视觉分类任务包括对M个第一图片分别分类,听觉分类任务包括对N个第一声音分别分类,视听觉分类任务包括对L个视听刺激对分别分类,每个视听刺激对包括第二图片以及与第二图片中的目标对应的第二声音,其中,M≥2,N≥2,L≥2;
采集单元,用于采集用户在完成知觉决策任务时产生的行为反应数据;
确定单元,用于根据行为反应数据确定训练结果,训练结果包括用户完成知觉决策任务的正确率。
第三方面,本申请提供一种训练设备,包括存储器、处理器以及存储在该存储器中并可在该处理器上运行的计算机程序,该处理器执行该计算机程序时实现上述第一方面中任一方式所述的训练方法。
第四方面,本申请提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述第一方面中任一方式所述的训练方法。
第五方面,本申请实施例提供一种计算机程序产品,当计算机程序产品在处理器上运行时,使得处理器执行上述第一方面中任一方式所述的训练方法。
本申请提供的训练方法,向用户随机展示知觉决策任务,并基于该知觉决策任务对用户进行训练。在训练的过程中,采集用户在完成该知觉决策任务时产生的行为反应数据,根据该行为反应数据可以确定训练结果,如确定用户完成知觉决策任务的正确率。由于该知觉决策任务包含了视觉、听觉以及视听觉多个通道上的分类任务,利用这种知觉决策任务对用户进行训练,能够加速用户在高阶认知过程中的信息存储和编码,能够提高用户的反应速度,进而促进知觉决策的形成,从而有效地提升个体的知觉决策能力。
附图说明
图1是本申请一示例性实施例提供的一种训练方法的示意性流程图;
图2是本申请实施例提供的第一图片示意图;
图3是本申请实施例提供的第一声音示意图;
图4是本申请实施例提供的视听刺激对示意图;
图5是本申请又一示例性实施例示出的一种训练方法的具体流程图;
图6是本申请再一示例性实施例示出的一种训练方法的具体流程图;
图7为本申请实施例提供的训练装置的示意图;
图8是本申请另一实施例提供的训练设备的示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
个体在衰老过程中会经历一定程度的认知衰退,阿尔茨海默病(AD)就是一种起病隐匿的进行性发展的神经系统退行性疾病。临床上表现为记忆障碍、失语、失用、失认、视空间技能损害、执行功能障碍以及人格和行为改变等全面性痴呆。
知觉决策是将感知觉的信息转化为目标导向,并做出反应的连续分层的认知操作,包括从感觉信息(如直接作用于感觉器官的客观事物所产生的信)的编码、积累决策信息应用决策规则作出决定,到最后产生行为反应。例如,用户看到一张图片,判断图片中的内容为动物,在预设的选项中选择动物选项,这一整个过程称为知觉决策。
对于老年人老说,阿尔茨海默病会降低其的知觉决策能力,导致其在需要投入感知觉能力、注意资源和记忆等高级认知能力的决策任务上表现不佳。
现有技术中对阿尔茨海默症患者知觉决策的研究,大多只停留在单独的视觉通道,如对个体在视觉层面进行训练。然而,这种单一通道的训练局限性太强,无法有效地提升个体的知觉决策能力。
有鉴于此,本申请提供一种训练方法、训练装置、训练设备及存储介质。通过向用户随机展示知觉决策任务,并基于该知觉决策任务对用户进行训练。在训练的过程中,采集用户在完成该知觉决策任务时产生的行为反应数据,根据该行为反应数据可以确定训练结果,如确定用户完成知觉决策任务的正确率。由于该知觉决策任务包含了视觉、听觉以及视听觉多个通道上的分类任务,利用这种知觉决策任务对用户进行训练,能够加速用户在高阶认知过程中的信息存储和编码,能够提高用户的反应速度,进而促进知觉决策的形成,从而有效地提升个体的知觉决策能力。
下面以具体地实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
本申请实施例提供了一种训练软件。该训练软件可以安装在训练设备中,训练设备可以是能够显示图片并具备音频播放功能的设备,例如智能手机、平板电脑、台式电脑、笔记本电脑、机器人、智能穿戴等设备。本申请提供的训练软件既可以对用户进行训练,还可以对用户训练前或者经过训练后的知觉决策能力进行测试。
请参见图1,图1是本申请一示例性实施例提供的一种训练方法的示意性流程图。如图1所示的训练方法可包括:S101~S103,具体如下:
S101:随机展示知觉决策任务。
知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务。
视觉分类任务包括对M个第一图片分别分类,M≥2。其中,M表示第一图片的数量,如M可以为大于或等于2的正整数。第一图片可以是包含任意物体的图片,例如,第一图片可以是包含面孔的图片、包含汽车的图片、包含动物的图片、包含植物的图片、包含建筑的图片、包含食物的图片、包含日用品的图片、包含电子设备的图片、包含乐器的图片等。可以根据实际的训练需求增加不同种类的第一图片,此处仅为示例性说明,对此不做限定。
请参见图2,图2是本申请实施例提供的第一图片示意图。如图2所示,图2展示了视觉分类任务中的一个第一图片,该第一图片为包含面孔的图片。
对第一图片的获取渠道不做限定。例如,第一图片可以是通过拍摄得到的,也可以是在网络中搜集得到的,还可以是通过绘画得到的等。
听觉分类任务包括对N个第一声音分别分类,N≥2。其中,N表示第一声音的数量,如N可以为大于或等于2的正整数。第一声音可以是包含任意声音的音频,例如,第一声音可以是包含人物声音的音频、包含汽车声音的音频、包含动物声音的音频、包含电子设备声音的音频、包含乐器声音的音频等。可以根据实际的训练需求增加不同种类的第一声音,此处仅为示例性说明,对此不做限定。
请参见图3,图3是本申请实施例提供的第一声音示意图。如图3所示,图3展示了听觉分类任务中的一个第一声音,该第一声音为包含人物声音的音频,具体为包含小女孩说话声的音频。
对第一声音的获取渠道不做限定。例如,第一声音可以是通过录制得到的,也可以是在网络中搜集得到的等。
视听觉分类任务包括对L个视听刺激对分别分类,每个视听刺激对包括第二图片以及与第二图片中的目标对应的第二声音,L≥2。其中,L表示视听刺激对的数量,如L可以为大于或等于2的正整数。
第二图片可以是包含任意目标的图片,例如,第二图片可以是包含面孔的图片、包含汽车的图片、包含动物的图片、包含乐器的图片等。相应地,第二声音可以是包含人物声音的音频、包含汽车声音的音频、包含动物声音的音频、包含乐器声音的音频等。
示例性的,包含面孔的图片和该面孔对应的声音的音频组成一个视听刺激对,包含汽车的图片和该汽车对应的声音的音频组成一个视听刺激对,包含动物的图片和该动物对应的声音的音频组成一个视听刺激对,包含乐器的图片和该乐器对应的声音的音频组成一个视听刺激对。
请参见图4,图4是本申请实施例提供的视听刺激对示意图。如图4所示,图4展示了视听觉分类任务中的一个视听刺激对,该视听刺激对包含一个第二图片,以及与该第二图片中的目标对应的第二声音。第二图片为包含汽车的图片,第二声音为包含汽车声音的音频,具体为包含汽车鸣笛声的音频。
对视听刺激对的获取渠道不做限定。例如,视听刺激对中的第二图片可以是从第一图片中挑选出来的,也可以是重新拍摄的,也可以是在网络中搜集得到的,还可以是通过绘画得到的。视听刺激对中的第二声音可以是从第一声音中挑选出来的,也可以是通过录制得到的,还可以是在网络中搜集得到的。
在一种可能的实现方式中,用户启动训练设备上安装的训练软件后,选择训练选项,训练设备的显示界面中开始随机展示知觉决策任务。其中,用户在选择训练选项时,可以手动点击,也可以遥控操作,还可以语音控制。
示例性地,训练设备的显示界面中央呈现注视点,该注视点的呈现时长可以自行设定,例如可以设置为2000ms,然后开始随机展示视觉分类任务、听觉分类任务以及视听觉分类任务。一种展示方式可以是,展示完其中一个任务后,再展示另一个任务,直至所有的任务展示完毕。例如,先展示视觉分类任务,该视觉分类任务中的M个第一图片都展示完毕后,再展示听觉分类任务,该听觉分类任务中的N个第一声音都展示完毕后,再展示视听觉分类任务,直至该视听觉分类任务中的L个视听刺激对都展示完毕。
值得说明的是,对视觉分类任务、听觉分类任务以及视听觉分类任务的展示顺序不做限定。例如,展示顺序可以是视觉分类任务、听觉分类任务、视听觉分类任务,也可以是视觉分类任务、视听觉分类任务、听觉分类任务,还可以是视听觉分类任务、视觉分类任务、听觉分类任务等等,对此不做限定。
示例性地,另一种展示方式可以是,视觉分类任务、听觉分类任务以及视听觉分类任务穿插展示,即将M个第一图片、N个第一声音以及L个视听刺激对穿插展示,直至所有的任务展示完毕。例如,先展示若干个第一图片,再展示若干个视听刺激对,再展示若干个第一声音,再展示若干个第一图片,再展示若干个声音等等,直至所有的任务展示完毕。
又例如,先展示一个第一图片,再展示一个第一声音,再展示一个视听刺激对,再展示一个第一声音,再展示一个第一图片等等。此处仅为示例性说明,对此不做限定。
值得说明的是,为了保证训练结果的有效性,在展示视觉分类任务的中第一图片和展示视听觉分类任务中的第二图片时,将这些图片都呈现在统一颜色背景上,且呈现的视角都一样。例如,都呈现在灰色、白色等背景上,呈现的视角均为8°×8°。此处仅为示例性说明,对此不做限定。
S102:采集用户在完成知觉决策任务时产生的行为反应数据。
示例性地,在训练设备的显示界面中,除了显示各个知觉决策任务,还会显示各个知觉决策任务对应的选项,在随机展示各个知觉决策任务的过程中,用户对每个分类任务做出选择操作,这些选择操作产生的数据即为行为反应数据,训练设备采集这些行为反应数据。
例如,当前显示界面中展示的为视觉分类任务中的第一图片,第一图片的下面、或上面、或右侧、或左侧并排显示两个选项。当该第一图片为包含面孔的图片时,正确选择为点击并排显示两个选项中左边的选项;当该第一图片为包含汽车的图片时,正确选择为点击并排显示两个选项中右边的选项。
又例如,当前训练设备播放听觉分类任务中的第一声音,显示界面中并排显示两个选项。当该第一声音为人物声音时,正确选择为点击并排显示两个选项中左边的选项;当该第一声音为汽车声音时,正确选择为点击并排显示两个选项中右边的选项。值得说明的是,在训练过程中,用户与训练设备的距离可以自行设置、调整。例如,用户距离显示界面和音箱60厘米。
用户在训练的过程中,根据自己的能力对不同的知觉决策任务做出不同的选择,即选择用户自己认为正确的选项。训练设备记录用户对每个分类任务做出的选择。
在一种可能的实现方式中,用户对每个分类任务做出选择操作,可以通过鼠标实现。例如,对于包含面孔的第一图片、包含人物声音的第一声音、包含面孔的第二图片以及该第二图片对应的包含人物声音的第二声音,这些分类任务的正确选择均为点击鼠标左键。对于包含汽车的第一图片、包含汽车声音的第一声音、包含汽车的第二图片以及该第二图片对应的包含汽车声音的第二声音,这些分类任务的正确选择均为点击鼠标右键。
例如,当前显示界面中展示的为视听觉分类任务中的第二图片,训练设备播放该第二图片对应的第二声音。该第二图片为包含面孔的第二图片,第二声音为包含人物声音的第二声音,正确选择为点击鼠标左键。
用户在训练的过程中,根据自己的能力对不同的知觉决策任务做出不同的选择,即用户点击鼠标左键或右键。训练设备记录用户对每个分类任务做出的选择。
可选地,在一种可能的实现方式中,为了保证训练的有效性,在展示知觉决策任务时,相邻两个分类任务可以基于预设时间间隔进行展示,且每个分类任务的展示时长为预设时长。示例性的,相邻两个分类任务之间的预设时间间隔可以为1200~1500ms,每个分类任务的展示时长可以为300ms。
例如,相邻两个视听刺激对之间的预设时间间隔可以为1200~1500ms,每个视听刺激对的展示时长可以为300~500ms。此处仅为示例性说明,对此不做限定。
S103:根据行为反应数据确定训练结果。
训练结果包括用户完成知觉决策任务的正确率。
示例性地,行为反应数据是用户对每个分类任务做出选择操作产生的数据,将每个分类任务对应的行为反应数据与该任务对应的正确选择进行比较,根据比较结果确定训练结果。
例如,每个正确选择记一分,未选择或选择错不计分,根据用户的行为反应数据可以得到一个分数,计算该分数占总分(所有任务均选择正确时对应的分数)的比例,得到用户完成知觉决策任务的正确率。此处仅为示例性说明,对此不做限定。
本实施方式中,通过向用户随机展示知觉决策任务,并基于该知觉决策任务对用户进行训练。在训练的过程中,采集用户在完成该知觉决策任务时产生的行为反应数据,根据该行为反应数据可以确定训练结果,如确定用户完成知觉决策任务的正确率。由于该知觉决策任务包含了视觉、听觉以及视听觉多个通道上的分类任务,利用这种知觉决策任务对用户进行训练,能够加速用户在高阶认知过程中的信息存储和编码,能够提高用户的反应速度,进而促进知觉决策的形成,从而有效地提升个体的知觉决策能力。
请参见图5,图5是本申请又一示例性实施例示出的一种训练方法的具体流程图,如图5所示的训练方法可包括:S201~S205,具体如下:
S201:随机展示知觉决策任务。
S202:采集用户在完成知觉决策任务时产生的行为反应数据。
S203:根据行为反应数据确定训练结果。
上述S201~S203与图1对应的实施例中的S101~S103完全相同,具体参考图1对应的实施例中的S101~S103的描述,此处不再赘述。
行为反应数据包括知觉决策任务中各个分类任务对应的分类结果和完成各个分类任务的反应时间。
示例性地,各个分类任务对应的分类结果即为用户做出的选择操作。如用户点击了并排显示两个选项中左边的选项、用户点击了并排显示两个选项中右边的选项、用户点击了鼠标左键以及用户点击了鼠标右键。
完成各个分类任务的反应时间由开始展示各个分类任务时的时间和用户做出选择时的时间确定。例如,针对某个分类任务,展示该分类任务时开始计时,用户做出选择后立刻结束,记录的这段时间即为该分类任务对应的反应时间。
S204:将分类结果和反应时间输入到预设的漂移扩散模型中进行处理,得到漂移率、决策边界以及非决策时间。
预设的漂移扩散模型模拟了分类任务中的决策过程,用户的每个选择都表示为一个上边界和一个下边界,知觉决策过程会随着时间不断累积证据,直到它到达两个边界之一,随后引发相应的行为反应。
漂移率、决策边界以及非决策时间是由该漂移扩散模型对分类结果和反应时间进行处理后得到的不同参数。这些不同参数分别映射了知觉决策过程行为背后的认知加工过程。具体地,漂移率用于描述信息累积的速度,决策边界用于描述做出反应之前需要到达的反应边界,非决策时间用于描述用于描述感觉编码和运动反应的时间。
不同反应的分布会影响漂移扩散模型中各个参数的数值,因此可以通过计算不同情况下漂移扩散模型的具体参数,反应用户在在进行跨通道知觉决策过程中的潜在认知过程,从而确定用户的训练效果。
在一种可能的实现方式中,为了防止用户快速猜测确定分类结果,进而导致训练结果出现偏差,在将分类结果和反应时间输入到预设的漂移扩散模型中进行处理之前,先剔除反应时间小于预设反应时间的数据。例如,剔除反应时间小于300ms的数据。
可选地,将反应时间小于预设反应时间的数据剔除后,还可根据剩下的所有反应时间计算标准差,再将反应时间超出预设标准差范围的数据剔除。例如,将反应时间超出正负2.5个标准差的数据剔除。此处仅为示例性说明,对此不做限定。
预设的漂移扩散模型应用到的函数如下:
上述(1)式中,f(t)是有关于t的条件概率分布。根据贝叶斯定理可以将函数f(t|v,a,z)拆分为f(t)先验与f(t)似然两个部分。先验是指在不知道漂移扩散模型参数的情况下用户主观对概率分布的猜测,而似然是指在得到行为反应数据的概率分布的情况下,计算得到的漂移扩散模型参数。
因此,漂移扩散模型的重点在于求出似然条件下的参数数值。由于公式的复杂性无法直接求得参数数值,需要使用马尔可夫链蒙特卡罗算法(Markov Chain Monte Carlo,MCMC)。MCMC算法可以通过连续采样的方式获取函数特征,从而通过样本来推断总体的参数。因此,通过MCMC算法计算出贝叶斯中的似然部分,从而估计出参数分布。
示例性地,可以采用计算机编程语言(python)的HDDM工具箱,该工具箱提供了漂移扩散模型的分层贝叶斯参数估计,允许同时估计每个被试的漂移扩散模型参数,从而得到漂移率、决策边界以及非决策时间。
可选地,将分类结果和反应时间输入到预设的漂移扩散模型中进行处理,除了漂移率、决策边界以及非决策时间,还可得到相对起始点、相对起点的训练间变异、漂移率的训练间变异、非决策时间的训练间变异等参数。
其中,相对起始点用于描述对反应选择的起始偏好。相对起点的训练间变异表现为平均相对起始点的均匀分布的范围,用于描述特定训练的实际起始点的分布。漂移率的训练间变异表现为正太分布的标准差,均值为漂移率,用于描述特定训练的实际漂移率分布。非决策时间的训练间变异表现为平均非决策时间的均匀分布的范围,用于描述在训练中实际非决策时间的分布。
S205:根据漂移率、决策边界以及非决策时间,评估用户的知觉决策能力。
示例性地,漂移率、决策边界以及非决策时间等参数各自对应不同的指标范围。例如,漂移率对应的指标范围可以为大于-5且小于5,决策边界对应的指标范围可以为大于0.5且小于2,非决策时间对应的指标范围可以为大于0.1且小于0.5。
示例性地,若用户的漂移率、决策边界以及非决策时间均在各自对应的指标范围内,则评估用户的知觉决策能力强。若用户的漂移率、决策边界以及非决策时间有两个在各自对应的指标范围内,则评估用户的知觉决策能力中等。若用户的漂移率、决策边界以及非决策时间有一个在对应的指标范围内,或用户的漂移率、决策边界以及非决策时间均未在对应的指标范围内,则评估用户的知觉决策能力差。此处仅为示例性说明,对此不做限定。
本实施方式中,通过预设的漂移扩散模型对用户的分类结果和反应时间进行处理,得到漂移率、决策边界以及非决策时间。通过漂移率、决策边界以及非决策时间等参数,可以准确反应出用户在进行跨通道知觉决策过程中的潜在认知过程,再对漂移率、决策边界以及非决策时间进行分析,可以准确地评估用户的知觉决策能力。
请参见图6,图6是本申请再一示例性实施例示出的一种训练方法的具体流程图,如图6所示的训练方法可包括:S301~S306。值得说明的是,本实施例中的S301~S305,与图5对应的实施例中的S201~S205完全相同,具体参考图5对应的实施例中的S201~S205的描述,本实施例中不再赘述。S306具体如下:
S306:根据用户的知觉决策能力,确定用户的健康状态。
示例性地,一些病症会降低用户的知觉决策能力。例如,对于老年人老说,阿尔茨海默病会降低其的知觉决策能力。获取健康用户的知觉决策能力,以健康用户的知觉决策能力为基准。将本次训练过程中得到的用户的知觉决策能力,与健康用户的知觉决策能力进行比较,根据比较结果确定本次训练的用户的健康状态。
例如,健康用户的知觉决策能力强,本次训练过程中得到的用户的知觉决策能力差,确定本次训练的用户的健康状态为非健康状态。具体地,可确定本次训练的用户为阿尔茨海默病患者。此处仅为示例性说明,对此不做限定。
本实施方式中,通过比对本次训练的用户的知觉决策能力,和健康用户的知觉决策能力,可以准确地确定用户的健康状态。例如,有利于准确、及时地发现阿尔茨海默病患者,以便尽早对阿尔茨海默病患者进行治疗。
可选地,在一种可能的实现方式中,在随机展示知觉决策任务之前,本申请提供的训练方法还可包括:获取M个预设图片;调整每个预设图片的基本属性,得到M个第一图片;根据M个第一图片构建视觉分类任务。
示例性地,预设图片指原始的第一图片。基本属性可以包括图片的空间频率、对比度、亮度、像素、尺寸、清晰度、格式等。例如,获取若干个预设图片,其中一半为包含面孔的图片,另一半为包含汽车的图片。将这些图片的空间频率、对比度、亮度以及像素调整一致。例如,可将像素均调整为670×670像素。
将空间频率、对比度、亮度以及像素调整一致后,采用预设软件(如Matlab软件)通过信噪比调整每个图片的清晰度。例如,通过信噪比将每个图片的清晰度分别调整到30%、32.5%、35%、37.5%、40%、42.5%、45%、50%的8个不同的水平。
经过上述的调整,得到M个第一图片,例如得到240个第一图片。根据每个第一图片具体包含的图片内容,为每个第一图片设置正确的选项,如该第一图片对应的正确选择为点击并排显示两个选项中左边的选项,或该第一图片对应的正确选择为点击并排显示两个选项中右边的选项,或第一图片对应的正确选择为点击鼠标左键,或第一图片对应的正确选择为点击鼠标右键等。根据各个第一图片,以及各个第一图片对应的正确的选项,构建得到视觉分类任务。
本实施方式中,得到的各个第一图片,都是调整过基本属性的,有效避免了由于各个图片基本属性差异带来的训练偏差,保证各个图片的基本属性不会对用户的选择带来影响,从而提高了训练结果的准确性。
可选地,在一种可能的实现方式中,在随机展示知觉决策任务之前,本申请提供的训练方法还可包括:获取N个预设声音;调整每个预设声音的声音属性,得到N个第一声音;根据N个第一声音构建听觉分类任务。
示例性地,预设声音指原始的第一声音。声音属性可以包括声音的频率、音调、响度以及音色等。例如,获取若干个预设声音,其中一半为人物声音,另一半为汽车声音。将这些声音的响度和频率调整一致。例如,采用预设软件(如Matlab软件)对这些声音进行归一化处理,处理后的声音响度和频率调整一致。再使用语音合成软件将这些处理后的声音镶嵌在不同响度的白噪音中,得到不同信噪比的第一声音。
例如,可再将处理后的声音的响度降至50%,并使用语音合成软件将再次调整响度后的声音分别镶嵌在8个不同响度的白噪音中,得到信噪比分别为12.5%、25%、37.5%、50%、62.5%、75%、87.5%以及100%的多个第一声音。这些第一声音的响度一致,例如,这些第一声音的响度均为60dB。
通过信噪比调整每个图片的清晰度。例如,通过信噪比将每个图片的清晰度分别调整到30%、32.5%、35%、37.5%、40%、42.5%、45%、50%的8个不同的水平。
经过上述的调整,得到N个第一声音,例如得到240个第一声音。根据每个第一声音具体包含的声音内容,为每个第一声音设置正确的选项,如该第一声音对应的正确选择为点击并排显示两个选项中左边的选项,或该第一声音对应的正确选择为点击并排显示两个选项中右边的选项,或第一声音对应的正确选择为点击鼠标左键,或第一声音对应的正确选择为点击鼠标右键等。根据各个第一声音,以及各个第一声音对应的正确的选项,构建得到听觉分类任务。
本实施方式中,得到的各个第一声音,都是调整过声音属性的,有效避免了由于各个声音属性差异带来的训练偏差,保证各个声音的声音属性不会对用户的选择带来影响,从而提高了训练结果的准确性。
可选地,在一种可能的实现方式中,在随机展示知觉决策任务之前,本申请提供的训练方法还可包括:在M个第一图片中确定L个第二图片;在N个第一声音中确定L个第二声音;对L个第二图片和L个第二声音进行配对,得到L个视听刺激对;根据L个视听刺激对构建视听觉分类任务。
示例性地,视听刺激对中的第二图片可以是从第一图片中挑选出来的,视听刺激对中的第二声音可以是从第一声音中挑选出来的。例如,在M个第一图片中选取L个第一图片,将这L个第一图片确定为L个第二图片。在N个第一声音选取L个第一声音,将这L个第一声音确定为L个第二声音。
可以理解的是,由于第二声音是第二图片中的目标对应的声音,为了提升构建视听觉分类任务的速度,在确定第二图片时,选取有该第二图片中的目标对应的声音的图片。例如,在M个第一图片中选中某个第一图片为包含汽车的图片,N个第一声音中刚好有该汽车对应的声音,将选中的该第一图片确定为第二图片,将N个第一声音该汽车对应的声音确定为第二声音。此处仅为示例性说明,对此不做限定。
对选中的L个第二图片和L个第二声音进行配对,得到L个视听刺激对。根据每个视听刺激对,为每个视听刺激对设置正确的选项,如该视听刺激对的正确选择为点击并排显示两个选项中左边的选项,或该视听刺激对的正确选择为点击并排显示两个选项中右边的选项,或视听刺激对的正确选择为点击鼠标左键,或视听刺激对的正确选择为点击鼠标右键等。根据各个视听刺激对,以及各个视听刺激对的正确的选项,构建得到视听觉分类任务。
本实施方式中,各个视听刺激对中的第二图片和第二声音,都是在第一图片和第一声音中挑选的。由于第一图片的基本属性和第一声音的声音属性都是经过调整的,相当于各个视听刺激对中的第二图片的基本属性和第二声音的声音属性都是经过调整的。有效避免了由于各个图片的基本属性和声音属性差异带来的训练偏差,保证各个图片的基本属性和声音属性不会对用户的选择带来影响,从而提高了训练结果的准确性。
可选地,在一种可能的实现方式中,为了提高训练结果的准确性,在正式训练前,还可包括预训练。具体地,本申请提供的训练方法还可包括:S401~S405。
S401:确定每个第一图片和每个第一声音分别对应的刺激强度。
S402:在M个第一图片中选取刺激强度为第一刺激强度的图片和刺激强度为第二刺激强度的图片。
S403:在N个第一声音中选取刺激强度为第一刺激强度的声音和刺激强度为第二刺激强度的声音。
刺激强度用于反映每个第一图片和每个第一声音被分类时各自对应的正确率。
示例性地,在训练设备的显示界面中展示M个第一图片,用户对每个第一图片做出选择操作,将每个第一图片对应的选择操作与该第一图片对应的正确选择进行比较。每个正确选择记一分,未选择或选择错不计分,根据用户本次的所有选择操作可以得到一个分数,计算该分数占总分(所有第一图片均选择正确时对应的分数)的比例,得到用户本次预训练的正确率。
根据该正确率,确定用户选择正确的第一图片的刺激强度。当正确率为第一阈值时,用户选择正确的第一图片的刺激强度为第一刺激强度;当正确率为第二阈值时,用户选择正确的第一图片的刺激强度为第二刺激强度。其中,第一阈值大于第二阈值,第一刺激强度高于第二刺激强度。例如,第一阈值为90%,第二阈值为70%,第一刺激强度为高强度,第二刺激强度为低强度。
示例性地,本次预训练的正确率为90%,本次用户选择正确的第一图片的刺激强度为第一刺激强度,即高强度。或,本次预训练的正确率为70%,本次用户选择正确的第一图片的刺激强度为第二刺激强度,即低强度。此处仅为示例性说明,对此不做限定。
示例性地,在训练设备的显示界面中展示N个第一声音,用户对每个第一声音做出选择操作,将每个第一声音对应的选择操作与该第一声音对应的正确选择进行比较。每个正确选择记一分,未选择或选择错不计分,根据用户本次的所有选择操作可以得到一个分数,计算该分数占总分(所有第一声音均选择正确时对应的分数)的比例,得到用户本次预训练的正确率。
根据该正确率,确定用户选择正确的第一声音的刺激强度。当正确率为第一阈值时,用户选择正确的第一声音的刺激强度为第一刺激强度;当正确率为第二阈值时,用户选择正确的第一声音的刺激强度为第二刺激强度。其中,第一阈值大于第二阈值,第一刺激强度高于第二刺激强度。例如,第一阈值为90%,第二阈值为70%,第一刺激强度为高强度,第二刺激强度为低强度。
示例性地,本次预训练的正确率为90%,本次用户选择正确的第一声音的刺激强度为第一刺激强度,即高强度。或,本次预训练的正确率为70%,本次用户选择正确的第一声音的刺激强度为第二刺激强度,即低强度。此处仅为示例性说明,对此不做限定。
S404:根据第一刺激强度的图片和第一刺激强度的声音,构建第一刺激强度的知觉决策任务。
第一刺激强度的知觉决策任务包括,第一刺激强度的视觉分类任务、第一刺激强度的听觉分类任务以及第一刺激强度的视听觉分类任务。
可以理解的是,构建第一刺激强度的视觉分类任务、第一刺激强度的听觉分类任务以及第一刺激强度的视听觉分类任务的过程,与上述构建视觉分类任务、听觉分类任务以及视听觉分类任务的过程类似。
区别在于,上述构建视觉分类任务、听觉分类任务以及视听觉分类任务时,是基于第一图片、第一声音、第二图片以及第二声音构建得到的,本实施方式中是基于第一刺激强度的图片和第一刺激强度的声音构建得到的。具体过程可以参考上述构建视觉分类任务、听觉分类任务以及视听觉分类任务的过程,此处不再赘述。
例如,构建得到的第一刺激强度的视觉分类任务中包含50个第一刺激强度的图片,第一刺激强度的听觉分类任务中包含50个第一刺激强度的声音,第一刺激强度的视听觉分类任务中包含50个视听刺激对。
S405:根据第二刺激强度的图片和第二刺激强度的声音,构建第二刺激强度的知觉决策任务。
第二刺激强度的知觉决策任务包括,第二刺激强度的视觉分类任务、第二刺激强度的听觉分类任务以及第二刺激强度的视听觉分类任务。
可以理解的是,构建第二刺激强度的视觉分类任务、第二刺激强度的听觉分类任务以及第二刺激强度的视听觉分类任务的过程,与上述构建视觉分类任务、听觉分类任务以及视听觉分类任务的过程类似。
区别在于,上述构建视觉分类任务、听觉分类任务以及视听觉分类任务时,是基于第一图片、第一声音、第二图片以及第二声音构建得到的,本实施方式中是基于第二刺激强度的图片和第二刺激强度的声音构建得到的。具体过程可以参考上述构建视觉分类任务、听觉分类任务以及视听觉分类任务的过程,此处不再赘述。
例如,构建得到的第二刺激强度的视觉分类任务中包含50个第二刺激强度的图片,第二刺激强度的听觉分类任务中包含50个第二刺激强度的声音,第二刺激强度的视听觉分类任务中包含50个视听刺激对。
示例性地,利用构建好的第一刺激强度的知觉决策任务和第二刺激强度的知觉决策任务对不同的用户(例如正常老年人和阿尔茨海默症患者)进行训练。采集用户在完成第一刺激强度的知觉决策任务和第二刺激强度的知觉决策任务时产生的行为反应数据;根据该行为反应数据确定目标训练结果,该目标训练结果包括第一刺激强度的知觉决策任务和第二刺激强度的知觉决策任务的正确率。
本实施方式中,构建了不同刺激强度的知觉决策任务,可针对不同的用户采用不同刺激强度的知觉决策任务进行训练,能够有针对性地提高不同用户的知觉决策能力。
可选地,在一种可能的实现方式中,本申请提供的训练方法还可包括:根据训练结果调整知觉决策任务的难度,进而更有效地提高用户的知觉决策能力。
例如,当用户完成知觉决策任务的正确率大于预设正确率时,证明用户当前训练效果不错,可以增加知觉决策任务的难度。如可以逐渐增加知觉决策任务中图片和声音的种类,缩短相邻两个分类任务之间的预设时间间隔,增加每个分类任务对应的选项等。
又例如,当用户完成知觉决策任务的正确率小于或等于预设正确率时,证明用户当前训练效果不好,可以降低知觉决策任务的难度。如可以减少知觉决策任务中图片和声音的种类,增加相邻两个分类任务之间的预设时间间隔等。
可选地,在一种可能的实现方式中,本申请提供的训练方法还可采用竞争模型研究跨通道对阿尔茨海默症患者的影响。与单一通道信息(如视觉信息或听觉信息)相比,当视觉信息和听觉信息同时出现时,个体的反应速度更快。这种现象被称为冗余信号效应(Redundant signal effect,RSE)。
RSE可以通过统计促进(statistical facilitation)来解释,即个体对多感觉通道刺激(视听觉刺激)中先达到感觉阈限的单通道刺激(视觉刺激、听觉刺激)进行反应,导致双通道的信息即使在不发生整合的情况下也能加快对刺激的反应。通过本申请中多通道结合的方式进行训练,可以使个体在多感觉通道刺激(视听觉刺激)中先达到感觉阈限,由此提升个体的知觉决策能力。
图7为本申请实施例提供的训练装置的示意图,如图7所示,本实施例提供的训练装置包括:
展示单元510,用于随机展示知觉决策任务,所述知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务,所述视觉分类任务包括对M个第一图片分别分类,所述听觉分类任务包括对N个第一声音分别分类,所述视听觉分类任务包括对L个视听刺激对分别分类,每个所述视听刺激对包括第二图片以及与所述第二图片中的目标对应的第二声音,其中,M≥2,N≥2,L≥2;
采集单元520,用于采集用户在完成所述知觉决策任务时产生的行为反应数据;
确定单元530,用于根据所述行为反应数据确定训练结果,所述训练结果包括所述用户完成所述知觉决策任务的正确率。
可选的,所述行为反应数据包括所述知觉决策任务中各个分类任务对应的分类结果和完成各个所述分类任务的反应时间。
可选的,该训练装置还包括:
评估单元,用于将所述分类结果和所述反应时间输入到预设的漂移扩散模型中进行处理,得到漂移率、决策边界以及非决策时间;根据所述漂移率、所述决策边界以及所述非决策时间,评估所述用户的知觉决策能力。
可选的,该训练装置还包括:
状态确定单元,用于根据所述用户的知觉决策能力,确定所述用户的健康状态。
可选的,该训练装置还包括:
第一构建单元,用于获取M个预设图片;调整每个所述预设图片的基本属性,得到M个第一图片;根据所述M个第一图片构建所述视觉分类任务。
可选的,该训练装置还包括:
第二构建单元,用于获取N个预设声音;调整每个所述预设声音的声音属性,得到N个第一声音;根据所述N个第一声音构建所述听觉分类任务。
可选的,该训练装置还包括:
第三构建单元,用于在所述M个第一图片中确定L个第二图片;在所述N个第一声音中确定L个第二声音;对所述L个第二图片和所述L个第二声音进行配对,得到所述L个视听刺激对;根据所述L个视听刺激对构建所述视听觉分类任务。
可选的,该训练装置还包括:
第三构建单元,用于确定每个所述第一图片和每个所述第一声音分别对应的刺激强度,所述刺激强度用于反映每个所述第一图片和每个所述第一声音被分类时各自对应的正确率;在所述M个第一图片中选取刺激强度为第一刺激强度的图片和刺激强度为第二刺激强度的图片;在所述N个第一声音中选取刺激强度为第一刺激强度的声音和刺激强度为第二刺激强度的声音;根据所述第一刺激强度的图片和所述第一刺激强度的声音,构建第一刺激强度的知觉决策任务;根据所述第二刺激强度的图片和所述第二刺激强度的声音,构建第二刺激强度的知觉决策任务。
请参见图8,图8是本申请另一实施例提供的训练设备的示意图。如图8所示,该实施例的训练设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62。所述处理器60执行所述计算机程序62时实现上述各个训练方法实施例中的步骤,例如图1所示的S101至S103。或者,所述处理器60执行所述计算机程序62时实现上述各实施例中各单元的功能,例如图7所示单元510至530功能。
示例性地,所述计算机程序62可以被分割成一个或多个单元,所述一个或者多个单元被存储在所述存储器61中,并由所述处理器60执行,以完成本申请。所述一个或多个单元可以是能够完成特定功能的一系列计算机指令段,该指令段用于描述所述计算机程序62在所述训练设备6中的执行过程。例如,所述计算机程序62可以被分割为展示单元、采集单元以及确定单元,各单元具体功能如上所述。
所述训练设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图8仅仅是训练设备6的示例,并不构成对设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述训练设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述训练设备的内部存储单元,例如设备的硬盘或内存。所述存储器61也可以是所述训练设备的外部存储终端,例如所述训练设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述设备的内部存储单元也包括外部存储终端。所述存储器61用于存储所述计算机指令以及所述终端所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机存储介质,计算机存储介质可以是非易失性,也可以是易失性,该计算机存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述各个训练方法实施例中的步骤。
本申请还提供了一种计算机程序产品,当计算机程序产品在训练设备上运行时,使得该设备执行上述各个训练方法实施例中的步骤。
本申请实施例还提供了一种芯片或者集成电路,该芯片或者集成电路包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有该芯片或者集成电路的训练设备执行上述各个训练方法实施例中的步骤。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种训练方法,其特征在于,包括:
随机展示知觉决策任务,所述知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务,所述视觉分类任务包括对M个第一图片分别分类,所述听觉分类任务包括对N个第一声音分别分类,所述视听觉分类任务包括对L个视听刺激对分别分类,每个所述视听刺激对包括第二图片以及与所述第二图片中的目标对应的第二声音,其中,M≥2,N≥2,L≥2;
采集用户在完成所述知觉决策任务时产生的行为反应数据;
根据所述行为反应数据确定训练结果,所述训练结果包括所述用户完成所述知觉决策任务的正确率。
2.根据权利要求1所述的训练方法,其特征在于,所述行为反应数据包括所述知觉决策任务中各个分类任务对应的分类结果和完成各个所述分类任务的反应时间,所述训练方法还包括:
将所述分类结果和所述反应时间输入到预设的漂移扩散模型中进行处理,得到漂移率、决策边界以及非决策时间;
根据所述漂移率、所述决策边界以及所述非决策时间,评估所述用户的知觉决策能力。
3.根据权利要求2所述的训练方法,其特征在于,所述根据所述漂移率、所述决策边界以及所述非决策时间,评估所述用户的知觉决策能力之后,所述训练方法还包括:
根据所述用户的知觉决策能力,确定所述用户的健康状态。
4.根据权利要求1所述的训练方法,其特征在于,所述随机展示知觉决策任务之前,所述训练方法还包括:
获取M个预设图片;
调整每个所述预设图片的基本属性,得到M个第一图片;
根据所述M个第一图片构建所述视觉分类任务。
5.根据权利要求4所述的训练方法,其特征在于,所述随机展示知觉决策任务之前,所述训练方法还包括:
获取N个预设声音;
调整每个所述预设声音的声音属性,得到N个第一声音;
根据所述N个第一声音构建所述听觉分类任务。
6.根据权利要求5所述的训练方法,其特征在于,所述随机展示知觉决策任务之前,所述训练方法还包括:
在所述M个第一图片中确定L个第二图片;
在所述N个第一声音中确定L个第二声音;
对所述L个第二图片和所述L个第二声音进行配对,得到所述L个视听刺激对;
根据所述L个视听刺激对构建所述视听觉分类任务。
7.根据权利要求1至6任一项所述的训练方法,其特征在于,所述训练方法还包括:
确定每个所述第一图片和每个所述第一声音分别对应的刺激强度,所述刺激强度用于反映每个所述第一图片和每个所述第一声音被分类时各自对应的正确率;
在所述M个第一图片中选取刺激强度为第一刺激强度的图片和刺激强度为第二刺激强度的图片;
在所述N个第一声音中选取刺激强度为第一刺激强度的声音和刺激强度为第二刺激强度的声音;
根据所述第一刺激强度的图片和所述第一刺激强度的声音,构建第一刺激强度的知觉决策任务;
根据所述第二刺激强度的图片和所述第二刺激强度的声音,构建第二刺激强度的知觉决策任务。
8.一种训练装置,其特征在于,包括:
展示单元,用于随机展示知觉决策任务,所述知觉决策任务包括视觉分类任务、听觉分类任务以及视听觉分类任务,所述视觉分类任务包括对M个第一图片分别分类,所述听觉分类任务包括对N个第一声音分别分类,所述视听觉分类任务包括对L个视听刺激对分别分类,每个所述视听刺激对包括第二图片以及与所述第二图片中的目标对应的第二声音,其中,M≥2,N≥2,L≥2;
采集单元,用于采集用户在完成所述知觉决策任务时产生的行为反应数据;
确定单元,用于根据所述行为反应数据确定训练结果,所述训练结果包括所述用户完成所述知觉决策任务的正确率。
9.一种训练设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210661128.7A CN115171658A (zh) | 2022-06-13 | 2022-06-13 | 训练方法、训练装置、训练设备及存储介质 |
PCT/CN2022/138186 WO2023240951A1 (zh) | 2022-06-13 | 2022-12-09 | 训练方法、训练装置、训练设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210661128.7A CN115171658A (zh) | 2022-06-13 | 2022-06-13 | 训练方法、训练装置、训练设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115171658A true CN115171658A (zh) | 2022-10-11 |
Family
ID=83486133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210661128.7A Pending CN115171658A (zh) | 2022-06-13 | 2022-06-13 | 训练方法、训练装置、训练设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115171658A (zh) |
WO (1) | WO2023240951A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115691545A (zh) * | 2022-12-30 | 2023-02-03 | 杭州南粟科技有限公司 | 一种基于vr游戏的范畴知觉训练方法及系统 |
WO2023240951A1 (zh) * | 2022-06-13 | 2023-12-21 | 深圳先进技术研究院 | 训练方法、训练装置、训练设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105266805B (zh) * | 2015-10-23 | 2018-10-09 | 华南理工大学 | 一种基于视听觉脑机接口的意识状态检测方法 |
WO2018026710A1 (en) * | 2016-08-05 | 2018-02-08 | The Regents Of The University Of California | Methods of cognitive fitness detection and training and systems for practicing the same |
US11304657B2 (en) * | 2016-08-26 | 2022-04-19 | Akili Interactive Labs, Inc. | Cognitive platform coupled with a physiological component |
CN110347242A (zh) * | 2019-05-29 | 2019-10-18 | 长春理工大学 | 基于空间和语义一致的视听觉脑机接口拼写系统及其方法 |
CN110786825B (zh) * | 2019-09-30 | 2022-06-21 | 浙江凡聚科技有限公司 | 基于虚拟现实视听觉通路的空间知觉失调测训系统 |
CN114201053B (zh) * | 2022-02-17 | 2022-06-28 | 北京智精灵科技有限公司 | 一种基于神经调控的认知提升训练方法及系统 |
CN115171658A (zh) * | 2022-06-13 | 2022-10-11 | 深圳先进技术研究院 | 训练方法、训练装置、训练设备及存储介质 |
-
2022
- 2022-06-13 CN CN202210661128.7A patent/CN115171658A/zh active Pending
- 2022-12-09 WO PCT/CN2022/138186 patent/WO2023240951A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023240951A1 (zh) * | 2022-06-13 | 2023-12-21 | 深圳先进技术研究院 | 训练方法、训练装置、训练设备及存储介质 |
CN115691545A (zh) * | 2022-12-30 | 2023-02-03 | 杭州南粟科技有限公司 | 一种基于vr游戏的范畴知觉训练方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2023240951A1 (zh) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Thomas-Stonell et al. | Predicted and observed outcomes in preschool children following speech and language treatment: Parent and clinician perspectives | |
Maran et al. | In the eye of a leader: Eye-directed gazing shapes perceptions of leaders' charisma | |
Greene et al. | The briefest of glances: The time course of natural scene understanding | |
Wylie et al. | Socially assigned gender nonconformity: A brief measure for use in surveillance and investigation of health disparities | |
Cream et al. | Randomized controlled trial of video self-modeling following speech restructuring treatment for stuttering | |
US20210313020A1 (en) | Method and apparatus for rehabilitation training of cognitive function | |
CN115171658A (zh) | 训练方法、训练装置、训练设备及存储介质 | |
McNaney et al. | Speeching: Mobile crowdsourced speech assessment to support self-monitoring and management for people with Parkinson's | |
Zhao et al. | Robust and efficient online auditory psychophysics | |
KR101829606B1 (ko) | 인터넷 과몰입 진단 장치 및 방법 | |
Potter | A review and analysis of patterns of design decisions in recent media effects research | |
Walravens et al. | Consistency of hearing aid setting preference in simulated real-world environments: implications for Trainable hearing AIDS | |
Brossart et al. | Assessing group process: An illustration using tuckerized growth curves. | |
Varnet et al. | Direct viewing of dyslexics’ compensatory strategies in speech in noise using auditory classification images | |
McAllister et al. | Baseline stimulability predicts patterns of response to traditional and ultrasound biofeedback treatment for residual speech sound disorder | |
Banks et al. | Sports related concussion impacts speech rate and muscle physiology | |
Matsuoka | Disparities between schools in Japanese compulsory education: Analyses of a cohort using TIMSS 2007 and 2011 | |
Rose et al. | Visual attention and key word sign in children with autism spectrum disorder | |
Zaltz et al. | Long-term training-induced gains of an auditory skill in school-age children as compared with adults | |
US20200185110A1 (en) | Computer-implemented method and an apparatus for use in detecting malingering by a first subject in one or more physical and/or mental function tests | |
Miao et al. | Analysis of facial expressions to estimate the level of engagement in online lectures | |
García-Pérez et al. | Nonparametric tests for equality of psychometric functions | |
Bittner et al. | The impact of symmetry on the efficiency of human face perception | |
Frey | CAT in the classroom: Understanding instructor behavior and student perceptions through communication accommodation theory | |
Onwuegbusi et al. | Data-driven group comparisons of eye fixations to dynamic stimuli |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |