[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN111401547B - 一种面向乘客流分析的基于循环学习单元的htm设计方法 - Google Patents

一种面向乘客流分析的基于循环学习单元的htm设计方法 Download PDF

Info

Publication number
CN111401547B
CN111401547B CN202010116343.XA CN202010116343A CN111401547B CN 111401547 B CN111401547 B CN 111401547B CN 202010116343 A CN202010116343 A CN 202010116343A CN 111401547 B CN111401547 B CN 111401547B
Authority
CN
China
Prior art keywords
htm
learning unit
time
learning
cyclic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010116343.XA
Other languages
English (en)
Other versions
CN111401547A (zh
Inventor
牛德姣
刘天泉
蔡涛
周时颉
何志刚
薛安荣
盘朝奉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202010116343.XA priority Critical patent/CN111401547B/zh
Publication of CN111401547A publication Critical patent/CN111401547A/zh
Application granted granted Critical
Publication of CN111401547B publication Critical patent/CN111401547B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Neurology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种面向乘客流分析的基于循环学习单元的HTM设计方法,面向乘客流分析应用,在使用HTM分析乘客流时,提出使用面向乘客流分析的基于循环学习单时间池方法,利用具有循环学习能力的循环学习单元代替现有的HTM神经元,将HTM时间池和循环学习单元对序列数据的学习能力相互结合,加强HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能;通过循环学习单元的训练方法,使得循环学习单元能学习乘客流数据中包含的特性,实现HTM对同时蕴含时间跨度较短和较长规律的乘客流更强的学习能力。本发明提高了HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能,从而保证了在处理同时蕴含时间跨度较短和较长规律的乘客流时HTM的有效性和实用性。

Description

一种面向乘客流分析的基于循环学习单元的HTM设计方法
技术领域
本发明涉及人工智能深度学习领域,尤其涉及一种面向乘客流分析的基于循环学习单元的HTM设计方法。
背景技术
乘客流数据中既包含时间跨度较短的每天、每周的规律,也包含时间跨度很大的年或更长周期的规律,这给乘客流的分析带来了很大挑战。
近年来,深度学习算法在图像处理、语音处理、自然语言处理等多个领域得到广泛的应用并产生巨大的影响,这在很大程度上归功于各种新型神经网络模型以及高效的模型训练方法。随着生物神经科学的进步,越来越多的新型神经网络正在被研究。HTM(Hierarchical Temporal Memory)是一种模仿人脑中处理高级认知功能的新皮质部分运作原理的新型人工神经网络,其将接受到的各种模式与记忆中的模式进行匹配,并对下一刻将会接收到的信息作出预测与反应,如此循环往复,从而体现时效性(Temporal)。
当前训练HTM的方法还比较简单,通常使用Hebbian规则修改前后两次激活神经元之间的连接值,以此训练HTM;这种方法在处理同时蕴含时间跨度较短和较长规律的乘客流时难以获得理想的结果;因此需要针对乘客流数据中同时蕴含时间跨度较短和较长规律的特点,提出新的HTM设计方法,提高HTM对乘客流数据的学习能力。
发明内容
本发明的目的在于提供一种面向乘客流分析的基于循环学习单元的HTM设计方法,以解决现有HTM对同时蕴含时间跨度较短和较长规律的乘客流数据学习能力较差的问题。
一种面向乘客流分析的基于循环学习单元的HTM设计方法,包括以下步骤:
步骤1,采集某个较长时间段内,公共交通或出租车等的乘客数量信息,与当时的时间信息一起构建历史乘客数量数据集,使其包含历史乘客数量和时间则两方面的特性,构成具有时序特性的乘客数量流。
步骤2,针对乘客流分析应用,将具有时序特性的乘客数量流作为基于HTM分析方法的输入;
步骤3,使用面向乘客流分析的基于循环学习单时间池方法,利用具有循环学习能力的循环学习单元代替现有的HTM神经元,将HTM时间池和循环学习单元学习序列数据的能力相互结合,加强HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能;
步骤4,通过循环学习单元的训练方法,使得循环学习单元能学习乘客流数据中包含的特性,实现HTM对蕴含时序跨度大规律的乘客流数据更强的学习能力;
步骤5,完成对历史乘客流数据分析,输出在某种条件下对乘客流数据预测。
进一步,所述步骤3中,使用面向乘客流分析的基于循环学习单时间池方法主要包括以下步骤:
步骤3.1,找出HTM时间池中t时刻处于激活状态的循环学习单元;
步骤3.2,使用这些循环学习单元与HTM时间池中t-1时刻激活态循环学习单元之间的树突连接值、以及循环学习单元中上一时刻的隐藏层作为当前循环学习单元的输入;
步骤3.3,计算循环学习单元在t时刻的隐藏层计算方法如下:
表示t时刻HTM中第j个微柱中第i个HTM神经元对应的循环学习单元中隐藏层神经元的激活值;/>表示由HTM中第j个微柱中第i个HTM神经元上的突触连通数值组成的向量;Whx和Whh分别表示循环学习单元中输入层和隐藏层、隐藏层和隐藏层之间的权值矩阵,bh是隐藏层的偏置矩阵,f是使用双曲正切函数tanh构造的非线性激活函数;
步骤3.4,计算循环学习单元在t时刻的输出计算方法如下:
σ表示循环学习单元输出层的激活函数,Wyh表示循环学习单元中隐藏层和输出层之间的权重矩阵;
步骤3.5,计算循环学习单元在t时刻的预测值计算方法如下:
步骤3.6,找出HTM在t时刻对t+1时刻的预测循环学习单元计算方法如下:
表示在t时刻是HTM神经元处于激活态,1代表激活,0代表未激活;μ是设定的超参数。
进一步,所述步骤4中,循环学习单元的训练方法主要包括以下步骤:
步骤4.1,找出HTM时间池中t-1时刻处于预测状态的循环学习单元和t时刻处于激活状态的循环学习单元;
步骤4.2,使用HTM时间池中t时刻这些循环学习单元是否被激活来计算循环学习单元的误差E,计算方法如下:
步骤4.3,调整循环学习单元中的权重和偏置参数,计算方法如下:
其中,θ为[Whx,Whh,Wyh,bh-,θnew表示θ经过训练后最小误差处理后的新值,λ是学习率,表示对函数的某个变量求偏导数。
本发明的有益效果:
1、本发明与现有HTM分析乘客流的方法不同,使用一种面向乘客流分析的基于循环学习单元的HTM设计方法,改进现有HTM,实现对蕴含时间跨度较短和较长规律的乘客流数据的更好的学习。
2、本发明与现有HTM在基本的构成方面存在不同,利用对同时蕴含时间跨度较短和较长规律的乘客流等较强学习能力的循环学习单元,替换HTM中现有的神经元,构建了能工作于HTM中的循环学习单元,改变现有HTM仅依靠调整HTM神经元中突触值学习的方式;与现有HTM在基本的构成方面存在不同。
3、利用循环学习单元在多个时间步上对序列的学习和反馈能力,改变现有HTM仅使用相邻两个时间步信息进行学习的机制,提高HTM对长序列的学习能力。
4、给出了HTM中循环学习单元的学习过程,利用HTM的输入和对预测出循环学习单元是否被激活的反馈训练循环学习单元,增强HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习和检查能力。
附图说明
图1基于循环学习单元新型HTM的结构图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。
一种面向乘客流分析的基于循环学习单元的HTM设计方法,包括以下步骤:
步骤1,采集某个较长时间段内,公共交通或出租车等的乘客数量信息,与当时的时间信息一起构建历史乘客数量数据集,使其包含历史乘客数量和时间则两方面的特性,构成具有时序特性的乘客数量流。
步骤2,针对乘客流分析应用,将具有时序特性的乘客数量流作为基于HTM分析方法的输入;
步骤3,使用面向乘客流分析的基于循环学习单时间池方法,利用具有循环学习能力的循环学习单元代替现有的HTM神经元,将HTM时间池和循环学习单元学习序列数据的能力相互结合,加强HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能;
步骤4,通过循环学习单元的训练方法,使得循环学习单元能学习乘客流数据中包含的特性,实现HTM对蕴含时序跨度大规律的乘客流数据更强的学习能力;
步骤5,完成对历史乘客流数据分析,输出在某种条件下对乘客流数据预测。
上述步骤1中主要包括以下步骤:
步骤1.1,通过公开数据集或实地,在某个较长时间段内,以公共交通或出租车等为对象,采集乘客的数量信息;
步骤1.2,将所采集的乘客数量信息按照采集时间顺序进行排列,构成具有时序特性的历史乘客数量数据集;
步骤1.3,依据乘客数量数据集,构建可以供一种面向乘客流分析的基于循环学习单元的HTM设计方法使用的具有时序特性的乘客数量流,包含历史乘客数量和时间则两方面的信息。
上述步骤3中主要包括以下步骤:
步骤3.1,找出HTM时间池中t时刻处于激活状态的循环学习单元;
步骤3.2,使用这些循环学习单元与HTM时间池中t-1时刻激活态循环学习单元之间的树突连接值、以及循环学习单元中上一时刻的隐藏层作为当前循环学习单元的输入;
步骤3.3,计算循环学习单元在t时刻的隐藏层计算方法如下:
表示t时刻HTM中第j个微柱中第i个HTM神经元对应的循环学习单元中隐藏层神经元的激活值;/>表示由HTM中第j个微柱中第i个HTM神经元上的突触连通数值组成的向量;Whx和Whh分别表示循环学习单元中输入层和隐藏层、隐藏层和隐藏层之间的权值矩阵,bh是隐藏层的偏置矩阵,f是使用双曲正切函数tanh构造的非线性激活函数;
步骤3.4,计算循环学习单元在t时刻的输出计算方法如下:
σ表示循环学习单元输出层的激活函数,Wyh表示循环学习单元中隐藏层和输出层之间的权重矩阵;
步骤3.5,计算循环学习单元在t时刻的预测值计算方法如下:
步骤3.6,找出HTM在t时刻对t+1时刻的预测循环学习单元计算方法如下:
表示在t时刻是HTM神经元处于激活态,1代表激活,0代表未激活;μ是设定的超参数。
上述步骤4中主要包括以下步骤:
步骤4.1,找出HTM时间池中t-1时刻处于预测状态的循环学习单元和t时刻处于激活状态的循环学习单元;
步骤4.2,使用HTM时间池中t时刻这些循环学习单元是否被激活来计算循环学习单元的误差E,计算方法如下:
步骤4.3,调整循环学习单元中的权重和偏置参数,计算方法如下:
其中,θ为[Whx,Whh,Wyh,bh],θnew表示θ经过训练后最小误差处理后的新值,是学习率,表示对函数的某个变量求偏导数。
实施例1:
如图1所示,面向乘客流分析的基于循环学习单元的HTM设计方法的模型结构图,该方法总体思路是利用具有循环学习能力的循环学习单元代替现有HTM神经元,利用循环学习单元在多个时间步上对序列的学习和反馈能力,实现HTM对序列数据更强的学习能力。图1中右侧所示即为循环学习单元,其中包括输入单元(xij)、输出单元(yij)、隐藏单元(hij)。由图1可知,有一条单向流动的信息流是从输入单元到达隐藏单元的。与此同时,另一条单向流动的信息流从隐藏单元到达输出单元。即HTM中循环学习单元突触的连通值作为循环学习单元每一时刻的输入,循环学习单元隐藏层的输入还包含上一时刻隐藏层的状态,从而计算和/>最终训练并得到模型。
实施例2:
以一个HTM中循环学习单元的完整计算过程为例,它由多个时序关联的不同计算部分组成。首先,在输入时刻t,对于处于激活态的循环学习单元以及t-1时刻与之相连接的处于激活态的循环学习单元之间突触连通数值,其组成的向量为即为各个时刻HTM微柱上处于不同位置的循环学习单元的输入。
根据提出的HTM设计方法中,首先需要确定出各个时刻处于激活态循环学习单元。现假设j={1,2,3,..,m}表示的是HTM中的微柱编号,i={1,2,3,..,n}表示的是微柱中的循环学习单元编号。例如,使用c1,2表示第2微柱中第1个循环学习单元,HTM神经元微柱有10个,经过HTM空间池计算过程后得到激活微柱3个,其中位于微柱2上的第1个循环学习单元(c1,2)处于激活状态。另外确定出与之相连的激活循环学习单元有c2,2和c3,1,在实时接收到当前t时刻的他们之前的连通值组成的向量(0.4,0.6,0.3)和t-1时刻此循环学习单元的隐藏层输出结果带入公式中依次计算并最终得到此t刻输出为0.6。然后根据该循环学习单元输出预测值是否达到实验中设定的阈值(0.8)作为判断出t+1时刻预测循环学习单元。
具体而言,按照图1所示的基于循环学习单元的HTM结构图,根据输入编码和上一时刻隐藏层的输出/>计算循环学习单元的当前隐藏层输入/>输出/>和最终预测循环学习单元的训练过程在于最小化损失函数E,可采用随机梯度下降法更新参数。
计算方法分别如下所示:
其中,表示t时刻HTM中第j个微柱中第i个HTM神经元对应的循环学习单元中隐藏层神经元的激活值。Whx和Whh分别表示循环学习单元中输入层和隐藏层、隐藏层和隐藏层之间的权值矩阵,bh是隐藏层的偏置矩阵,f是使用双曲正切函数tanh构造的非线性激活函数。/>表示循环学习单元在t时刻的输出,/>表示循环学习单元在t时刻的预测值。/>表示在t时刻是HTM神经元处于激活态,1代表激活,0代表未激活;μ是设定的超参数。
最后,循环学习单元的训练过程在于最小化损失函数E,然后基于损失函数的梯度在循环学习单元中进行反向传播更新网络各层权值参数,正向输出和反向传播在训练数据上迭代进行,每个循环学习单元会采用随机梯度下降(SGD)修正参数,直到所有参数收敛或达到某些预设的终止条件为止。根据HTM时间池中t时刻这些循环学习单元是否被激活的信息,使用下面公式计算循环学习单元的误差值E。计算方法如下公式:
从而由下面公式调整循环学习单元中的权重和偏置参数。
其中,θ为[Whx,Whh,Wyh,bh]是需要优化的参数,λ是循环学习单元的学习率,表示求偏导数。
综上,本发明的一种面向乘客流分析的基于循环学习单元的HTM设计方法,提出使用面向乘客流分析的基于循环学习单时间池方法,利用具有循环学习能力的循环学习单元代替现有的HTM神经元,将HTM时间池和循环学习单元对序列数据的学习能力相互结合,加强HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能;通过循环学习单元的训练方法,使得循环学习单元能学习乘客流数据中包含的特性,实现HTM对同时蕴含时间跨度较短和较长规律的乘客流更强的学习能力。本发明将对生物大脑新皮质功能的模拟和传统循环神经网络机制相结合,提高了HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能,从而保证了在处理同时蕴含时间跨度较短和较长规律的乘客流时HTM的有效性和实用性。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (1)

1.一种面向乘客流分析的基于循环学习单元的HTM设计方法,其特征在于,包括以下步骤:
步骤1,采集某个较长时间段内,公共交通或出租车等的乘客数量信息,与当时的时间信息一起构建历史乘客数量数据集,使其包含历史乘客数量和时间则两方面的特性,构成具有时序特性的乘客数量流;
步骤2,针对乘客流分析应用,将具有时序特性的乘客数量流作为基于HTM分析方法的输入;
步骤3,使用面向乘客流分析的基于循环学习单时间池方法,利用具有循环学习能力的循环学习单元代替现有的HTM神经元,将HTM时间池和循环学习单元学习序列数据的能力相互结合,加强HTM对同时蕴含时间跨度较短和较长规律的乘客流的学习功能;
步骤4,通过循环学习单元的训练方法,使得循环学习单元能学习乘客流数据中包含的特性,实现HTM对蕴含时序跨度大规律的乘客流数据更强的学习能力;
步骤5,完成对历史乘客流数据分析,输出在某种条件下对乘客流数据预测;
所述步骤3中主要包括以下步骤:
步骤3.1,找出HTM时间池中t时刻处于激活状态的循环学习单元;
步骤3.2,使用这些循环学习单元与HTM时间池中t-1时刻激活态循环学习单元之间的树突连接值、以及循环学习单元中上一时刻的隐藏层作为当前循环学习单元的输入;
步骤3.3,计算循环学习单元在t时刻的隐藏层计算方法如下:
表示t时刻HTM中第j个微柱中第i个HTM神经元对应的循环学习单元中隐藏层神经元的激活值;/>表示由HTM中第j个微柱中第i个HTM神经元上的突触连通数值组成的向量;Whx和Whh分别表示循环学习单元中输入层和隐藏层、隐藏层和隐藏层之间的权值矩阵,bh是隐藏层的偏置矩阵,f是使用双曲正切函数tanh构造的非线性激活函数;
步骤3.4,计算循环学习单元在t时刻的输出计算方法如下:
σ表示循环学习单元输出层的激活函数,Wyh表示循环学习单元中隐藏层和输出层之间的权重矩阵;
步骤3.5,计算循环学习单元在t时刻的预测值计算方法如下:
步骤3.6,找出HTM在t时刻对t+1时刻的预测循环学习单元计算方法如下:
表示在t时刻是HTM神经元处于激活态,1代表激活,0代表未激活;μ是设定的超参数;
所述步骤4中主要包括以下步骤:
步骤4.1,找出HTM时间池中t-1时刻处于预测状态的循环学习单元和t时刻处于激活状态的循环学习单元;
步骤4.2,使用HTM时间池中t时刻这些循环学习单元是否被激活来计算循环学习单元的误差E,计算方法如下:
步骤4.3,调整循环学习单元中的权重和偏置参数,计算方法如下:
其中,θ为[Whx,Whh,Wyh,bh],θnew表示θ经过训练后最小误差处理后的新值,λ是学习率,表示对函数的某个变量求偏导数。
CN202010116343.XA 2020-02-25 2020-02-25 一种面向乘客流分析的基于循环学习单元的htm设计方法 Active CN111401547B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010116343.XA CN111401547B (zh) 2020-02-25 2020-02-25 一种面向乘客流分析的基于循环学习单元的htm设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010116343.XA CN111401547B (zh) 2020-02-25 2020-02-25 一种面向乘客流分析的基于循环学习单元的htm设计方法

Publications (2)

Publication Number Publication Date
CN111401547A CN111401547A (zh) 2020-07-10
CN111401547B true CN111401547B (zh) 2023-08-22

Family

ID=71428529

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010116343.XA Active CN111401547B (zh) 2020-02-25 2020-02-25 一种面向乘客流分析的基于循环学习单元的htm设计方法

Country Status (1)

Country Link
CN (1) CN111401547B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112269729A (zh) * 2020-11-04 2021-01-26 江苏瑞祥科技集团有限公司 面向网络购物平台大规模服务器集群的负载智能分析方法
CN112330361B (zh) * 2020-11-04 2024-06-07 江苏瑞祥科技集团有限公司 面向线上购物用户消费习惯的智能大数据分析设计方法
CN112580799B (zh) * 2020-12-10 2024-04-09 江苏大学 一种面向多核处理器的并发htm空间池设计方法
CN112561063B (zh) * 2020-12-21 2024-03-22 江苏大学 一种基于微柱激活程度的htm时间池训练方法
CN114387028B (zh) * 2022-01-13 2024-02-23 瑞祥全球购超市有限公司 一种面向网络购物平台的商品需求量的智能分析方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104768831A (zh) * 2012-11-08 2015-07-08 三菱电机株式会社 运行时刻表评价装置以及运行时刻表处理系统
JP2018039441A (ja) * 2016-09-09 2018-03-15 株式会社日立製作所 評価システム及び評価方法
CN109685252A (zh) * 2018-11-30 2019-04-26 西安工程大学 基于循环神经网络和多任务学习模型的建筑能耗预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104768831A (zh) * 2012-11-08 2015-07-08 三菱电机株式会社 运行时刻表评价装置以及运行时刻表处理系统
JP2018039441A (ja) * 2016-09-09 2018-03-15 株式会社日立製作所 評価システム及び評価方法
CN109685252A (zh) * 2018-11-30 2019-04-26 西安工程大学 基于循环神经网络和多任务学习模型的建筑能耗预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TIANQUAN LIU,.The Asynchronous Training Algorithm Based on Sampling and Mean Fusion for Distributed RNN.《SPECIAL SECTION ON URBAN COMPUTING AND INTELLIGENCE》.2019,全文. *

Also Published As

Publication number Publication date
CN111401547A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN111401547B (zh) 一种面向乘客流分析的基于循环学习单元的htm设计方法
Alaloul et al. Data processing using artificial neural networks
Yamazaki et al. The cerebellum as a liquid state machine
KR20170031695A (ko) 신경망들에서의 콘볼루션 동작의 분해
CN110223785A (zh) 一种基于深度学习的传染病传播网络重构方法
Ahmadi et al. Learning fuzzy cognitive maps using imperialist competitive algorithm
CN111382840B (zh) 一种面向自然语言处理的基于循环学习单元的htm设计方法
CN112269729A (zh) 面向网络购物平台大规模服务器集群的负载智能分析方法
Qi et al. Jointly learning network connections and link weights in spiking neural networks.
CN110197251A (zh) 基于深度学习网络的预测方法、装置、设备及存储介质
Anochi et al. Self-configuring two types of neural networks by mpca
Salimi et al. Extended mixture of MLP experts by hybrid of conjugate gradient method and modified cuckoo search
Han et al. A survey on spiking neural networks
CN109190692B (zh) 基于生物大脑认知和抉择机理的运动物体识别方法及系统
Mohamed et al. Adaptive trainer for multi-layer perceptron using artificial gorilla troops optimizer algorithm
CN109871944A (zh) 受大脑抑制反馈机制启发的人工神经网络构建方法及系统
Zhang Granular Neural Networks
Sarfraz et al. A study of biologically plausible neural network: The role and interactions of brain-inspired mechanisms in continual learning
Espinal et al. Comparing metaheuristic algorithms on the training process of spiking neural networks
Woźniak et al. Review of advances in neural networks: Neural design technology stack
Jeon et al. Continual Representation Learning for Images with Variational Continual Auto-Encoder.
Nayak et al. GA based polynomial neural network for data classification
Hamian et al. A Novel Training Approach in Deep Spiking Neural Network Based on Fuzzy Weighting and Meta-heuristic Algorithm
Islam et al. Pattern Recognition Using Neuromorphic Computing
CN112819142B (zh) 一种短时突触可塑性工作记忆计算系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant