论文部分内容阅读
人工神经网络,又简称神经网络,是以生物神经网络的功能结构为基础而抽象出来的一种用于实现人工智能的数学模型。它是基于神经科学研究成果而提出的一种自适应、非线性处理系统,该系统通过大量处理单元的相互作用来实现类似于大脑神经网络对信息的记忆和处理。由于人脑中的神经连接具有相当高的复杂度和密度,因此人工神经网络今后也必将会向着复杂化和大规模化的方向发展。为实现这一目标就需要神经网络中的两个重要组件——神经元和突触,具有纳米级规模和低能耗特性。由于突触需要对接受到的各种信号具有可塑性,需要记忆系统动态变化的历史,还需要能将对应的变化转换成连续的数据存储起来。因此突触的选择对于人工神经网络的成功与否至关重要。而忆阻器的出现为这一问题的解决带来了希望。忆阻器是由蔡少棠教授在1971年对电路理论研究过程中,从其完备性的角度出发提出的,该元件填补了本应存在但却未被提及的磁通量和电荷之间的关系。至此,基本电路元件的种类在原有的电容、电阻、电感的基础上扩充成了四个。自2008年惠普实验室发现纳米级忆阻器实物以来,忆阻器就以其独特的非易失性和记忆特性吸引了世界的广泛关注,并在阻变式存储器、人工神经网络、信号处理等方面获得了广泛应用。忆阻器所具有的这些特有的性能,使得它非常适合在人工神经网络电路实现中充当一个合格的突触。本文介绍了几种常见的忆阻器模型,并借助数值仿真的方法分析了惠普模型忆阻器的基本特性。介绍了STDP学习规则对应的两种数学模型。采用基于非对称时间窗的STDP作为忆阻神经网络的学习规则,结合具有自适应突变和拓扑变异的基因算法,完成了对不同模型忆阻器学习性能的比较。在现有忆阻器的基础上提出了混合模型忆阻器的构想,并验证了该模型忆阻器用于忆阻神经网络的学习效果优于原有忆阻器模型。针对以HEBB学习规则对忆阻神经网络进行学习还原巴普洛夫实验存在的缺陷,提出了更贴近动物大脑思维的忆阻神经网络的学习,即以对称时间窗的STDP数学模型作为神经网络学习规则,结合遗忘模型忆阻器作为网络突触,验证了关于忆阻神经网络具有联想学习、修正及遗忘能力的合理性。为今后研究更具仿生智能的神经网络提供了依据。