论文部分内容阅读
针对前向神经网络(FNN)现有BP学习算法的缺点──收敛速度缓慢、容易陷入局部极小,提出一种快速、全局优化、简单通用的前向神经网络训练算法。这种方法将改进BP算法中的动量项由常量改换为一类关于常量的非线性函数。利用非线性特性,优化过程中能遍历局部极小,同时又具有突跳特性。结合升温策略,该算法在优化精度和网络训练速度两方面均有较大改善。通过对典型算例──异或问题的仿真,验证了算法的有效性和可行性。