论文部分内容阅读
神经网络是人工智能关注焦点之一,过去几十年已获得了丰硕成果。神经网络的动力学行为作为应用和设计的先决条件,在图像处理、模式识别、最优化问题等领域具有广泛的应用。与单稳定性研究相比,多稳定性和鲁棒性呈现出复杂的动力学行为。因此,研究神经网络的多稳定性和鲁棒性,对完善神经网络理论,拓展神经网络在人工智能方向的应用有重要的意义。
通过采用不动点定理、拓扑度定理、非光滑分析、右端不连续微分方程Filippov理论,本文分析了时滞神经网络的多稳定性和鲁棒性。以下是本文的主要研究内容:
讨论了带有饱和激活函数的递归神经网络的多稳定性。本文利用巴拿赫不动点定理和布劳威不动点定理,给出了递归神经网络存在(4k+3)n个平衡点的充分条件,证明存在(2k+2)n个局部指数稳定的平衡点,其中k是正整数。
分析了扰动递归网络的多Lagrange稳定性。通过构造耦合分割集合,利用广义的M矩阵,探讨了在神经网络中平衡点的局部渐近稳定性。利用时滞微分不等式,给出了扰动神经网络误差轨道的Lagrange稳定性。
研究了带有无界时滞Cohen-Grossberg神经网络的?型稳定性。由激活函数的几何特征,通过对Cohen-Grossberg神经网络选取恰当的参数和动态区域,给出了状态空间的动态分割。考虑平衡点和拓扑度之间关系,证明了带有光滑扰动激活函数的Cohen-Grossberg神经网络平衡点代数和具有不变性。比较相关的结果,结论相对较新颖,获到的条件具有较好的兼容性,这在一定程度上拓展了以往的结果。
探讨了带有不连续激活函数的递归神经网络的多?型稳定性和鲁棒性。在右端不连续微分方程Filippov理论下,利用分析方法和不等式技巧,通过对带有不连续激活函数的递归神经网络取适当的参数,获得了神经网络的?型稳定性和鲁棒性的充分条件和代数判据。比较相关的一些结果,这些动力学行为的结果是以往结果的补充和丰富,有助于神经网络联想记忆的设计。
最后对全文进行了总结,并对未来的工作在多稳定性的研究方面进行了展望。
通过采用不动点定理、拓扑度定理、非光滑分析、右端不连续微分方程Filippov理论,本文分析了时滞神经网络的多稳定性和鲁棒性。以下是本文的主要研究内容:
讨论了带有饱和激活函数的递归神经网络的多稳定性。本文利用巴拿赫不动点定理和布劳威不动点定理,给出了递归神经网络存在(4k+3)n个平衡点的充分条件,证明存在(2k+2)n个局部指数稳定的平衡点,其中k是正整数。
分析了扰动递归网络的多Lagrange稳定性。通过构造耦合分割集合,利用广义的M矩阵,探讨了在神经网络中平衡点的局部渐近稳定性。利用时滞微分不等式,给出了扰动神经网络误差轨道的Lagrange稳定性。
研究了带有无界时滞Cohen-Grossberg神经网络的?型稳定性。由激活函数的几何特征,通过对Cohen-Grossberg神经网络选取恰当的参数和动态区域,给出了状态空间的动态分割。考虑平衡点和拓扑度之间关系,证明了带有光滑扰动激活函数的Cohen-Grossberg神经网络平衡点代数和具有不变性。比较相关的结果,结论相对较新颖,获到的条件具有较好的兼容性,这在一定程度上拓展了以往的结果。
探讨了带有不连续激活函数的递归神经网络的多?型稳定性和鲁棒性。在右端不连续微分方程Filippov理论下,利用分析方法和不等式技巧,通过对带有不连续激活函数的递归神经网络取适当的参数,获得了神经网络的?型稳定性和鲁棒性的充分条件和代数判据。比较相关的一些结果,这些动力学行为的结果是以往结果的补充和丰富,有助于神经网络联想记忆的设计。
最后对全文进行了总结,并对未来的工作在多稳定性的研究方面进行了展望。