很明显,前向神经网络的学习速度通常远低于要求,这一直是其应用的主要瓶颈。这两个主要的原因是:1)神经网络的学习速度慢,这两个原因都是基于神经网络的迭代学习。与传统的学习算法不同,本文提出了一种新的单隐层前馈神经网络(SLFNs)的学习算法,该算法随机选择输入权值并解析地确定slfn的输出权值。从理论上讲,该算法在极快的学习速度下能够提供最佳的泛化性能。基于真实世界标杆函数逼近和分类问题(包括大型复杂应用)的实验结果表明,新算法在某些情况下可以产生最佳的泛化性能,并且比传统的前馈神经网络学习算法学