您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 具有边缘化腐败隐藏层的神经网络

  2. 过度拟合是神经网络(NNs)训练中的重要问题。 当训练集中的样本数受到限制时,使用人工生成的样本显式扩展训练集是一种有效的解决方案。 但是,该方法存在计算成本高的问题。 在本文中,我们提出了一种新的学习方案,以隐式扩展的训练集训练单隐藏层前馈神经网络(SLFN)。 通过用指数族分布的噪声破坏训练样本的隐藏层输出来扩展训练集。 当损坏的数量接近无穷大时,在目标函数中,显式生成的样本可以表示为期望的形式。 我们的方法称为边缘化损坏隐藏层(MCHL),它通过最小化损坏分布下的损失函数期望值来训练SLF
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:197632
    • 提供者:weixin_38606169