您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ADS 混频器 momentum S参数模拟和优化 电路包络模拟

  2. 电路模拟基础 系统模拟基础 DC模拟和电路模型 AC模拟和调整 S参数模拟和优化 滤波器:瞬态,设计指导,momentum(无源电路的2.5D模拟工具),DAC 谐波平衡模拟 电路包络模拟 最终电路/系统模拟
  3. 所属分类:专业指导

    • 发布日期:2010-08-13
    • 文件大小:260096
    • 提供者:tty577586
  1. Momentum优化教程

  2. ADS版图优化仿真手册,讲解了ADS从原理图到版图转换过程,并说明了如何在版图中队结构进行优化
  3. 所属分类:硬件开发

    • 发布日期:2011-11-13
    • 文件大小:940032
    • 提供者:qzhaols
  1. caffe中优化方法比较

  2. SGD、Momentum、Nesterov、Adagrad、Adadelta、RMSprop、Adam、Adamax和Nadam优缺点比较
  3. 所属分类:深度学习

    • 发布日期:2017-12-27
    • 文件大小:143360
    • 提供者:baidu_26788951
  1. ADS Momentum电磁仿真设计参考资料

  2. 本套教程是ADS 视频培训系列教程的第二辑;主要讲述如何使用ADS Momentum 电磁仿真器进行微波平面电路设计和优化,以及在ADS 中如何进行 电磁电路的联合仿真(EM/Circuit Co-Simulation)。面向对象为对ADS 的基本操 作有一定了解的, 从事微波射频电路和系统设计的工程技术人员。 Advanced Design System 是Agilent 公司推出的微波电路和通信系统仿真软 件,是国内各大学和研究所使用最多射频微波仿真设计的软件之一。其功能非 常强大,仿真手
  3. 所属分类:其它

    • 发布日期:2018-03-19
    • 文件大小:3145728
    • 提供者:cracked_hitter
  1. 深度学习笔记:优化方法总结

  2. 深度学习笔记:优化方法总结(Momentum,RMSProp,Adam),翻译的文档(20180721),优化学习入门很好的资料。
  3. 所属分类:深度学习

    • 发布日期:2018-07-21
    • 文件大小:713728
    • 提供者:tox33
  1. keras优化器详解

  2. 一份详细的keras优化器详细总结。基于梯度的优化方法 1 0. 梯度下降 2 1. 批量梯度下降Batch gradient descent(BGD) 3 2. 随机梯度下降 Stochastic gradient descent(SGD) 4 3. 小批量梯度下降 Mini-batch gradient descent(MBGD) 5 4. Momentum(动量) 7 5. Adagrad 7 6. Adadelta 9 7. RMSprop 9 8. Adam 10 优化器的选择 11
  3. 所属分类:深度学习

    • 发布日期:2018-10-05
    • 文件大小:886784
    • 提供者:nodiecanfly
  1. 梯度下降的优化算法概览.pdf

  2. 本文档我学习梯度下降优化算法的总结,开头是深度学习的基本介绍,了解为什么要用梯度下降算法,以及传统的梯度下降算法的弊端,后面的主要章节是从momentum和adaptive两方面,进行梯度下降优化算法的展开,有详细的推导过程和公式图解,基本涉及了目前绝大部分的深度学习优化器,对于想深入了解深度学习优化的同学很有帮助。
  3. 所属分类:深度学习

    • 发布日期:2019-06-28
    • 文件大小:9437184
    • 提供者:jh1137921986
  1. Python-YellowFin基于momentumSGD的自动调优优化器无需手动指定学习速率和动量

  2. YellowFin 基于momentum SGD的自动调优优化器,无需手动指定学习速率和动量
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:7340032
    • 提供者:weixin_39840387
  1. 基于ADS的平行耦合微带线带通滤波器的设计及优化

  2. 绍一种借助ADS( Advanced Des ign System )软件进行设计和优化平行耦合微带线带通滤波器的方法, 给出了清晰的设计步骤, 最后结合设计方法利用ADS给出一个中心频率为2. 6 GHz, 带宽为200MH z的微带带通滤波器的设计及优化实例和仿真结果, 并进一步给出电路版图Momentum 仿真结果。仿真结果表明: 这种方法是可行的, 满足设计的要求。
  3. 所属分类:其它

    • 发布日期:2020-08-08
    • 文件大小:660480
    • 提供者:weixin_38614812
  1. 基于ADS的平行耦合微带线带通滤波器的设计及优化

  2. 介绍一种借助ADS(AdvancedDesignSySTem)软件进行设计和优化平行耦合微带线带通滤波器的方法,给出了清晰的设计步骤,最后结合设计方法利用ADS给出一个中心频率为2.6GHz,带宽为200MHz的微带带通滤波器的设计及优化实例和仿真结果,并进一步给出电路版图Momentum仿真结果。仿真结果表明:这种方法是可行的,满足设计的要求。
  3. 所属分类:其它

    • 发布日期:2020-10-23
    • 文件大小:254976
    • 提供者:weixin_38667835
  1. 单片机与DSP中的基于ADS的平行耦合微带线带通滤波器的设计及优化

  2. 摘  要: 介绍一种借助ADS( Advanced Des ign System )软件进行设计和优化平行耦合微带线带通滤波器的方法, 给出了清晰的设计步骤, 最后结合设计方法利用ADS给出一个中心频率为2. 6 GHz, 带宽为200MH z的微带带通滤波器的设计及优化实例和仿真结果, 并进一步给出电路版图Momentum 仿真结果。仿真结果表明: 这种方法是可行的, 满足设计的要求。   滤波器是用来分离不同频率信号的一种器件。它的主要作用是抑制不需要的信号, 使其不能通过滤波器, 只让需
  3. 所属分类:其它

    • 发布日期:2020-11-03
    • 文件大小:490496
    • 提供者:weixin_38735544
  1. 浅谈keras中的目标函数和优化函数MSE用法

  2. mean_squared_error / mse 均方误差,常用的目标函数,公式为((y_pred-y_true)**2).mean() model = Sequential() model.add(Dense(64, init='uniform', input_dim=10)) model.add(Activation('tanh')) model.add(Activation('softmax')) sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9,
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:44032
    • 提供者:weixin_38581455
  1. Keras SGD 随机梯度下降优化器参数设置方式

  2. SGD 随机梯度下降 Keras 中包含了各式优化器供我们使用,但通常我会倾向于使用 SGD 验证模型能否快速收敛,然后调整不同的学习速率看看模型最后的性能,然后再尝试使用其他优化器。 Keras 中文文档中对 SGD 的描述如下: keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False) 随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量 参数: lr:大或等于0的浮点数,学习率 mom
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:66560
    • 提供者:weixin_38545332
  1. 在pytorch中动态调整优化器的学习率方式

  2. 在深度学习中,经常需要动态调整学习率,以达到更好地训练效果,本文纪录在pytorch中的实现方法,其优化器实例为SGD优化器,其他如Adam优化器同样适用。 一般来说,在以SGD优化器作为基本优化器,然后根据epoch实现学习率指数下降,代码如下: step = [10,20,30,40] base_lr = 1e-4 sgd_opt = torch.optim.SGD(model.parameters(), lr=base_lr, nesterov=True, momentum=0.9) d
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:61440
    • 提供者:weixin_38747906
  1. Adam优化算法原理详解(吴恩达深度学习笔记)

  2. 在介绍Adam之前首先介绍一下momentum和RMSprop优化算法。 一、momentum 1、指数加权平均数 指数加权平均数不仅考虑了当前数值也涵盖了以前的数据对现在的影响。 解释指数加权平均值名称的由来: 指数加权平均值的应用: 使用这种方法进行数据的估计可能不是最精确的,但是这种方法计算简单,节省内存。 指数加权平均数因为设置的第0个值为0,所以对于前几个数都会出现严重的偏差,所以引入了偏差修正。 2.指数加权平均数的偏差修正 3.momentum算法 此算法是梯度下降算法的一种改进
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:464896
    • 提供者:weixin_38516863
  1. L21 Momentum RMSProp等优化方法

  2. airfoil4755 下载 链接:https://pan.baidu.com/s/1YEtNjJ0_G9eeH6A6vHXhnA 提取码:dwjq 11.6 Momentum 在 Section 11.4 中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:199680
    • 提供者:weixin_38564598
  1. momentum-源码

  2. Create React App入门 该项目是通过引导的。 可用脚本 在项目目录中,可以运行: npm start 在开发模式下运行应用程序。打开在浏览器中查看它。 如果您进行编辑,则页面将重新加载。您还将在控制台中看到任何棉绒错误。 npm test 在交互式监视模式下启动测试运行器。有关更多信息,请参见关于的部分。 npm run build 构建生产到应用程序build文件夹。它在生产模式下正确捆绑了React,并优化了构建以获得最佳性能。 生成被最小化,并且文件名包括哈希值。您的应用已准
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:566272
    • 提供者:weixin_42129412
  1. optimizers:实现在测试功能上运行的各种优化程序以进行优化-源码

  2. 优化器 使用Python和数值库的各种优化算法的实现。 该存储库可作为本文中使用的可视化和评估的来源。 任务清单 动量的随机梯度下降( ) AdaGrad( ) AdaDelta( D.Zeiler ) RMSProp( ) 亚当(亚当( ) NAdam(多扎特( )) AMSGrad( ) 实作 在查看每种算法的完整源代码。 1.具有动量的随机梯度下降 def step ( self , x , y ): g_t = self . func . df ( x ,
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:171966464
    • 提供者:weixin_42121905
  1. (10) 优化器

  2. 文章目录1.优化器种类2.介绍2.1 tf.train.GradientDescentOptimizer 基础梯度下降算法批量梯度下降/标准梯度下降(Batch Gradient Descent,BGD)随机梯度下降法(Stochastic gradient descent, SGD)小批量梯度下降法(MinBatch Stochastic gradient descent, MSGD)2.2 Momentum : tf.train.MomentumOptimizer2.3 Adagrad
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:619520
    • 提供者:weixin_38641111
  1. 基于ADS的平行耦合微带线带通滤波器的设计及优化

  2. 摘  要: 介绍一种借助ADS( Advanced Des ign System )软件进行设计和优化平行耦合微带线带通滤波器的方法, 给出了清晰的设计步骤, 结合设计方法利用ADS给出一个中心频率为2. 6 GHz, 带宽为200MH z的微带带通滤波器的设计及优化实例和仿真结果, 并进一步给出电路版图Momentum 仿真结果。仿真结果表明: 这种方法是可行的, 满足设计的要求。   滤波器是用来分离不同频率信号的一种器件。它的主要作用是抑制不需要的信号, 使其不能通过滤波器, 只让需要的
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:679936
    • 提供者:weixin_38693506
« 12 3 »