您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. sklearn0.19中文文档

  2. sklearn0.19中文文档 PDF格式高清。 .1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1.4. 多任务 Lasso 1.1.5. 弹性网络
  3. 所属分类:机器学习

    • 发布日期:2018-10-30
    • 文件大小:14680064
    • 提供者:hardpen2013
  1. scikit-learn-0.21.3-中文文档.pdf

  2. scikit-learn 是基于 Python 语言的机器学习工具 简单高效的数据挖掘和数据分析工具 可供大家在各种环境中重复使用 建立在 NumPy ,SciPy 和 matplotlib 上 开源,可商业使用 - BSD许可证1.监督学习 1广义线性模型 °1.1.1普通最小二乘法 1.1.2岭回归 1.1.3LaSs0 o1.1.4多任务 Lasso 115弹性网络 o116多任务弹性网络 1.1.7最小角回归 1.1. 8 LARS Lasso 1.19正交匹配追踪法(OMP 1.1.1
  3. 所属分类:机器学习

    • 发布日期:2019-08-24
    • 文件大小:41943040
    • 提供者:h394266861
  1. Keras SGD 随机梯度下降优化器参数设置方式

  2. 主要介绍了Keras SGD 随机梯度下降优化器参数设置方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:64512
    • 提供者:weixin_38516804
  1. Keras SGD 随机梯度下降优化器参数设置方式

  2. SGD 随机梯度下降 Keras 中包含了各式优化器供我们使用,但通常我会倾向于使用 SGD 验证模型能否快速收敛,然后调整不同的学习速率看看模型最后的性能,然后再尝试使用其他优化器。 Keras 中文文档中对 SGD 的描述如下: keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False) 随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量 参数: lr:大或等于0的浮点数,学习率 mom
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:66560
    • 提供者:weixin_38545332
  1. 关于torch.optim的灵活使用详解(包括重写SGD,加上L1正则)

  2. torch.optim的灵活使用详解 1. 基本用法: 要构建一个优化器Optimizer,必须给它一个包含参数的迭代器来优化,然后,我们可以指定特定的优化选项, 例如学习速率,重量衰减值等。 注:如果要把model放在GPU中,需要在构建一个Optimizer之前就执行model.cuda(),确保优化器里面的参数也是在GPU中。 例子: optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9) 2. 灵活的设置各
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:56320
    • 提供者:weixin_38607195