您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. k-fold crossvalidation 数据重新分配脚本

  2. 用于k-fold cross-validation的数据重新分配脚本,两个参数。第一个参数只能取1或2。第二个参数根据第一个参数不同而意义不同。作用:将给定的文件不同行打乱顺序并分成n块。
  3. 所属分类:其它

    • 发布日期:2009-08-27
    • 文件大小:2048
    • 提供者:zzduoduozz
  1. The Elements of Statistical Learning

  2. Preface to the Second Edition vii Preface to the First Edition xi 1 Introduction 1 2 Overview of Supervised Learning 9 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2 Variable Types and Terminology . . . . . . . . . . . . .
  3. 所属分类:Web开发

    • 发布日期:2009-10-28
    • 文件大小:8388608
    • 提供者:yangyx_006
  1. Hands On Transfer Learning with Py Implement Advanced DL and NN Models Using T,K

  2. Deep learning simplified by taking supervised, unsupervised, and reinforcement learning to the next level using the Python ecosystem Key Features • Build deep learning models with transfer learning principles in Python • implement transfer learning
  3. 所属分类:深度学习

    • 发布日期:2018-10-29
    • 文件大小:70254592
    • 提供者:wang1062807258
  1. Existence of 4-fold perfect (v,{5,8},1)- Mendelsohn design

  2. 4-重完美(v,{5,8},1)-MD 的存在性,项鸣晓,徐允庆,令v是正整数,K是正整数集,(v,K,1)-Mendelsohn设计,简记为(v,K,1)-MD 是对集(X,B) 其中X是v-点的集合,B是循环有序集X(称区组�
  3. 所属分类:其它

    • 发布日期:2019-12-30
    • 文件大小:424960
    • 提供者:weixin_38586186
  1. Deep Learning with Python[www.rejoiceblog.com].pdf

  2. 非常棒的入门书籍,详细介绍了深度学习的基本概念、适用范围以及在Python下的实现方法。 Deep learning FRANCOIS CHOLLET MANNING SHELTER ISLAND For online information and ordering of this and other manning books, please visit www.manning.com.Thepublisheroffersdiscountsonthisbookwhenorderedinqu
  3. 所属分类:深度学习

    • 发布日期:2019-07-20
    • 文件大小:11534336
    • 提供者:fanjinzhi
  1. Mathematics for Machine Learning

  2. Mathematics for Machine Learning,作者是Marc Peter Deisenroth, A Aldo Faisal, Cheng Soon Ong 这本书的书签应该是正确的Contents List of illustrations Foreword Part i Mathematical Foundations 1 Introduction and motivation 11 1.1 Finding Words for Intuitions 12 1.2 Two
  3. 所属分类:机器学习

    • 发布日期:2019-03-16
    • 文件大小:8388608
    • 提供者:lex_glimmer
  1. [笔记2]动手学深度学习

  2. 资料来源:伯禹学习平台。 概念整理 K折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validation)。在K折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。 L2 范数正
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:759808
    • 提供者:weixin_38743054
  1. task 过拟合欠拟合

  2. 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 K折交叉验证 由于验证数据集不参与模型训练,当训练数据
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:145408
    • 提供者:weixin_38691319
  1. pytorch学习2

  2. 1、过拟合和欠拟合 训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。K折交叉验证由于验证数据集不参与模型训练
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38679839
  1. pytorchTask03打卡

  2. pytorchTask03打卡 文章目录pytorchTask03打卡1.过拟合、欠拟合以及解决方案1.1训练误差和泛化误差1.2验证数据集与K-fold验证1.3过拟合和欠拟合1.4导致过拟合和欠拟合的关键因素2.L2正则化3.drop out4.循环神经网络进阶4.1 RNN简介4.1.1RNN的起因4.1.2为什么需要RNN4.1.3RNN都能做什么4.1.4 LSTM4.1.5 GRU4.2 循环网络的向后传播(BPTT)4.3 词嵌入(word embedding)4.4 其他重要概念
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:152576
    • 提供者:weixin_38734361
  1. 公益学习AI打卡之Task3

  2. 1.过拟合、欠拟合及解决方法 在机器学习的过程中,机器学习的效果和实际的真实值总会存在一部分的偏差。训练过程中出现的偏差叫做训练误差,而在测试过程中出现的误差称之为泛化误差。在模型的数据准备期,会将数据集分为训练数据和测试数据,测试数据就是从总体随机选取的一部分数据。当总体数据集的数量比较小时,可使用K折交叉验证(K-fold cross-validation的方法: 首先把总体数据集平分成为K等份,然后依次取出其中的一份作为测试数据集,剩下的作为训练数据集,然后进行K次训练和测试,因此每次实验
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:144384
    • 提供者:weixin_38553791
  1. 《动手学深度学习》Task03 :过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 一、模型选择、过拟合和欠拟合 模型选择 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。 K折交叉验证 由于验证数据集不参与模型训练,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38743084
  1. Task03:过拟合、欠拟合及梯度爆炸与梯度消失

  2. K折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validation)。在K折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。 过拟合和欠拟合 模型训练中经常出现的两类典型问题
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:49152
    • 提供者:weixin_38706603
  1. mcs_kfold:mcs_kfold代表“蒙特卡洛分层k折”。 该库尝试在所有折叠中均等地分配离散类别变量。 这种方法的最大优点是可以应用于多维目标-源码

  2. mcs_kfold mcs_kfold代表“蒙特卡洛分层k折”。 该库试图在所有折叠中均等地分配离散/分类变量。 在内部,更改种子并重复分层k倍试验,以找到在指定变量的分布中熵最少的种子。 这种方法的最大优点是可以应用于多维目标。 用法 from mcs_kfold import MCSKFold mcskf = MCSKFold ( n_splits = num_cv , shuffle_mc = True , max_iter = 100 ) for fold , ( train_idx
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:142336
    • 提供者:weixin_42099116
  1. 基于多光谱卷积神经网络的太阳能电池表面缺陷检测

  2. 具有异质纹理和复杂背景的太阳能电池表面的相似且不确定的缺陷检测是太阳能电池制造的挑战。 传统的制造过程依赖于人眼检测,这需要大量的工人而没有稳定和良好的检测效果。 为了解决该问题,本文设计了一种基于多光谱深度卷积神经网络(CNN)的视觉缺陷检测方法。 首先,建立所选的CNN模型。 通过调整模型的深度和宽度,可以评估模型深度和核尺寸对识别结果的影响。 选择最佳的CNN模型结构。 其次,分析了太阳能电池彩色图像的光谱特征。 发现各种缺陷在不同的光谱带中表现出不同的可区别特征。 因此,构建了多光谱CN
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:1048576
    • 提供者:weixin_38535364
  1. kfold-x验证-源码

  2. 概述 该项目实现了KNN模型和k倍交叉验证来衡量其性能。 怎么跑 该项目使用 。 只需运行docker build -t kfold . && docker run -p 8080:8080 kfold docker build -t kfold . && docker run -p 8080:8080 kfold ,并使用输出中的URL来访问K-Fold Cross Validation Experiments.ipynb Jupyter笔记本。
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:65536
    • 提供者:weixin_42139460
  1. OLSRegression:这是一个简单的项目,用于展示OLS回归算法的实现-源码

  2. 普通最小二乘(OLS)回归 这是一个简单的项目,展示了OLS回归算法的实现。 在此特定实现中,将发生以下情况: 1. input independent and dependent variable data is split into "training" and "prediction" sets. 2. Within the training set, k-fold crossvalidation is used to generate an Akaike Inform
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:52224
    • 提供者:weixin_42131352
  1. 过拟合、梯度消失、RNN进阶

  2. 一、过拟合和欠拟合 训练误差:指模型在训练数据集上表现出的误差。 泛化误差:指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。(ML应关注此项) 如何计算训练误差或者泛化误差,可以用损失函数。【损失函数:均方误差(线性回归)、交叉熵损失函数(softmax回归)】 验证集的作用:进行模型选择。 K折交叉验证:由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validatio
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:241664
    • 提供者:weixin_38744435
  1. 过拟合与欠拟合、梯度消失与爆炸、RNN进阶

  2. 过拟合与欠拟合 专业名词解释: 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出来的误差的期望,我们通常用测试集上的误差来近似看待. 验证集(validation set):预留一部分训练数据集出来用于验证和看模型的表现结果,并用来进行模型选择 K折交叉验证(K-fold cross-validation):针对训练数据不够用时的一种改善方法。把原始训练数据集分割成不重合的K份子数据集,然后做K次的训练和验证,最后对这K次的训练误差和验证误差分别求平均
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:321536
    • 提供者:weixin_38717171
  1. Task3: 过拟合、欠拟合;梯度消失,梯度爆炸;循环神经网络进阶

  2. 过拟合、欠拟合及解决方案知识点总结 区分两种误差 训练误差为训练数据集(training data)上的误差; 泛化误差为模型在任意一个测试数据样本上表现的误差的期望(常通过测试数据(test data)集上的误差来近似)。使用损失函数(loss function)来计算两种误差(e.g. 平方损失函数、交叉熵)。机器学习的要重视降低泛化误差。 选择模型 把训练数据集分为真正的训练集和预留的验证集(validation set)。通过验证集来选择模型。此方法的改进方法为K折交叉验证(K-fold
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:54272
    • 提供者:weixin_38672739
« 12 »