您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. PyTorch 模型训练实用教程

  2. 本教程内容主要为在 PyTorch 中训练一个模型所可能涉及到的方法及函 数, 并且对 PyTorch 提供的数据增强方法(22 个)、权值初始化方法(10 个)、损失函数(17 个)、优化器(6 个)及 tensorboardX 的方法(13 个) 进行了详细介绍,本教程分为四章, 结构与机器学习三大部分一致。 第一章, 介绍数据的划分,预处理,数据增强; 第二章, 介绍模型的定义,权值初始化,模型 Finetune; 第三章, 介绍各种损失函数及优化器; 第四章, 介绍可视化工具,用于监控数
  3. 所属分类:机器学习

    • 发布日期:2019-03-03
    • 文件大小:4194304
    • 提供者:qq_29893385
  1. Pytorch 的损失函数Loss function使用详解

  2. 今天小编就为大家分享一篇Pytorch 的损失函数Loss function使用详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:169984
    • 提供者:weixin_38535364
  1. pytorch 实现cross entropy损失函数计算方式

  2. 今天小编就为大家分享一篇pytorch 实现cross entropy损失函数计算方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:36864
    • 提供者:weixin_38643141
  1. Pytorch十九种损失函数的使用详解

  2. 主要介绍了Pytorch十九种损失函数的使用详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:100352
    • 提供者:weixin_38729269
  1. Pytorch损失函数nn.NLLLoss2d()用法说明

  2. 主要介绍了Pytorch损失函数nn.NLLLoss2d()用法说明,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:98304
    • 提供者:weixin_38601499
  1. Pytorch 中retain_graph的用法详解

  2. 用法分析 在查看SRGAN源码时有如下损失函数,其中设置了retain_graph=True,其作用是什么? ############################ # (1) Update D network: maximize D(x)-1-D(G(z)) ########################### real_img = Variable(target) if torch.cuda.is_available(): real_i
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:75776
    • 提供者:weixin_38705530
  1. pytorch 实现cross entropy损失函数计算方式

  2. 均方损失函数: 这里 loss, x, y 的维度是一样的,可以是向量或者矩阵,i 是下标。 很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的 loss 结果都是维度为 (batch_size, ) 的向量。 (1)如果 reduce = False,那么 size_average 参数失效,直接返回向量形式的 loss (2)如果 reduce = True,那么 loss 返回的是标量
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:38912
    • 提供者:weixin_38523251
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38747144
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38543950
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38588854
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38741195
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38735182
  1. Pytorch专题实战——线性回归(Linear Regression)

  2. 文章目录1.计算流程2.Pytorch搭建线性回归模型2.1.导入必要模块2.2.构造训练数据2.3.测试数据及输入输出神经元个数2.4.搭建模型并实例化2.5.训练 1.计算流程 1)设计模型: Design model (input, output, forward pass with different layers) 2) 构建损失函数与优化器:Construct loss and optimizer 3) 循环:Training loop - Forward = co
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:381952
    • 提供者:weixin_38631389
  1. Pytorch十九种损失函数的使用详解

  2. 损失函数通过torch.nn包实现, 1 基本用法 criterion = LossCriterion() #构造函数有自己的参数 loss = criterion(x, y) #调用标准时也有参数 2 损失函数 2-1 L1范数损失 L1Loss 计算 output 和 target 之差的绝对值。 torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值; sum:返回loss的和。默
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:95232
    • 提供者:weixin_38665944
  1. 浅谈pytorch池化maxpool2D注意事项

  2. 注意: 在搭建网络的时候用carpool2D的时候,让高度和宽度方向不同池化时, 用如下: nn.MaxPool2d(kernel_size=2, stride=(2, 1), padding=(0, 1)) 千万不要用: nn.MaxPool2d(kernel_size=2, stride=(2, 1), padding=(0, 0)), 这样在用交叉熵做损失函数的时候,有时候会出现loss为nan的情况,检查的时候发现,某些样本的提取出来的feature全为nan。 以上这篇浅谈pyto
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:34816
    • 提供者:weixin_38608688
  1. 【Pytorch】BCELoss和BCEWithLogitsLoss损失函数详解

  2. 在Pytorch中,BCELoss和BCEWithLogitsLoss是一组常用的二元交叉熵损失函数,常用于二分类问题,其区别在于前者的输入为已进行sigmoid处理过的值,而后者为sigmoid函数11+exp⁡(−x)\frac{1}{1+\exp(-x)}1+exp(−x)1​中的xxx。 下面为一个简单的示例: import torch import torch.nn as nn predicts = torch.tensor([[0.4,0.7,1.2,0.3], [1.1,0.6,0
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:36864
    • 提供者:weixin_38513794
  1. 【PyTorch学习笔记1】MNIST手写数字识别之MLP实现

  2. 在本笔记中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的相关概念,并将其运用到最基础的MNIST数据集分类任务中,同时展示相关代码。本笔记主要从下面四个方面展开: 文章目录1 多层感知机(MLP)理论知识1.1 隐藏层1.2 激活函数1.3 多层感知机1.4 交叉熵(cross entropy)损失函数2. MNIST数据集简介3. 代码详解及结果展示4. 心得体会 1 多层感知机(MLP)理论知识 1.1 隐藏层 多层感知机在单层神经网络
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:263168
    • 提供者:weixin_38545485
  1. pytorch学习2

  2. 1、过拟合和欠拟合 训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。K折交叉验证由于验证数据集不参与模型训练
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38679839
  1. PoissonLikelihoodLoss_pytorch:这是用于NM图像重建的Poisson似然损失函数的PyTorch实现-源码

  2. 泊松似然损失函数 这是用于NM图像重建的Poisson似然损失函数的PyTorch实现[1]。 ,其中n是箱数,g bar表示平均值(目标),g是观察值。 [1] Bruyant,PP(2002年)。 SPECT中的解析和迭代重建算法。 核医学杂志,43(10),1343–1358。
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:18432
    • 提供者:weixin_42126865
  1. Pytorch 的损失函数Loss function使用详解

  2. 1.损失函数 损失函数,又叫目标函数,是编译一个神经网络模型必须的两个要素之一。另一个必不可少的要素是优化器。 损失函数是指用于计算标签值和预测值之间差异的函数,在机器学习过程中,有多种损失函数可供选择,典型的有距离向量,绝对值向量等。 损失Loss必须是标量,因为向量无法比较大小(向量本身需要通过范数等标量来比较)。 损失函数一般分为4种,平方损失函数,对数损失函数,HingeLoss 0-1 损失函数,绝对值损失函数。 我们先定义两个二维数组,然后用不同的损失函数计算其损失值。 impor
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:171008
    • 提供者:weixin_38552292
« 12 3 4 »