您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. PyTorch学习笔记之回归实战

  2. 主要介绍了PyTorch学习笔记之回归实战,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:80896
    • 提供者:weixin_38574132
  1. PyTorch学习笔记之回归实战

  2. 本文主要是用PyTorch来实现一个简单的回归任务。 编辑器:spyder 1.引入相应的包及生成伪数据 import torch import torch.nn.functional as F # 主要实现激活函数 import matplotlib.pyplot as plt # 绘图的工具 from torch.autograd import Variable # 生成伪数据 x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim =
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:79872
    • 提供者:weixin_38751861
  1. PyTorch学习笔记(二)图像数据预处理

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 基本变换类1.1 填充1.2 擦除1.3 缩放1.4 裁剪1.5 旋转1.6 翻转1.7 颜色1.8 仿射变换和线性变换1.9 归一化和标准化1.10. Lambda2. 组合变换类3. 自定义图像数据增强 0. 写在前面 本文记录了使用 PyTorch 实现图像数据预处理的方法,包括数据增强和标准
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:1048576
    • 提供者:weixin_38524472
  1. PyTorch学习笔记(二)图像数据预处理

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 基本变换类1.1 填充1.2 擦除1.3 缩放1.4 裁剪1.5 旋转1.6 翻转1.7 颜色1.8 仿射变换和线性变换1.9 归一化和标准化1.10. Lambda2. 组合变换类3. 自定义图像数据增强 0. 写在前面 本文记录了使用 PyTorch 实现图像数据预处理的方法,包括数据增强和标准
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:1048576
    • 提供者:weixin_38546817
  1. PyTorch学习笔记(四)调整学习率

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. StepLR1.1 scheduler 常用的属性1.2 scheduler 常用的方法2. MultiStepLR3. ExponentialLR4. ReduceLROnPlateau5. LambdaLR 0. 写在前面 PyTorch 在 torch.optim.lr_scheduler 中
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:271360
    • 提供者:weixin_38526823
  1. [DL]PyTorch 学习总结(1)

  2. 本系列文章为“深度之眼” PyTorch 框架班学习笔记。 安装 PyTorch(macOS 操作系统下) pip install torch 查询 PyTorch 版本 import torch print(torch.__version__) # 1.5.0 张量是什么? 张量是一个多维数组: – 标量是一个 0 维数组; – 向量是一个 1 维数组; – 矩阵是一个 2 维张量。 torch.tensor 有什么功能? 最重要的功能是可以求导: – data:被转换为 tensor 的
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:53248
    • 提供者:weixin_38748556
  1. Pytorch学习笔记Day一(Numpy学习)

  2. Numpy学习 数组有几个非常重要的概念 1、维度Dimensions,叫作轴axes 2、轴的个数叫作秩rank 例: [[0,0,0],  [0,0,0]] ndarray.ndim = 2:数组轴的个数。二维数组 ndarray.shape = (2,3):数组的维度。(n,m) ndarray.size = 6:数组元素总个数。n*m ndarray.dtype = int64:数组元素数据类型。 ndarray.itemsize= 8:数组元素所占字节数。 ndarray.data:通
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:45056
    • 提供者:weixin_38625599
  1. 【PyTorch学习笔记1】MNIST手写数字识别之MLP实现

  2. 在本笔记中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的相关概念,并将其运用到最基础的MNIST数据集分类任务中,同时展示相关代码。本笔记主要从下面四个方面展开: 文章目录1 多层感知机(MLP)理论知识1.1 隐藏层1.2 激活函数1.3 多层感知机1.4 交叉熵(cross entropy)损失函数2. MNIST数据集简介3. 代码详解及结果展示4. 心得体会 1 多层感知机(MLP)理论知识 1.1 隐藏层 多层感知机在单层神经网络
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:263168
    • 提供者:weixin_38545485
  1. PyTorch学习笔记(5)Dataloader与Dataset(2)

  2. 人民币识别 split_dataset import os import random import shutil def makedir(new_dir): if not os.path.exists(new_dir): os.makedirs(new_dir) if __name__ == '__main__': random.seed(1) dataset_dir = os.path.join(data, RMB_data) split_di
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:83968
    • 提供者:weixin_38736018
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:99328
    • 提供者:weixin_38706455
  1. PyTorch学习笔记(1)张量

  2. tensor torch.tensor(data, # 数据 可以使list numpy dtype=None, # 数据类型 默认与data一致 device=None, # 所在设备 cuda / cpu requires_grad=False, # 是否需要梯度 pin_memory = False ,# 是否存于锁页内存) flag = True if flag: arr = np.ones((3,3)) print('ndarray的数据类型:',arr.dtype
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:31744
    • 提供者:weixin_38515573
  1. pytorch学习笔记(十五)————动量与学习率衰减

  2. pytorch学习笔记(十五)————动量与学习率衰减目录动量学习率衰减 目录 动量 从形式上看, 动量算法引入了变量 z充当速度角色——它代表参数在参数空间移动的方向和速率。速度被设为负梯度的指数衰减平均。名称 动量(momentum),相当于引入动量前的梯度概念,指示着loss在参数空间下一步要下降的方向和大小。 其中wk+1w^{k+1}wk+1表示更新后权重;wkw^{k}wk表示更新前权重;zk+1z^{k+1}zk+1代表动量,,α表示学习率 从公式zk+1=βzk+▽f(wk)z
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:854016
    • 提供者:weixin_38679276
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:49152
    • 提供者:weixin_38720653
  1. 《动手学深度学习》pytorch版笔记2

  2. 《动手学深度学习》pytorch版笔记2 Task3 过拟合、欠拟合及其解决方案 这部分内容比较简单,写下问题吧,再挖几个坑 1.模型复杂度如何改变,三阶到一阶等 2.L2范数正则化为什么是权重衰减的一种方式? 梯度消失,梯度爆炸 1.初始化过程 2.标签偏移的概念 3.数据处理过程 循环神经网络进阶 GRU,LSTM中的门结构实现起来还挺复杂的,有空再自己实现一遍吧。另外深度循环神经网络貌似叫多层循环神经网络,印象中一般不会堆叠很多层,有空再研究一下吧 Task4 机器翻译及相关技术 机器翻
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:114688
    • 提供者:weixin_38686677
  1. 【PyTorch学习笔记】21:nn.RNN和nn.RNNCell的使用

  2. 这节学习PyTorch的循环神经网络层nn.RNN,以及循环神经网络单元nn.RNNCell的一些细节。 1 nn.RNN涉及的Tensor PyTorch中的nn.RNN的数据处理如下图所示。每次向网络中输入batch个样本,每个时刻处理的是该时刻的batch个样本,因此xtx_txt​是shape为[batch,feature_len][batch, feature\_len][batch,feature_len]的Tensor。例如,输入3句话,每句话10个单词,每个单词用100维的向量表
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:425984
    • 提供者:weixin_38651540
  1. pytorch学习笔记

  2. pytorch一般框架 import torch N, D_in, H, D_out = 64, 1000, 100, 10 #64个数据,输入1000维,中间层100维,输出10维 # 1. 确定训练数据 x = torch.randn(N, D_in) y = torch.randn(N, D_out) # 2. 定义模型 class TwoLayerNet(torch.nn.Module): #在init里定义模型的框架 def __init__(self, D_in,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:40960
    • 提供者:weixin_38694699
  1. pytorch学习笔记(一)

  2. 文章目录前言tensor1.创建tensor2. 基本属性3. 基本方法4. 运算5. GPU运算自动求导Autograd清空grad阻止autograd跟踪 前言 此为小弟pytorch的学习笔记,希望自己可以坚持下去。(2020/2/17) pytorch官方文档 pytorch中文教程 tensor tensor是pytorch的最基本数据类型,相当于numpy中的ndarray,并且属性和numpy相似,tensor可在GPU上进行运算。 tensor常见的基本属性: 1.创建tens
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:285696
    • 提供者:weixin_38738830
  1. pytorch学习笔记(十五)————Early Stop,Dropout

  2. pytorch学习笔记(十五)————Early Stop,Dropout,SGD目录Early StopDropoutSGD随机梯度下降 目录 Early Stop (1)Early Stop的概念 Early Stop的概念非常简单,在我们一般训练中,经常由于过拟合导致在训练集上的效果好,而在测试集上的效果非常差。因此我们可以让训练提前停止,在测试集上达到最好的效果时候就停止训练,而不是等到在训练集上饱和在停止,这个操作就叫做Early Stop。 (2)Early Stop的过程 Dr
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:598016
    • 提供者:weixin_38739919
  1. pytorch学习笔记(十四)————正则化惩罚(减轻overfitting)

  2. pytorch学习笔记(十四)————正则化惩罚(减轻overfitting)目录回顾降低过拟合方法正则化惩罚项常用的正则化公式 目录 回顾 在上一篇博客中我们讲到,当训练模型比真实模型复杂度低的情况叫做underfitting(欠拟合),当训练集模型比真实模型复杂度高的情况叫做overfitting(过拟合)。现如今由于网络层数不断地增加,欠拟合的情况已经较为少见,绝大数多情况都是出现过拟合。与过拟合有一个异曲同工的概念叫做奥卡姆剃刀原理。 奥卡姆剃刀原理是指:在科学研究任务中,应该优先使用
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:531456
    • 提供者:weixin_38515270
  1. Pytorch学习笔记——过拟合、欠拟合及其解决方案

  2. 过拟合、欠拟合及其解决方案 1、预备知识 1.1 模型选择 验证数据集:测试集不可用于模型参数的调试,所以需要从训练数据集中分离出一部分数据作为验证数据集用来调参 1.2 K折交叉验证 目前来说深度学习研究的普遍情况是数据量不够庞大,而我们要把模型数据分成训练集、验证集,这样就会导致训练数据更加少,K折交叉验证可以解决这个问题。算法思想大概是,将训练数据集均分成K个不同子集,第 i 次选取 K[ i ] 作为验证集,其余的 K-1 个数据作为训练集,这样我们就有了K组数据,最后将K次训练误差和验
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:196608
    • 提供者:weixin_38717156
« 12 3 4 »