您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pytorch学习视频百度网盘链接.txt

  2. pytorch学习视频,2.5个G。包括 深度学习初见/ 开发环境安装/ 回归问题/ pytorch基础教程/ pytorch进阶教程/ 随机梯度下降/ 神经网络与全连接层/ 过拟合/ 卷积神经网络CNN/ CIFAR10与resnet实战/ 循环神经网络RNN&lstm/
  3. 所属分类:深度学习

    • 发布日期:2020-02-23
    • 文件大小:75
    • 提供者:u013171226
  1. pytorch学习资料

  2. 1. pytorch中文相关学习资料; 2. opencv中文相关学习资料; 3. 自己还没看, 但总体感觉不错
  3. 所属分类:互联网

    • 发布日期:2020-11-09
    • 文件大小:54525952
    • 提供者:u012256746
  1. Pytorch学习之torch用法—-比较操作(Comparison Ops)

  2. 1. torch.eq(input, other, out=None) 说明: 比较元素是否相等,第二个参数可以是一个数,或者是第一个参数同类型形状的张量 参数: input(Tensor) —- 待比较张量 other(Tenosr or float) —- 比较张量或者数 out(Tensor,可选的) —- 输出张量 返回值: 一个torch.ByteTensor张量,包含了每个位置的比较结果(相等为1,不等为0) >>> a = torch.Tensor([[1, 2
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:56320
    • 提供者:weixin_38751512
  1. PyTorch学习笔记之回归实战

  2. 本文主要是用PyTorch来实现一个简单的回归任务。 编辑器:spyder 1.引入相应的包及生成伪数据 import torch import torch.nn.functional as F # 主要实现激活函数 import matplotlib.pyplot as plt # 绘图的工具 from torch.autograd import Variable # 生成伪数据 x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim =
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:79872
    • 提供者:weixin_38751861
  1. 【PyTorch学习】PyTorch基础知识

  2. 目录 一、Pytorch介绍 1.1 什么是Pytorch 1.2 为何要使用Pytorch 1.3 配置Pytorch深度学习环境 二、Pytorch基础 2.1 Tensor(张量) 2.2 Variable(变量) 2.3 Dataset(数据集) 1. torch.utils.data.Dataset 2. torch.utils.data.TensorDataset 3. torch.utils.data.DataLoader 4. torchvision.datasets.Image
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:119808
    • 提供者:weixin_38672815
  1. PyTorch学习笔记(二)图像数据预处理

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 基本变换类1.1 填充1.2 擦除1.3 缩放1.4 裁剪1.5 旋转1.6 翻转1.7 颜色1.8 仿射变换和线性变换1.9 归一化和标准化1.10. Lambda2. 组合变换类3. 自定义图像数据增强 0. 写在前面 本文记录了使用 PyTorch 实现图像数据预处理的方法,包括数据增强和标准
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:1048576
    • 提供者:weixin_38524472
  1. PyTorch学习笔记(二)图像数据预处理

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 基本变换类1.1 填充1.2 擦除1.3 缩放1.4 裁剪1.5 旋转1.6 翻转1.7 颜色1.8 仿射变换和线性变换1.9 归一化和标准化1.10. Lambda2. 组合变换类3. 自定义图像数据增强 0. 写在前面 本文记录了使用 PyTorch 实现图像数据预处理的方法,包括数据增强和标准
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:1048576
    • 提供者:weixin_38546817
  1. PyTorch学习笔记(四)调整学习率

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. StepLR1.1 scheduler 常用的属性1.2 scheduler 常用的方法2. MultiStepLR3. ExponentialLR4. ReduceLROnPlateau5. LambdaLR 0. 写在前面 PyTorch 在 torch.optim.lr_scheduler 中
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:271360
    • 提供者:weixin_38526823
  1. [DL]PyTorch 学习总结(1)

  2. 本系列文章为“深度之眼” PyTorch 框架班学习笔记。 安装 PyTorch(macOS 操作系统下) pip install torch 查询 PyTorch 版本 import torch print(torch.__version__) # 1.5.0 张量是什么? 张量是一个多维数组: – 标量是一个 0 维数组; – 向量是一个 1 维数组; – 矩阵是一个 2 维张量。 torch.tensor 有什么功能? 最重要的功能是可以求导: – data:被转换为 tensor 的
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:53248
    • 提供者:weixin_38748556
  1. Pytorch学习笔记Day一(Numpy学习)

  2. Numpy学习 数组有几个非常重要的概念 1、维度Dimensions,叫作轴axes 2、轴的个数叫作秩rank 例: [[0,0,0],  [0,0,0]] ndarray.ndim = 2:数组轴的个数。二维数组 ndarray.shape = (2,3):数组的维度。(n,m) ndarray.size = 6:数组元素总个数。n*m ndarray.dtype = int64:数组元素数据类型。 ndarray.itemsize= 8:数组元素所占字节数。 ndarray.data:通
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:45056
    • 提供者:weixin_38625599
  1. 【PyTorch学习笔记1】MNIST手写数字识别之MLP实现

  2. 在本笔记中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的相关概念,并将其运用到最基础的MNIST数据集分类任务中,同时展示相关代码。本笔记主要从下面四个方面展开: 文章目录1 多层感知机(MLP)理论知识1.1 隐藏层1.2 激活函数1.3 多层感知机1.4 交叉熵(cross entropy)损失函数2. MNIST数据集简介3. 代码详解及结果展示4. 心得体会 1 多层感知机(MLP)理论知识 1.1 隐藏层 多层感知机在单层神经网络
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:263168
    • 提供者:weixin_38545485
  1. pytorch学习2

  2. 1、过拟合和欠拟合 训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。K折交叉验证由于验证数据集不参与模型训练
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38679839
  1. PyTorch | (2)PyTorch 入门-张量

  2. PyTorch | (1)初识PyTorch PyTorch | (2)PyTorch 入门-张量 PyTorch 是一个基于 Python 的科学计算包,主要定位两类人群: NumPy 的替代品,可以利用 GPU 的性能进行计算。 深度学习研究平台拥有足够的灵活性和速度 Tensors (张量)         Tensor在PyTorch中负责存储基本数据,PyTorch针对Tensor也提供了相对丰富的函数和方法,所以PyTorch中的Tensor与NumPy的数组具有极高的相似性。T
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:159744
    • 提供者:weixin_38718690
  1. pytorch学习二

  2. 动手学课程学习回顾: 2:nlp领域 机器翻译 数据预处理——分词——建立词典——载入数据集 encoder、decoder 注意力机制 输入:询问、键值对 softmax屏蔽 超二维矩阵乘法 点积注意力 多层感知机注意力 seq2seq模型 transformer cnn与rnn的区别 多头注意力基于位置的前馈网络 add and norm 位置编码 优化与估计 局部最小值,鞍点,梯度消失 凸性、jensen不等式 梯度下降 一维梯度下降、学习率、局部极小值、多维梯度下降、自适应方法(牛顿法)
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:34816
    • 提供者:weixin_38726007
  1. Pytorch学习笔记——文本预处理

  2. 文本预处理 1、概述 文本数据:有用内容和无用内容 文章:单词、符号、空格、乱码等 思想:我们需要对无用信息进行过滤,而计算机无法直接处理单词等有用信息,我们需要把他们转换成数字。将单词映射到不同的数字,可以考虑用列表,如data=[‘ni’, ‘hao’],我们就可以用data[0],data[1]来表示 单词内容,这就是索引到单词,然后 ‘ni hao’我们可以表示成’01’,这就是单词到索引,通过建立单词与数字的关系来进行互相的映射,这是文本预处理的核心思想 预处理的步骤: 1、读文本(计
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:58368
    • 提供者:weixin_38590790
  1. PyTorch学习笔记(3)autograd 自动求导

  2. 自动求导 torch.autograd.backward 自动求取梯度 tensors 用于求导的张量 retain_graph 保存计算图 create_graph 创建导数计算图 用于高阶求导 grad_tensors 多梯度权重 flag = True # flag = False if flag: # requires_grad 要求梯度 w = torch.tensor([1.],requires_grad=True) x = torch.tensor([2.]
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:22528
    • 提供者:weixin_38635449
  1. 转战pytorch(2)——“简单”训练

  2. 文章目录前言1. 无需pytorch也可以做神经网络1.1 数据准备(代码片段1)1.2 非pytorch训练(代码片段2)2. 融入pytorch内置函数3. 进一步封装和改进4. 将实验做完整4.1 使用Dataset和Dataloader进行加载数据4.2 增加验证集5. 使得学习和反向传播过程更加简便5.2 完全展示6. 框架多样性6.1 使用卷积神经网络6.2 使用序贯模型6.3 适用性更广——封装Dataloader6.4 更快的训练——使用GPU7. 小结 前言 上一章中我们主要介
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:114688
    • 提供者:weixin_38642285
  1. PyTorch学习笔记(2)计算图

  2. 计算图 是用来描述运算的有向无环图 两个主要元素 结点Node 边 Edge 结点表示数据 向量 矩阵 张量 边表示运算 加减乘除卷积 使梯度求导更加方便 import torch w = torch.tensor([1.],requires_grad=True) x = torch.tensor([2.],requires_grad=True) a = torch.add(w,x) # 保存相应张量的梯度 a.retain_grad() b = torch.add(w,1) y = tor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:29696
    • 提供者:weixin_38670433
  1. pytorch学习笔记

  2. pytorch一般框架 import torch N, D_in, H, D_out = 64, 1000, 100, 10 #64个数据,输入1000维,中间层100维,输出10维 # 1. 确定训练数据 x = torch.randn(N, D_in) y = torch.randn(N, D_out) # 2. 定义模型 class TwoLayerNet(torch.nn.Module): #在init里定义模型的框架 def __init__(self, D_in,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:40960
    • 提供者:weixin_38694699
  1. pytorch学习笔记(十五)————Early Stop,Dropout

  2. pytorch学习笔记(十五)————Early Stop,Dropout,SGD目录Early StopDropoutSGD随机梯度下降 目录 Early Stop (1)Early Stop的概念 Early Stop的概念非常简单,在我们一般训练中,经常由于过拟合导致在训练集上的效果好,而在测试集上的效果非常差。因此我们可以让训练提前停止,在测试集上达到最好的效果时候就停止训练,而不是等到在训练集上饱和在停止,这个操作就叫做Early Stop。 (2)Early Stop的过程 Dr
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:598016
    • 提供者:weixin_38739919
« 12 3 4 5 6 7 8 9 10 ... 17 »