您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 动手学深度学习PyTorch版学习笔记2

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:328704
    • 提供者:weixin_38699757
  1. PyTorch学习笔记(3)autograd 自动求导

  2. 自动求导 torch.autograd.backward 自动求取梯度 tensors 用于求导的张量 retain_graph 保存计算图 create_graph 创建导数计算图 用于高阶求导 grad_tensors 多梯度权重 flag = True # flag = False if flag: # requires_grad 要求梯度 w = torch.tensor([1.],requires_grad=True) x = torch.tensor([2.]
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:22528
    • 提供者:weixin_38635449
  1. PyTorch学习笔记(2)计算图

  2. 计算图 是用来描述运算的有向无环图 两个主要元素 结点Node 边 Edge 结点表示数据 向量 矩阵 张量 边表示运算 加减乘除卷积 使梯度求导更加方便 import torch w = torch.tensor([1.],requires_grad=True) x = torch.tensor([2.],requires_grad=True) a = torch.add(w,x) # 保存相应张量的梯度 a.retain_grad() b = torch.add(w,1) y = tor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:29696
    • 提供者:weixin_38670433