您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 动手学深度学习(pytorch)

  2. 动手学深度学习(pytorch)中的d2lzh_pytorch资源,望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望望采纳!
  3. 所属分类:Python

    • 发布日期:2020-09-30
    • 文件大小:9216
    • 提供者:qq_41977600
  1. 动手学习深度学习(python)(使用pytorch框架)

  2. 本仓库主要包含code和docs两个文件夹(外加一些数据存放在data中)。其中code文件夹就是每章相关jupyter notebook代码(基于PyTorch);docs文件夹就是markdown格式的《动手学深度学习》书中的相关内容,然后利用docsify将网页文档部署到GitHub Pages上,由于原书使用的是MXNet框架,所以docs内容可能与原书略有不同,但是整体内容是一样的。欢迎对本项目做出贡献或提出issue。
  3. 所属分类:专业指导

    • 发布日期:2020-10-10
    • 文件大小:32505856
    • 提供者:GINISOBEAU
  1. 动手学深度学习PyTorch版 | (4)循环神经网络

  2. 文章目录一. 传统RNN二. GRUstep 1 : 载入数据集step 2 : 初始化参数step 3: GRUstep 4: 训练模型简洁实现GRU三. LSTMstep 1: 初始化参数step 2: LSTM 主函数step 3: 训练模型step 4: 简洁实现 一. 传统RNN RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) 二. GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 重置⻔有助于捕捉时间序列⾥短期的依赖关系; 更新⻔有助于捕捉时间序列⾥
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:257024
    • 提供者:weixin_38728277
  1. 动手学深度学习PyTorch版 | (4)循环神经网络

  2. 文章目录一. 传统RNN二. GRUstep 1 : 载入数据集step 2 : 初始化参数step 3: GRUstep 4: 训练模型简洁实现GRU三. LSTMstep 1: 初始化参数step 2: LSTM 主函数step 3: 训练模型step 4: 简洁实现 一. 传统RNN RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) 二. GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 重置⻔有助于捕捉时间序列⾥短期的依赖关系; 更新⻔有助于捕捉时间序列⾥
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:257024
    • 提供者:weixin_38644688
  1. 李沐动手学深度学习(pytorch版本)”d2lzh_pytorch”包的缺少安装问题

  2. 学习深度学习时候,很多人参考的是李沐的动手学深度学习Pytorch版本(附上官方地址:https://tangshusen.me/Dive-into-DL-PyTorch/#/)。 在学习3.5.1节 “获取数据集” 时,会遇到d2lzh_pytorch包缺少的问题,经过查阅资料,下面方法可以解决这个问题。 import torch import torchvision import torchvision.transforms as transforms import matplotlib.
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:221184
    • 提供者:weixin_38638647
  1. DAY2-《动手学深度学习》(PyTorch版)

  2. Task03: 过拟合和欠拟合 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 模型复杂度 为了解释模型复杂度,我们以多项式函数拟合为例。给定一个由标量数据特征x和对应的标量标签y组成的训练数据集,多项式函数拟合
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:183296
    • 提供者:weixin_38677260
  1. 《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:350208
    • 提供者:weixin_38653602
  1. 《动手学深度学习PyTorch版》4

  2. 机器翻译及相关技术 1、机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.数据预处理 将数据集清洗、转化为神经网络的输入minbatch def preprocess_raw(text): # 处理空格 text = text.replace('\u202f', ' ').replace('\xa0', ' '
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:306176
    • 提供者:weixin_38727062
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:99328
    • 提供者:weixin_38706455
  1. 《动手学深度学习》PyTorch实现(过拟合、欠拟合及其解决方案)

  2. 笔记整理 代码整理 L2 范数正则化(regularization) %matplotlib inline import torch import torch.nn as nn import numpy as np import sys sys.path.append(/home/kesci/input) import d2lzh1981 as d2l # L2范数正则化 def fit_and_plot_pytorch(wd): # 对权重参数衰减。权重名称一般是以weight结
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:783360
    • 提供者:weixin_38641150
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:49152
    • 提供者:weixin_38720653
  1. 动手学深度学习Pytorch版Task05

  2. 卷积神经网络基础 二维卷积层 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 二维卷积层 class Conv
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:198656
    • 提供者:weixin_38545485
  1. 动手学深度学习Pytorch版本学习笔记 Task4

  2. 1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 主要步骤: 1. 数据预处理 2.分词 3.建立词典 Sequence to Sequence模型: 2.注意力机制与Seq2seq模型 a.点注意力机制与多层感知机注意力机制 b.引入注意力机制的Seq2seq模型:将注意机制添加到sequence to sequence
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:199680
    • 提供者:weixin_38717896
  1. 动手学深度学习实现DAY-2

  2. 节选自“ElitesAI·动手学深度学习PyTorch版” Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training err
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38586279
  1. 【Pytorch】动手学深度学习(二)

  2. 学习安排如下: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) 梯度消失部分,主要是协变量偏移、标签偏移、概念偏移三个概念,第一次接触; 循环神经网络以及过拟合部分比较容易理解; Task04:机器翻译及
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:51200
    • 提供者:weixin_38717359
  1. d2l-torch:《动手学深度学习》 PyTorch版本-源码

  2. d2l火炬 首先感谢《动手学深度学习》的原作者和贡献者为我们提供了一本本极为优秀的书籍。如果您对框架没有特定偏好或需求,不妨尝试MXNet,则极为优秀的深度学习框架。原书地址:http: ,原书视频教程: , 本书在原书(19年5月20日版本)基础上将所有代码改用PyTorch进行实现,并以注解的形式对部分内容的进行了解释与扩展。因为PyTorch与MXNet在设计上存在不同,对原书部分内容进行了删改。 请按照目录中的顺序阅读学习。 如果您喜欢这本书,请给本项目点个star,并购买原书纸质版
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:35651584
    • 提供者:weixin_42166918
  1. Dive-into-DL-TensorFlow2.0:本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现替代TensorFlow 2.0实现,项目已获得李沐老师的认可-源码

  2. 将原书中MXNet代码实现转换TensorFlow2实现。通过的导师咨询李沐老师,这个项目的实施已得到李沐老师的同意。原书作者:阿斯顿·张,李沐,扎卡里C.立顿,亚历山大J.斯莫拉以及其他社区贡献者,GitHub地址: : 此书的,版本存在一些不同,本项目主要针对此书的中文版进行TensorFlow2转换。另外,本项目也参考了该书的中文版进行PyTorch替代的项目 ,在此表示感谢。 逐步更新到十章,持续更新中。。。 已项目被机器之心等多家公众号,受到并且李原作者沐的 简介 本仓库主要包含代
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:32505856
    • 提供者:weixin_42121412
  1. 《动手学深度学习PyTorch版》打卡_Task4,机器翻译及相关技术,注意力机制与Seq2seq模型

  2. 最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,机器翻译及相关技术,注意力机制与Seq2seq模型做下笔记。 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 使用Encoder-Decoder框架: 实现一个Encoder类 class Encoder(nn.Module): def
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:307200
    • 提供者:weixin_38517212
  1. 《动手学深度学习PyTorch版》打卡_Task3,过拟合,欠拟合,梯度消失,梯度爆炸

  2. 最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,对过拟合,欠拟合,梯度消失,梯度爆炸做下笔记。 过拟合和欠拟合 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting) 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合 解决方法 权重衰减 权重衰减等价于 L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。带有L2L2范数惩罚项的新损失函
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:116736
    • 提供者:weixin_38752897
  1. 动手学深度学习(Pytorch版)task3-5打卡

  2. 对于task3-5的内容进行打卡 Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 模型复杂度和误差之间的关系 权重衰减的计算公式: Xavier初始化 梯度裁剪 循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。裁剪梯度(clip gradient)是一种应对梯度爆炸的方法。假设我们把所有模型参数的梯度拼接成一个向量 g ,并设裁剪的阈值是 θ 。裁剪后的梯度为: GRU 重置门用于捕捉时间序列里的短期依赖关系 更新门有助于捕捉时间
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:773120
    • 提供者:weixin_38735790
« 12 3 »