点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - pytorch学习笔记(一)
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
PyTorch学习笔记(二)图像数据预处理
Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 基本变换类1.1 填充1.2 擦除1.3 缩放1.4 裁剪1.5 旋转1.6 翻转1.7 颜色1.8 仿射变换和线性变换1.9 归一化和标准化1.10. Lambda2. 组合变换类3. 自定义图像数据增强 0. 写在前面 本文记录了使用 PyTorch 实现图像数据预处理的方法,包括数据增强和标准
所属分类:
其它
发布日期:2020-12-21
文件大小:1048576
提供者:
weixin_38524472
PyTorch学习笔记(二)图像数据预处理
Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 基本变换类1.1 填充1.2 擦除1.3 缩放1.4 裁剪1.5 旋转1.6 翻转1.7 颜色1.8 仿射变换和线性变换1.9 归一化和标准化1.10. Lambda2. 组合变换类3. 自定义图像数据增强 0. 写在前面 本文记录了使用 PyTorch 实现图像数据预处理的方法,包括数据增强和标准
所属分类:
其它
发布日期:2020-12-21
文件大小:1048576
提供者:
weixin_38546817
Pytorch学习笔记Day一(Numpy学习)
Numpy学习 数组有几个非常重要的概念 1、维度Dimensions,叫作轴axes 2、轴的个数叫作秩rank 例: [[0,0,0], [0,0,0]] ndarray.ndim = 2:数组轴的个数。二维数组 ndarray.shape = (2,3):数组的维度。(n,m) ndarray.size = 6:数组元素总个数。n*m ndarray.dtype = int64:数组元素数据类型。 ndarray.itemsize= 8:数组元素所占字节数。 ndarray.data:通
所属分类:
其它
发布日期:2021-01-07
文件大小:45056
提供者:
weixin_38625599
14天动手挑战深度学习Pytorch–task3、4、5笔记
一、过拟合以及欠拟合提出以及解决方案 1.欠拟合以及过拟合的概念 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 2.模型复杂度和训练数据集大小 3补充:在多项式函数拟合实验中用到的torch.cat()函数的用
所属分类:
其它
发布日期:2021-01-07
文件大小:142336
提供者:
weixin_38554186
【PyTorch学习笔记1】MNIST手写数字识别之MLP实现
在本笔记中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的相关概念,并将其运用到最基础的MNIST数据集分类任务中,同时展示相关代码。本笔记主要从下面四个方面展开: 文章目录1 多层感知机(MLP)理论知识1.1 隐藏层1.2 激活函数1.3 多层感知机1.4 交叉熵(cross entropy)损失函数2. MNIST数据集简介3. 代码详解及结果展示4. 心得体会 1 多层感知机(MLP)理论知识 1.1 隐藏层 多层感知机在单层神经网络
所属分类:
其它
发布日期:2021-01-07
文件大小:263168
提供者:
weixin_38545485
伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记
伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
所属分类:
其它
发布日期:2021-01-07
文件大小:99328
提供者:
weixin_38706455
pytorch学习笔记(十五)————动量与学习率衰减
pytorch学习笔记(十五)————动量与学习率衰减目录动量学习率衰减 目录 动量 从形式上看, 动量算法引入了变量 z充当速度角色——它代表参数在参数空间移动的方向和速率。速度被设为负梯度的指数衰减平均。名称 动量(momentum),相当于引入动量前的梯度概念,指示着loss在参数空间下一步要下降的方向和大小。 其中wk+1w^{k+1}wk+1表示更新后权重;wkw^{k}wk表示更新前权重;zk+1z^{k+1}zk+1代表动量,,α表示学习率 从公式zk+1=βzk+▽f(wk)z
所属分类:
其它
发布日期:2021-01-06
文件大小:854016
提供者:
weixin_38679276
伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记
伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
所属分类:
其它
发布日期:2021-01-06
文件大小:49152
提供者:
weixin_38720653
动手学深度学习Pytorch版本学习笔记 Task4
1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 主要步骤: 1. 数据预处理 2.分词 3.建立词典 Sequence to Sequence模型: 2.注意力机制与Seq2seq模型 a.点注意力机制与多层感知机注意力机制 b.引入注意力机制的Seq2seq模型:将注意机制添加到sequence to sequence
所属分类:
其它
发布日期:2021-01-06
文件大小:199680
提供者:
weixin_38717896
动手学深度学习Pytorch版本学习笔记 Task 03
1.过拟合、欠拟合及其解决方案 1.1对于过拟合、欠拟合的理解 我们探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 1.2模型复杂度的影响 1.3训练数据集大小影响 影响欠
所属分类:
其它
发布日期:2021-01-06
文件大小:212992
提供者:
weixin_38750861
笔记:动手学深度学习pytorch(机器翻译,Transformer,注意力机制和Sequence to sequence模型)
– 机器翻译 – 机器翻译与数据集 – 机器翻译 顾名思义,机器翻译就是将一段文本从一种语言翻译到另外一种语言,简称MT,而利用神经网络解决这个问题就被称为神经机器翻译(NMT)。 特征主要是输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 – 数据预处理 将数据集清洗、转化为神经网络的输入minbatch with open('/home/kesci/input/fraeng6506/fra.txt', 'r') as f: raw_text = f.read
所属分类:
其它
发布日期:2021-01-06
文件大小:1048576
提供者:
weixin_38582685
[动手学深度学习PyTorch笔记三]
一 过拟合、欠拟合及其解决方案 欠拟合(underfitting): 一类是模型无法得到较低的训练误差,我们将这一现象称作 过拟合(overfitting):模型的训练误差远小于它在测试数据集上的误差,我们称该现象为。 在实践中,我们要尽可能同时应对欠拟合和过拟合。两个主要影响因素:模型复杂度和训练数据集大小。模型复杂度过低会导致欠拟合,过高则导致过拟合,训练数据集过小容易发生过拟合。因此需选取适当的模型复杂度和计算能力范围内可以承受的较大训练数据集。 解决方案 1 权重衰减 权重衰减等价于 L
所属分类:
其它
发布日期:2021-01-06
文件大小:60416
提供者:
weixin_38686860
深度学习的一点学习笔记(机器翻译相关)
前沿 本次笔记主要会描述NLP的相关知识,包括RNN,GRU,LSTM等模型;以及机器翻译的相关技术;Seq2Seq等。 由于对RNN接触不多,尝试记一些笔记会很凌乱,但是可以顺着知识线,按照给出的链接去自行阅读相关知识。 下一章,CNN的一些笔记 RNN的基础知识 关于RNN,也是老生常谈的网络结构了,为了提醒自己,补充一点小观点。下面是一些博客上讲解RNN的链接。 RNN 这篇文章比较概述性的讲解了RNN的一些基本知识。 除此之外,RNN是一个序列形的结构,在实现机器翻译的时候,或者句子简单
所属分类:
其它
发布日期:2021-01-06
文件大小:523264
提供者:
weixin_38557935
[动手学深度学习PyTorch笔记四]
一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先进行数据预处理,将数据集清洗、转化为神经网络的输入的minbatch,包括分词、建立字典、载入数据集。 Encoder-Decoder 一种通用模型框架。Encoder:编码器,从输入到隐藏状态 Decoder:解码器,从隐藏状态到输出。 特点:输入输出的长度可以不相等。不
所属分类:
其它
发布日期:2021-01-06
文件大小:80896
提供者:
weixin_38673909
pytorch学习笔记(一)
文章目录前言tensor1.创建tensor2. 基本属性3. 基本方法4. 运算5. GPU运算自动求导Autograd清空grad阻止autograd跟踪 前言 此为小弟pytorch的学习笔记,希望自己可以坚持下去。(2020/2/17) pytorch官方文档 pytorch中文教程 tensor tensor是pytorch的最基本数据类型,相当于numpy中的ndarray,并且属性和numpy相似,tensor可在GPU上进行运算。 tensor常见的基本属性: 1.创建tens
所属分类:
其它
发布日期:2021-01-06
文件大小:285696
提供者:
weixin_38738830
VoVNet.pytorch:VoVNet的pytorch实现-源码
VoVNet骨干网的pytorch实现 这是VoVNet骨干网络的pytorch实现,如论文。 这是通过样式实现的。 此回购协议提供什么? 此仓库提供了在ImageNet分类数据集中训练的VoVNet-39 / 57模型,其训练协议与(例如128个批处理大小,90个时代,数据扩充,lr_policy等),并与ResNet和DenseNet进行了比较。 ImageNet结果 笔记: 为了公平起见,将相同的培训协议用作 90纪 分步学习进度表(学习率每30个周期下降一次) 256批次大小 默
所属分类:
其它
发布日期:2021-03-15
文件大小:8192
提供者:
weixin_42134878
动手学深度学习Pytorch版本学习笔记 Task3
1.过拟合、欠拟合及其解决方案 过拟合:模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 欠拟合:模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。 解决过拟合的方法:权重衰减(L2 范数正则化)和丢弃法 2.梯度消失和梯度爆炸 a.梯度消失和梯度爆炸 假设一个层数为LL的多层感知机的第ll层H(l)H(l)的权重参数为W(l)W(l),输出层H(L)H(L)的权重参数为W
所属分类:
其它
发布日期:2021-01-20
文件大小:51200
提供者:
weixin_38694800
《动手学深度学习PyTorch版》打卡_Task4,机器翻译及相关技术,注意力机制与Seq2seq模型
最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,机器翻译及相关技术,注意力机制与Seq2seq模型做下笔记。 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 使用Encoder-Decoder框架: 实现一个Encoder类 class Encoder(nn.Module): def
所属分类:
其它
发布日期:2021-01-20
文件大小:307200
提供者:
weixin_38517212
《动手学深度学习PyTorch版》打卡_Task3,过拟合,欠拟合,梯度消失,梯度爆炸
最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,对过拟合,欠拟合,梯度消失,梯度爆炸做下笔记。 过拟合和欠拟合 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting) 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合 解决方法 权重衰减 权重衰减等价于 L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。带有L2L2范数惩罚项的新损失函
所属分类:
其它
发布日期:2021-01-20
文件大小:116736
提供者:
weixin_38752897
pytorch学习笔记(十四)————正则化惩罚(减轻overfitting)
pytorch学习笔记(十四)————正则化惩罚(减轻overfitting)目录回顾降低过拟合方法正则化惩罚项常用的正则化公式 目录 回顾 在上一篇博客中我们讲到,当训练模型比真实模型复杂度低的情况叫做underfitting(欠拟合),当训练集模型比真实模型复杂度高的情况叫做overfitting(过拟合)。现如今由于网络层数不断地增加,欠拟合的情况已经较为少见,绝大数多情况都是出现过拟合。与过拟合有一个异曲同工的概念叫做奥卡姆剃刀原理。 奥卡姆剃刀原理是指:在科学研究任务中,应该优先使用
所属分类:
其它
发布日期:2021-01-20
文件大小:531456
提供者:
weixin_38515270
«
1
2
»