您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. (翻译)60分钟入门深度学习工具-PyTorch.pdf

  2. (翻译)60分钟入门深度学习工具-PyTorch 公号:机器学习初学者 一、Pytorch是什么? 二、AUTOGRAD 三、神经网络 四、训练一个分类器 五、数据并行
  3. 所属分类:互联网

    • 发布日期:2020-04-10
    • 文件大小:1048576
    • 提供者:qq_33866063
  1. pytorch 实现yolo3详细理解(五)训练自己数据集和csv数据集标签处理

  2. 摘要 前面基本已经将yolo3的大致细节都分析了,那么现在就要训练自己下载的数据集来看下效果,进行迁移学习,首先我会先对github本身自定义的custom数据集进行训练,只有一张照片,一个标签签,之后训练自己的数据集是摇从xml文件先提取标签,完全按照custom中的格式进行布局,然后修改一下cfg文件就可以运行。dataset源码是对txt文件的处理,在实际运行中对数据进行分析是利用panda,所以直接利用panda生成csv文件进行读取更加方便。代码githubhttps://github
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:873472
    • 提供者:weixin_38751031
  1. PyTorch的深度学习入门教程之构建神经网络

  2. 前言 本文参考PyTorch官网的教程,分为五个基本模块来介绍PyTorch。为了避免文章过长,这五个模块分别在五篇博文中介绍。 Part3:使用PyTorch构建一个神经网络 神经网络可以使用touch.nn来构建。nn依赖于autograd来定义模型,并且对其求导。一个nn.Module包含网络的层(layers),同时forward(input)可以返回output。 这是一个简单的前馈网络。它接受输入,然后一层一层向前传播,最后输出一个结果。 训练神经网络的典型步骤如下: (1)  定义
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:76800
    • 提供者:weixin_38514805
  1. pytorch学习笔记(十五)————动量与学习率衰减

  2. pytorch学习笔记(十五)————动量与学习率衰减目录动量学习率衰减 目录 动量 从形式上看, 动量算法引入了变量 z充当速度角色——它代表参数在参数空间移动的方向和速率。速度被设为负梯度的指数衰减平均。名称 动量(momentum),相当于引入动量前的梯度概念,指示着loss在参数空间下一步要下降的方向和大小。 其中wk+1w^{k+1}wk+1表示更新后权重;wkw^{k}wk表示更新前权重;zk+1z^{k+1}zk+1代表动量,,α表示学习率 从公式zk+1=βzk+▽f(wk)z
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:854016
    • 提供者:weixin_38679276
  1. Pytorch学习 (五)

  2. 二维互相关运算(卷积) 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 图1 二维互相关运算 互相关运算与卷积运算 卷积层得名于
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:52224
    • 提供者:weixin_38722891
  1. LOB:中国市场限价订单基准数据集-源码

  2. 高球 中国市场限价订单基准数据集 FinAI实验室 香港高等研究院 目录 介绍 该存储库包含论文描述的和。 在建议的基准数据集上测试了五个基线模型,包括线性回归(LR),多层感知器(MLP),卷积神经网络(CNN),长期短期记忆(LSTM)和CNN-LSTM。 笔记 所有算法均基于深度学习框架。 我们的PyTorch版本是1.7.0。 如果您使用的是较低版本,请相应地修改代码。 抽象的 限价单(LOB)已生成“大财务数据”,供学术界和行业从业者进行分析和预测。 本文提供了一个中国股票市场的基
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:774144
    • 提供者:weixin_42143092
  1. pytorch-gpu-基准-源码

  2. 关于 pytorch中不同cnn模型的不同GPU的学习和推理速度的比较 1080TI 泰坦五世 2080TI 规格 显卡名称 NVIDIA GeForce GTX 1080 Ti NVIDIA GeForce RTX 2080 Ti NVIDIA TITAN V 过程 16纳米 12纳米 12纳米 模具尺寸 471mm² 754平方毫米 815mm² 晶体管 118亿 186亿 211亿 CUDA核心 3584核心 4352核 5120核 张量芯 没有 544核心 640核心 时钟(
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:12582912
    • 提供者:weixin_42120550
  1. cifar-10-cnn:使用CIFAR数据集进行深度学习-源码

  2. 用于CIFAR-10的卷积神经网络 该存储库是关于cifar10的CNN体​​系结构的一些实现的。 我只是用Keras和Tensorflow到implementate所有这些CNN模型。 (如果有时间,可能是火炬/火炬版) pytorch版本可在 要求 巨蟒(3.5) keras(> = 2.1.5) tensorflow-gpu(> = 1.4.1) 建筑与论文 第一个CNN模型: LeNet 网络中的网络 Vgg19网络 在ILSVRC 2014本地化任务的第一个地方 在
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:1048576
    • 提供者:weixin_42115513
  1. 火山:Kubernetes本机批处理系统(CNCF下的项目)-源码

  2. 火山是建立在Kubernetes上的批处理系统。 它提供了许多类别的批处理和弹性工作负载通常需要的一套机制,包括:机器学习/深度学习,生物信息学/基因组学和其他“大数据”应用程序。 这些类型的应用程序通常在与Volcano集成的TensorFlow,Spark,PyTorch,MPI等通用域框架上运行。 Volcano积累了十五年的经验,使用多个系统和平台大规模运行各种高性能工作负载,并结合了开源社区的最佳创意和实践。 注意:调度程序是基于构建的; 有关更多详细信息,请参阅和 。 Volc
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:16777216
    • 提供者:weixin_42119358
  1. pytorch学习笔记(十五)————Early Stop,Dropout

  2. pytorch学习笔记(十五)————Early Stop,Dropout,SGD目录Early StopDropoutSGD随机梯度下降 目录 Early Stop (1)Early Stop的概念 Early Stop的概念非常简单,在我们一般训练中,经常由于过拟合导致在训练集上的效果好,而在测试集上的效果非常差。因此我们可以让训练提前停止,在测试集上达到最好的效果时候就停止训练,而不是等到在训练集上饱和在停止,这个操作就叫做Early Stop。 (2)Early Stop的过程 Dr
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:598016
    • 提供者:weixin_38739919
  1. pytorch、tensorflow之生成one-hot向量

  2. 对于标签分类:最后生成的可以是类别标签索引,也可以是one-hot向量(独热编码) 我们举一个五分类的例子: 可以用[3]:表示第三种分类 也可以用one-hot向量[0,0,1,0,0]:表示第三种分类 那么我们接下来用pytorch和tensorflow这两个深度学习框架来生成one-hot向量 Pytorch 生成one-hot向量 import torch from torch.nn import functional label = torch.tensor([2]) # 2显示的是
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:59392
    • 提供者:weixin_38677585
  1. 深度学习PyTorch入门(五)

  2. 卷积神经网络基础 互相关运算与卷积运算 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。 特征图与感受野 二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature map)。影响元素xxx的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做xxx的感受野(receptive
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:406528
    • 提供者:weixin_38703794
  1. e3bm:PyTorch实施“极少学习的历时经验贝叶斯合奏”(ECCV 2020)-源码

  2. 极少学习的历时经验贝叶斯合奏 该存储库包含论文“的历时”的PyTorch实现。 如果您对此存储库或相关文章有任何疑问,请随时或。 概括 介绍 少量学习旨在通过一些示例来训练有效的预测模型。 缺乏训练数据导致执行高方差或低置信度预测的模型较差。 在本文中,我们建议对时间经验贝叶斯模型(E 3 BM)的集合进行元学习,以实现可靠的预测。 “ Epoch-wise”意味着每个训练时期都有一个贝叶斯模型,其参数是专门学习和部署的。 “经验的”是指超参数,例如,用于学习和整合时代模型的超参数,是由超高级
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:31744
    • 提供者:weixin_42172572