您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. rnn语言分类

  2. pytorch RNN模型,分类语言。多分类问题,生成混淆矩阵。
  3. 所属分类:深度学习

    • 发布日期:2018-12-19
    • 文件大小:16384
    • 提供者:m0_37246384
  1. pytorch实现softmax多重分类

  2. 代码清晰的说明使用pytorch实现多重分类, 有十个分类标签,用到的思路就是贝叶斯朴素分类器的思想,多分类问题参照BCELoss的函数表达式可变成loss(yhat, y) = -y*log(yhat),Torch.nn.EntropyLoss()交叉熵损失:包含softmax,log处理loss计算和非线性激活
  3. 所属分类:深度学习

    • 发布日期:2020-07-10
    • 文件大小:6144
    • 提供者:curse12
  1. pytorch 多分类问题,计算百分比操作

  2. 主要介绍了pytorch 多分类问题,计算百分比操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:88064
    • 提供者:weixin_38668274
  1. pytorch 多分类问题,计算百分比操作

  2. 二分类或分类问题,网络输出为二维矩阵:批次x几分类,最大的为当前分类,标签为one-hot型的二维矩阵:批次x几分类 计算百分比有numpy和pytorch两种实现方案实现,都是根据索引计算百分比,以下为具体二分类实现过程。 pytorch out = torch.Tensor([[0,3], [2,3], [1,0], [3,4]]) cond = torch.Tensor([[1,0], [0,1], [1,0], [1,0
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:89088
    • 提供者:weixin_38631960
  1. 基于MSELoss()与CrossEntropyLoss()的区别详解

  2. 基于pytorch来讲 MSELoss()多用于回归问题,也可以用于one_hotted编码形式, CrossEntropyLoss()名字为交叉熵损失函数,不用于one_hotted编码形式 MSELoss()要求batch_x与batch_y的tensor都是FloatTensor类型 CrossEntropyLoss()要求batch_x为Float,batch_y为LongTensor类型 (1)CrossEntropyLoss() 举例说明: 比如二分类问题,最后一层输出的为2个值,比
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:68608
    • 提供者:weixin_38589812
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38747144
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38543950
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38588854
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38741195
  1. Pytorch中torch.nn的损失函数

  2. 目录 前言 一、torch.nn.BCELoss(weight=None, size_average=True) 二、nn.BCEWithLogitsLoss(weight=None, size_average=True) 三、torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=True) 四、总结 前言 最近使用Pytorch做多标签分类任务,遇到了一些损失函数的问题,因为经常会忘记(好记性不如烂笔头囧rz),都是现学现用,所
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38735182
  1. RuntimeError: DataLoader worker (pid(s) 9528, 8320) exited unexpectedly

  2. 原文地址 分类目录——Pytorch 关键词: Data.DataLoader、num_workers、batch Pytorch在开进行小批量数据下降时开多进程报错 报错内容 RuntimeError: DataLoader worker (pid(s) 9528, 8320) exited unexpectedly 去网上搜教程,说是在loader定义的时候多进程的参数指定的问题,我的loader定义如下 loader = Data.DataLoader( dataset=torch
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38674992
  1. win10+cuda10.0+pytorch安装

  2. 简介 由于PyTorch在中国大陆的安装包下载十分缓慢,导致很多在线安装方法难以实现。故对Pytorch在windows下的安装方法做一个简单说明,希望能够帮助到更多的朋友。有任何问题,可以联系我。解决方法是:先将安装包下载到本地,再用pip install安装。 本机配置 系统配置 Windows Anaconda 环境 Python 3.7 CUDA内核显卡 NVIDIA Quadro P4000 1、进入Pytorch官网https://pytorch.org/ 看到该部分类容后,根据
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:100352
    • 提供者:weixin_38662122
  1. Cross-iterationBatchNorm-源码

  2. 交叉迭代批量归一化 ,,,,。 此回购协议是基于open-mmlab的mmdetection在COCO对象检测上的正式实现。该存储库包含CBN层的PyTorch实现,以及一些训练脚本来重现本文中报告的COCO对象检测和实例分割结果。 介绍 CBN在最初描述 。批量标准化的一个众所周知的问题是,在小批量生产的情况下,其有效性显着降低。在这里,我们介绍了交叉迭代批量归一化(CBN),其中多个近期迭代的示例被联合利用以提高估计质量。一个挑战是,由于网络权重的变化,来自不同迭代的网络激活彼此之间不具有可
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:16777216
    • 提供者:weixin_42163404
  1. Spotify_Project-源码

  2. Spotify项目 概括 对于我的顶点项目,我选择解决基于歌曲属性为歌曲分配流派的问题。在这种情况下,Spotify正在考虑发布音乐,类似于SoundCloud允许用户发布内容的方式。在准备向平台添加音乐的用户时, Spotify要求一种将这些新歌曲分类到各自流派中的方法。我选择使用PyTorch构建一个多类分类模型来创建一个神经网络。来自kaggle的数据由于在目标值类型方面不平衡而受到限制。鉴于这种缺陷,我能够将基准精度提高十倍。该存储库包含与此项目有关的所有材料。 目录 文档名称 类型 描
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:15728640
    • 提供者:weixin_42166623
  1. simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码

  2. 简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:17825792
    • 提供者:weixin_42165018
  1. Research-Internship:pytorch及推荐系统学习记录-源码

  2. 研究实习 2021年-火炬和推荐的系统学习记录。 pytorch:第一阶段的熟悉每个模块的知识和实践 了解基于3.9的pytorch构建培训网络的一般过程。 张量操纵,损失函数,激活函数,GPU加速; 在3.10上动手进行多分类问题。 优化功能,完全连接的层,卷积,合并,bathNorm,在3.11上进行交叉验证。 经典卷积网络,resnet的实现和实践3.12。 在3.13上的LSTM层,RNN的实现和实践。 练习3.13中的情绪问题。
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:98304
    • 提供者:weixin_42151036
  1. monk_v1:Monk是一种低代码深度学习工具,并且是计算机视觉的统一包装器-源码

  2. 为什么使用和尚 问题:想开始学习计算机视觉 解决方案:从Monk的动手学习路线图教程开始 问题:多个库,因此需要学习多种语法 解决方案:和尚的一种语法来统治所有这些-pytorch,keras,mxnet等 问题:在参加深度学习竞赛时很难跟踪所有试验项目 解决方案:使用和尚的项目管理并进行多个原型实验 问题:在训练分类器时很难设置超参数 解决方案:尝试使用超参数分析仪以找到合适的位置 问题:寻找图书馆为您的客户建立快速解决方案 解决方案:使用和尚的低代码语法进行训练,推断和部署 创建真实世界的图
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:165675008
    • 提供者:weixin_42097369
  1. ilo:使用深度生成模型对逆问题进行中间层优化的正式实施-源码

  2. 官方实施:使用深度生成模型对逆问题进行中间层优化 该存储库托管了该论文的官方PyTorch实现:“使用深度生成模型对逆问题进行中间层优化”。 抽象 我们提出了中间层优化(ILO),这是一种用于解决具有深层生成模型的逆问题的新型优化算法。 不仅仅对初始潜在代码进行优化,我们还逐步更改了输入层,从而获得了更多具有表现力的生成器。 为了探索更高维度的空间,我们的方法搜索位于上一层所诱导的流形周围的小l1球内的潜在代码。 我们的理论分析表明,通过使球的半径保持相对较小,我们可以使用深度生成模型来改善压
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:51380224
    • 提供者:weixin_42121754
  1. TorchRC:在PyTorch API中很好地集成了有组织的储层计算模型和技术集合-源码

  2. 火炬RC 在PyTorch API中很好地集成了有组织的储层计算模型和技术集合。 警告:正在进行中! 里面有什么 楷模 目前,该库包含以下实现: (泄漏/深度/双向)回波状态网络( torch_rc.nn.LeakyESN ) (泄漏/深度/双向)带有环形或多环水库的回波状态网络( torch_rc.nn.MultiringESN ) 更多型号即将问世。 优化器 TorchRC允许以封闭形式或使用标准PyTorch优化器来训练油藏模型。 支持精确的增量式封闭格式技术,以支持将所有网络状
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:23552
    • 提供者:weixin_42165712
  1. siatl:NAACL 2019论文的PyTorch源代码“从预训练的语言模型进行迁移学习的令人尴尬的简单方法”-Source code learning

  2. 此存储库包含NAACL 2019论文“从预训练的语言模型进行学习的尴尬简单方法”的源代码 介绍 本文提出了一种简单的转移学习方法,用于解决灾难性遗忘问题。 我们预先训练语言模型,然后将其转移到新模型,并在其中添加循环层和注意机制。 基于多任务学习,我们使用损失的加权总和(语言模型损失和分类损失),并在(分类)任务上微调预训练模型。 建筑学 第一步: 基于LSTM的单词级语言模型的预训练 第二步: 在分类任务上微调语言模型(LM) 使用辅助LM损耗 使用2个不同的优化器(1个用于预训练零件
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:506880
    • 提供者:weixin_42101164
« 12 »