您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 人脸识别代码

  2. ----------------- # DFace • [![License](http://pic.dface.io/apache2.svg)](https://opensource.org/licenses/Apache-2.0) | **`Linux CPU`** | **`Linux GPU`** | **`Mac OS CPU`** | **`Windows CPU`** | |-----------------|---------------------|----------
  3. 所属分类:机器学习

    • 发布日期:2018-03-20
    • 文件大小:2097152
    • 提供者:ihftujb
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1048576
    • 提供者:abacaba
  1. pytorch 自定义参数不更新方式

  2. 今天小编就为大家分享一篇pytorch 自定义参数不更新方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:33792
    • 提供者:weixin_38526612
  1. 详解Pytorch 使用Pytorch拟合多项式(多项式回归)

  2. 使用Pytorch来编写神经网络具有很多优势,比起Tensorflow,我认为Pytorch更加简单,结构更加清晰。 希望通过实战几个Pytorch的例子,让大家熟悉Pytorch的使用方法,包括数据集创建,各种网络层结构的定义,以及前向传播与权重更新方式。 比如这里给出      很显然,这里我们只需要假定 这里我们只需要设置一个合适尺寸的全连接网络,根据不断迭代,求出最接近的参数即可。 但是这里需要思考一个问题,使用全连接网络结构是毫无疑问的,但是我们的输入与输出格式是什么样的呢? 只将一
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:88064
    • 提供者:weixin_38714532
  1. pytorch载入预训练模型后,实现训练指定层

  2. 1、有了已经训练好的模型参数,对这个模型的某些层做了改变,如何利用这些训练好的模型参数继续训练: pretrained_params = torch.load('Pretrained_Model') model = The_New_Model(xxx) model.load_state_dict(pretrained_params.state_dict(), strict=False) strict=False 使得预训练模型参数中和新模型对应上的参数会被载入,对应不上或没有的参数被抛弃。 2
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:48128
    • 提供者:weixin_38663701
  1. contiguous_pytorch_params:通过将参数存储在一个连续的内存块中来加速训练-源码

  2. Pytorch的连续参数 通过将参数存储在一个连续的内存块中来加速训练。 3行代码加速您的优化器! 该图显示了使用Adam和渐变裁剪功能在Cifar10上使用Resnet50对GPU步迹进行比较,其中包含和不包含连续参数。上面的跟踪与默认优化器一起使用,下面的跟踪与参数包装器一起使用。 使用SGD在Cifar10上对Resnet50进行步骤跟踪比较。 与Apex有什么区别? Apex在C ++中实现了完整的优化器更新,并且仅限于受支持的优化器。该包装器允许使用任何优化器,只要它就地更新参
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:215040
    • 提供者:weixin_42144086
  1. yolov5_mytest-源码

  2. 该存储库代表Ultralytics对未来的对象检测方法的开源研究,并结合了在匿名客户数据集上数千小时的培训和发展过程中汲取的经验教训和最佳实践。所有代码和模型都在积极开发中,如有更改或删除,恕不另行通知。使用风险自负。 ** GPU速度使用批处理大小为32的V100 GPU测量超过5000张COCO val2017图像的每幅图像的端到端时间,包括图像预处理,PyTorch FP16推理,后处理和NMS。来自EfficientDet数据(批量大小为8)。 2021年1月5日: :nn.SiL
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:18874368
    • 提供者:weixin_42116734
  1. how-to-read-pytorch:通过五个colab笔记本快速,直观,原则性地介绍pytorch代码-源码

  2. 大卫关于如何阅读火炬的技巧 这五个python笔记本是对pytorch核心习语的插图说明。单击下面的命令在Colab上运行它们。 :用于在CPU或GPU上处理n维数字数组的表示法。 :如何获得关于任何张量输入的任何标量的导数。 :使用自动渐变梯度更新张量参数以减少任何计算目标的方法。 :pytorch如何表示神经网络以方便组合,训练和保存。 :用于大型数据流的高效多线程预取。 Pytorch是一个数值库,可以非常方便地在GPU硬件上训练深度网络。它引入了一个新的编程词汇表,它比常规
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:588800
    • 提供者:weixin_42102933
  1. AI_Dresses_Itself:这是Sirtube Raval在YouTube上发布的“可以自己打扮的AI”的代码-源码

  2. 概述 这是Siraj Raval在YouTube上录制的视频的代码。这是研究人员在视频中使用的“信任区域策略优化”算法的实现。但是,他们没有公开其完整代码。因此,这是应用于游戏环境的技术。有人可以将其用作重新创建代码的起点。同时-嗨,研究人员:)继续发布它,社区对此表示赞赏。 TRPO的PyTorch实施 除非您出于某些特定原因需要TRPO,否则请尝试此实现(又名TRPO的更新更好的变体)。 这是的PyTorch实现。 这是大多数代码从移植而来的代码。与,该实现方式使用精确的Hessian向量
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:8192
    • 提供者:weixin_42139871
  1. yolov5-master-源码

  2. 该存储库代表了Ultralytics对未来对象检测方法的开源研究,并结合了我们在以前的YOLO存储库上在自定义客户端数据集上训练成千上万个模型而获得的经验教训和最佳实践。 所有代码和模型都在积极开发中,如有更改或删除,恕不另行通知。 使用风险自负。 ** GPU速度使用批处理大小为32的V100 GPU测量超过5000张COCO val2017图像的平均每张图像的端到端时间,包括图像预处理,PyTorch FP16推理,后处理和NMS。 来自EfficientDet数据(批量大小为8)。 2
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:382976
    • 提供者:weixin_42102634
  1. few_shot_meta_learning:许多元学习算法的实现,以解决Pytorch中的一次性学习问题-源码

  2. 少量的元学习 该存储库包含许多元学习算法的实现,以解决PyTorch中的少量学习问题,包括: Python套件需求 PyTorch 1.8 (引入了新的Lazy模块) 火炬模块功能形式的新更新 “功能性”是什么意思? 它类似于模块torch.nn.functional ,其中可以显式处理参数,而不是像PyTorch torch.nn.Sequential()那样隐式地处理参数。 例如,可以构建一个2隐层从PyTorch下完全连接的神经网络fc_model : # conventional wi
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:37888
    • 提供者:weixin_42131541
  1. yolo_rddc-源码

  2. 该存储库代表Ultralytics对未来的对象检测方法的开源研究,并结合了在匿名客户数据集上数千小时的培训和发展过程中汲取的经验教训和最佳实践。 所有代码和模型都在积极开发中,如有更改或删除,恕不另行通知。 使用风险自负。 ** GPU速度使用批处理大小为32的V100 GPU测量超过5000张COCO val2017图像的每幅图像的端到端时间,包括图像预处理,PyTorch FP16推理,后处理和NMS。 来自EfficientDet数据(批量大小为8)。 2021年1月5日: :nn.S
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:1048576
    • 提供者:weixin_42119989
  1. yolo5条形码-源码

  2. 该存储库代表Ultralytics对未来的对象检测方法的开源研究,并结合了在匿名客户数据集上数千小时的培训和发展过程中汲取的经验教训和最佳实践。 所有代码和模型都在积极开发中,如有更改或删除,恕不另行通知。 使用风险自负。 ** GPU速度使用批处理大小为32的V100 GPU测量超过5000张COCO val2017图像的平均每张图像的端到端时间,包括图像预处理,PyTorch FP16推理,后处理和NMS。 来自EfficientDet数据(批量大小为8)。 2021年1月5日: :nn
  3. 所属分类:其它

    • 发布日期:2021-02-27
    • 文件大小:1048576
    • 提供者:weixin_42097914
  1. network_analysis:分析网络,包括经过训练的网络。 培训由pytorch完成-源码

  2. 网络分析 Python 3.7中的网络分析工具,包括受过训练的网络。 培训由pytorch完成。 主要有三个包 这些工具目前尚未准备好供广大读者使用(特别是文档稀疏且不一致)。 将来的更新可能会改变这一点。 主要模块有四个:(1)models.py包含PyTorch torch.nn.Module对象。 这些是可用于训练的网络模型。 (2)model_trainer.py包含一个函数train_model,该函数接受模型,优化器,损失函数等并训练模型。 (3)model_output_man
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:28672
    • 提供者:weixin_42131443
  1. lemniscate.pytorch:通过非参数实例区分进行无监督特征学习-源码

  2. 通过非参数实例区分进行无监督特征学习 此回购包含CVPR2018无监督学习论文的pytorch实施。 更新了预训练模型 提供了具有存储体实现且nce-k = 65536否定值的更新的实例判别模型。 如在CPC / MoCo中一样,使用Softmax-CE损失而不是原始NCE损失来训练更新的模型。 (线性ImageNet Acc 58.5%) 老歌:ResNet18和ResNet50的原始版本经过训练,带有4096个底片和NCE损失。 每个tar球都包含所有ImageNet训练图像(600
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:22528
    • 提供者:weixin_42166105
  1. yolov5:PyTorch中的YOLOv5> ONNX> CoreML> TFLite-源码

  2. 该存储库代表Ultralytics对未来的对象检测方法的开源研究,并结合了在匿名客户数据集上数千小时的培训和发展过程中汲取的经验教训和最佳实践。 所有代码和模型都在积极开发中,如有更改或删除,恕不另行通知。 使用风险自负。 ** GPU速度使用批处理大小为32的V100 GPU测量超过5000张COCO val2017图像的平均每张图像的端到端时间,包括图像预处理,PyTorch FP16推理,后处理和NMS。 来自EfficientDet数据(批量大小为8)。 2021年1月5日: :nn
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42160425
  1. deepvoice3_pytorch:基于卷积神经网络的文本到语音合成模型的PyTorch实现-源码

  2. Deepvoice3_pytorch 基于卷积网络的文本到语音合成模型的PyTorch实现: :深度语音3:通过卷积序列学习将文本转换为语音。 :基于深度卷积网络并具有指导性注意力的高效可训练的文本语音转换系统。 音频示例可从。 民间 :具有WORLD声码器支持的DeepVoice3。 在线TTS演示 可以在上执行的笔记本可用: 强调 卷积序列到序列模型,用于文本到语音合成 DeepVoice3的多扬声器和单扬声器版本 音频样本和预训练模型 用于 , 和数据集以及兼容的自定义数据
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:6291456
    • 提供者:weixin_42137032
  1. COVIDNet:COVID-Net的PyTorch实施https:github.comlindawanggCOVID-Net-源码

  2. 网络 我的PyTorch COVID-Net实现,有关原始工作,请参见: : 这个github的目的是重现结果,而不是要求最先进的性能! 另外,也可以在此处使用Google Colab Notebook进行即插即用培训和评估[ 即将更新~~ 9月中旬 目录 入门 安装 要安装所需的python软件包,请使用以下命令 pip install -r requirements.txt 用法 训练 网络将形状为(N,224,224,3)的图像作为输入,并将softmax概率输出为(N,C),其
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:811008
    • 提供者:weixin_42122340
  1. Pytorch:批量数据(batch)分割

  2. 原文地址 分类目录——Pytorch 深度学习可行的一个前提是假设数据之间是相互独立的,用相关的数据进行训练会让训练的模型局限于满足一撮数据,没有实用性。而更多的现实情况是数据之间存在着或多或少的相关性,所以深度学习中常用海量数据来弥补数据间相关所产生的训练模型的不足。在大量数据中学习中,小批量(batch)梯度下降是一种比较好的方式,每次选取一小部分数据来进行参数更新,既能沿着较好的方向更新,又能兼顾训练的效率 另外,从数据集中随机(不连续)抽取数据也是可以减弱数据相关性的影响的。这一点在随机
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:53248
    • 提供者:weixin_38734200
  1. pytorch 自定义参数不更新方式

  2. nn.Module中定义参数:不需要加cuda,可以求导,反向传播 class BiFPN(nn.Module): def __init__(self, fpn_sizes): self.w1 = nn.Parameter(torch.rand(1)) print(no---------------------------------------------------,self.w1.data, self.w1.grad) 下面这个例子说明中间变量可能没有梯度,但是最终变量有梯
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:34816
    • 提供者:weixin_38725902
« 12 »