您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. tapenade3.2 自动微分软件

  2. 自动微分技术可以减轻编程者对复杂公式的手动求导,非常方便,可应用于优化等各领域
  3. 所属分类:专业指导

    • 发布日期:2010-03-08
    • 文件大小:2097152
    • 提供者:qweabc12345
  1. 多项式计算器

  2. 本程序实现了多项式的加减乘 求导运算,用户随意输入,计算机自动排序,按降序排列,相同指数相合并,数据结构。c课程设计作业推荐
  3. 所属分类:C++

    • 发布日期:2012-01-05
    • 文件大小:6144
    • 提供者:waike2011
  1. AutoDiff-1.0

  2. AutoDiff-1.0 C#自动求导库,以及example,值得一看
  3. 所属分类:C#

    • 发布日期:2012-04-19
    • 文件大小:116736
    • 提供者:begin1988
  1. Recipes for adjoint code construction

  2. Recipes for adjoint code construction 伴随模式,自动求导
  3. 所属分类:讲义

    • 发布日期:2017-08-20
    • 文件大小:373760
    • 提供者:gfsfg8545
  1. 人脸识别代码

  2. ----------------- # DFace • [![License](http://pic.dface.io/apache2.svg)](https://opensource.org/licenses/Apache-2.0) | **`Linux CPU`** | **`Linux GPU`** | **`Mac OS CPU`** | **`Windows CPU`** | |-----------------|---------------------|----------
  3. 所属分类:机器学习

    • 发布日期:2018-03-20
    • 文件大小:2097152
    • 提供者:ihftujb
  1. 基于多任务卷积网络(MTCNN)和Center-Loss的多人实时人脸检测和人脸识别系统

  2. **DFace** 是个开源的深度学习人脸检测和人脸识别系统。所有功能都采用 **[pytorch](https://github.com/pytorch/pytorch)** 框架开发。pytorch是一个由facebook开发的深度学习框架,它包含了一些比较有趣的高级特性,例如自动求导,动态构图等。DFace天然的继承了这些优点,使得它的训练过程可以更加简单方便,并且实现的代码可以更加清晰易懂。 DFace可以利用CUDA来支持GPU加速模式。我们建议尝试linux GPU这种模式,它几乎
  3. 所属分类:Python

    • 发布日期:2018-05-15
    • 文件大小:3145728
    • 提供者:weixin_37960068
  1. pytorch中文文档.pdf

  2. PyTorch是一个基于Torch的Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebookd的人工智能小组开发,不仅能够 实现强大的GPU加速,同时还支持动态神经网络,这一点是现在很多主流框架如TensorFlow都不支持的。 PyTorch提供了两个高级功能: 1.具有强大的GPU加速的张量计算(如Numpy) 2.包含自动求导系统的深度神经网络 除了Facebook之外,Twitter、GMU和Salesforce等机构都采用了PyTorch。 官方教程包含了 Py
  3. 所属分类:互联网

    • 发布日期:2020-05-07
    • 文件大小:16777216
    • 提供者:weixin_43433969
  1. PyTorch官方教程中文版.pdf

  2. PyTorch是一个基于Torch的Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebookd的人工智能小组开发,不仅能够 实现强大的GPU加速,同时还支持动态神经网络,这一点是现在很多主流框架如TensorFlow都不支持的。 PyTorch提供了两个高级功能: 1.具有强大的GPU加速的张量计算(如Numpy) 2.包含自动求导系统的深度神经网络 除了Facebook之外,Twitter、GMU和Salesforce等机构都采用了PyTorch。 官方教程包含了
  3. 所属分类:深度学习

    • 发布日期:2020-02-14
    • 文件大小:16777216
    • 提供者:fendouai
  1. pytorch-master.zip

  2. pytorch 源码 PyTorch是一个开源的Python机器学习库,基于Torch,用于自然语言处理等应用程序。2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。它是一个基于Python的可续计算包,提供两个高级功能:1、具有强大的GPU加速的张量计算(如NumPy)。2、包含自动求导系统的的深度神经网络。
  3. 所属分类:机器学习

    • 发布日期:2020-01-17
    • 文件大小:12582912
    • 提供者:ujn20161222
  1. 浅谈Pytorch中的自动求导函数backward()所需参数的含义

  2. 今天小编就为大家分享一篇浅谈Pytorch中的自动求导函数backward()所需参数的含义,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:174080
    • 提供者:weixin_38698018
  1. 关于PyTorch 自动求导机制详解

  2. 今天小编就为大家分享一篇关于PyTorch 自动求导机制详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:99328
    • 提供者:weixin_38606466
  1. 最新《自动微分》综述教程

  2. 自动微分(Automatic Differentiation,简称AD)也称自动求导,算法能够计算可导函数在某点处的导数值的计算,是反向传播算法的一般化。
  3. 所属分类:机器学习

    • 发布日期:2020-11-22
    • 文件大小:1048576
    • 提供者:syp_net
  1. 浅谈Pytorch中的自动求导函数backward()所需参数的含义

  2. 正常来说backward( )函数是要传入参数的,一直没弄明白backward需要传入的参数具体含义,但是没关系,生命在与折腾,咱们来折腾一下,嘿嘿。 对标量自动求导 首先,如果out.backward()中的out是一个标量的话(相当于一个神经网络有一个样本,这个样本有两个属性,神经网络有一个输出)那么此时我的backward函数是不需要输入任何参数的。 import torch from torch.autograd import Variable a = Variable(torch.T
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:178176
    • 提供者:weixin_38565480
  1. Pytorch中的自动求梯度机制和Variable类实例

  2. 自动求导机制是每一个深度学习框架中重要的性质,免去了手动计算导数,下面用代码介绍并举例说明Pytorch的自动求导机制。 首先介绍Variable,Variable是对Tensor的一个封装,操作和Tensor是一样的,但是每个Variable都有三个属性:Varibale的Tensor本身的.data,对应Tensor的梯度.grad,以及这个Variable是通过什么方式得到的.grad_fn,根据最新消息,在pytorch0.4更新后,torch和torch.autograd.Variab
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:53248
    • 提供者:weixin_38745003
  1. 关于PyTorch 自动求导机制详解

  2. 自动求导机制 从后向中排除子图 每个变量都有两个标志:requires_grad和volatile。它们都允许从梯度计算中精细地排除子图,并可以提高效率。 requires_grad 如果有一个单一的输入操作需要梯度,它的输出也需要梯度。相反,只有所有输入都不需要梯度,输出才不需要。如果其中所有的变量都不需要梯度进行,后向计算不会在子图中执行。 >>> x = Variable(torch.randn(5, 5)) >>> y = Variable(torc
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:100352
    • 提供者:weixin_38670700
  1. PyTorch学习笔记(3)autograd 自动求导

  2. 自动求导 torch.autograd.backward 自动求取梯度 tensors 用于求导的张量 retain_graph 保存计算图 create_graph 创建导数计算图 用于高阶求导 grad_tensors 多梯度权重 flag = True # flag = False if flag: # requires_grad 要求梯度 w = torch.tensor([1.],requires_grad=True) x = torch.tensor([2.]
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:22528
    • 提供者:weixin_38635449
  1. 微分追迹公式在自动设计中的应用

  2. 在微机上我们使用Feder提出的微分追迹公式证实了用精确求导方法求取微分矩阵优于传统的差分方法,不仅其结果精确而且在多可变参数的情况下运算速度快,应用于自动设计程序中还具有良好的收敛效果.
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:3145728
    • 提供者:weixin_38610682
  1. python中几种自动微分库解析

  2. 前言 简单介绍下python的几个自动求导工具,tangent、autograd、sympy; 在各种机器学习、深度学习框架中都包含了自动微分,微分主要有这么四种:手动微分法、数值微分法、符号微分法、自动微分法,这里分别简单走马观花(hello world式)的介绍下下面几种微分框架; sympy 强大的科学计算库,使用的是符号微分,通过生成符号表达式进行求导;求得的导数不一定为最简的,当函数较为复杂时所生成的表达式树异常复杂; autograd自动微分先将符号微分用于基本的算子,带入数值并保
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:60416
    • 提供者:weixin_38503496
  1. tensorflow2.0-自动求导和自定义训练

  2. tensorflow2.0-自动求导 1 tf.GradientTape() tf.GradientTape()是常用的自动求导方法,分为三种情况,一阶导数,高阶导数,和多次求导。 一阶导数: 如果是常数(tf.constant),需要调用watch()方法进行手动监视,如果是变量则不需要,在model如果变量的trainable=True则自动监视。 x = tf.constant(3.0) with tf.GradientTape() as tape: # 需要调用 g.watch(
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:44032
    • 提供者:weixin_38744778
  1. pytorch中的自定义反向传播,求导实例

  2. pytorch中自定义backward()函数。在图像处理过程中,我们有时候会使用自己定义的算法处理图像,这些算法多是基于numpy或者scipy等包。 那么如何将自定义算法的梯度加入到pytorch的计算图中,能使用Loss.backward()操作自动求导并优化呢。下面的代码展示了这个功能` import torch import numpy as np from PIL import Image from torch.autograd import gradcheck class Bic
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:48128
    • 提供者:weixin_38564990
« 12 3 4 5 »