您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. TensorFlow入门教程,从基本概念到实战分析 by 李理|出门问问

  2. 出门问问NLP工程师李理分享的TensorFlow Tutorial,内容涵盖: TensorFlow是什么、自动求梯度、自定义op、基本概念、install和build以及实战案例等。更为可贵的是还提供了大量帮助了解TensorFlow的参考资料。
  3. 所属分类:讲义

    • 发布日期:2016-07-09
    • 文件大小:1048576
    • 提供者:happytofly
  1. 多项式拟合正弦函数

  2. 实验要求: 1. 生成数据,加入噪声; 2. 用高阶多项式函数拟合曲线; 3. 用解析解求解两种loss的最优解(无正则项和有正则项) 4. 优化方法求解最优解(梯度下降,共轭梯度); 5. 用你得到的实验数据,解释过拟合。 6. 用不同数据量,不同超参数,不同的多项式阶数,比较实验效果。 7. 语言不限,可以用matlab,python。求解解析解时可以利用现成的矩阵求逆。梯度下降,共轭梯度要求自己求梯度,迭代优化自己写。不许用现成的平台,例如pytorch,tensorflow的自动微分工
  3. 所属分类:机器学习

    • 发布日期:2018-10-14
    • 文件大小:6144
    • 提供者:qinglingls
  1. AI学习知识点.xmind

  2. *AI学习知识点* 1. 基础知识 概率论 微积分与逼近论 极限、微分、积分的基本概念 利用逼近的思想理解微积分,利用积分的方式理解概率论 概率论的基础 古典模型 常见的概率分布 大数定理和中心极限定理 协方差和相关系数 最大似然估计和最大后验估计 凸优化 凸优化的基本概念 凸函数 凸集 凸优化问题的标准形式 线性代数及矩阵 线性空间及线性变化 矩阵的基本概念 状态转移矩阵 特征
  3. 所属分类:Python

    • 发布日期:2019-07-15
    • 文件大小:240640
    • 提供者:lingfeian
  1. 2.3 自动求梯度.ipynb

  2. 动手学深度学习 之 tensorflow 的第二章第三节的jupyter notebook的代码部分及其对应标注。需要注意的部分已经加粗。
  3. 所属分类:深度学习

    • 发布日期:2020-08-02
    • 文件大小:6144
    • 提供者:weixin_45806789
  1. tensorflow求导和梯度计算实例

  2. 今天小编就为大家分享一篇tensorflow求导和梯度计算实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:27648
    • 提供者:weixin_38595473
  1. TensorFlow梯度求解tf.gradients实例

  2. 今天小编就为大家分享一篇TensorFlow梯度求解tf.gradients实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:29696
    • 提供者:weixin_38574410
  1. cifar10_multi_gpu_train.py

  2. TensorFlow多GPU训练官方示例,绝壁不是草泥马写个CUDA_VISIBLE_DEVICES就可以解决的事情。整体思路关键是求变量在各个GPU上的梯度平均值,然后用梯度平均值去更新变量。
  3. 所属分类:深度学习

    • 发布日期:2020-11-29
    • 文件大小:10240
    • 提供者:liugan528
  1. Tensorflow 卷积的梯度反向传播过程

  2. 一. valid卷积的梯度 我们分两种不同的情况讨论valid卷积的梯度:第一种情况,在已知卷积核的情况下,对未知张量求导(即对张量中每一个变量求导);第二种情况,在已知张量的情况下,对未知卷积核求导(即对卷积核中每一个变量求导) 1.已知卷积核,对未知张量求导 我们用一个简单的例子理解valid卷积的梯度反向传播。假设有一个3×3的未知张量x,以及已知的2×2的卷积核K Tensorflow提供函数tf.nn.conv2d_backprop_input实现了valid卷积中对未知变量的求导,以
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:43008
    • 提供者:weixin_38538224
  1. tensorflow求导和梯度计算实例

  2. 1. 函数求一阶导 import tensorflow as tf tf.enable_eager_execution() tfe=tf.contrib.eager from math import pi def f(x): return tf.square(tf.sin(x)) assert f(pi/2).numpy()==1.0 sess=tf.Session() grad_f=tfe.gradients_function(f) print(grad_f(np.zeros(1))[0
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:34816
    • 提供者:weixin_38614287
  1. tensorflow 查看梯度方式

  2. 1. 为什么要查看梯度 对于初学者来说网络经常不收敛,loss很奇怪(就是不收敛),所以怀疑是反向传播中梯度的问题 (1)求导之后的数(的绝对值)越来越小(趋近于0),这就是梯度消失 (2)求导之后的数(的绝对值)越来越大(特别大,发散),这就是梯度爆炸 所以说呢,当loss不正常时,可以看看梯度是否处于爆炸,或者是消失了,梯度爆炸的话,网络中的W也会很大,人工控制一下(初始化的时候弄小点等等肯定还有其它方法,只是我不知道,知道的大神也可以稍微告诉我一下~~),要是梯度消失,可以试着用用resn
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:43008
    • 提供者:weixin_38686557