您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Applied Deep Learning

  2. 使用深度学习中的高级主题,例如优化算法,超参数调整,丢失和错误分析,以及解决训练深度神经网络时遇到的典型问题的策略。您将首先研究激活函数,主要是使用单个神经元(ReLu,Sigmoid和Swish),了解如何使用TensorFlow执行线性和逻辑回归,并选择正确的成本函数。 下一节将讨论具有多个层和神经元的更复杂的神经网络架构,并探讨权重随机初始化的问题。整章专门介绍神经网络误差分析的完整概述,给出了解决来自不同分布的方差,偏差,过度拟合和数据集的问题的示例。 Applied Deep Lear
  3. 所属分类:深度学习

    • 发布日期:2018-12-26
    • 文件大小:11534336
    • 提供者:weixin_39397839
  1. 关于tensorflow的几种参数初始化方法小结

  2. 今天小编就为大家分享一篇关于tensorflow的几种参数初始化方法小结,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:48128
    • 提供者:weixin_38685538
  1. tensorflow实现从.ckpt文件中读取任意变量

  2. 思路有些混乱,希望大家能理解我的意思。 看了faster rcnn的tensorflow代码,关于fix_variables的作用我不是很明白,所以写了以下代码,读取了预训练模型vgg16得fc6和fc7的参数,以及faster rcnn中heat_to_tail中的fc6和fc7,将它们做了对比,发现结果不一样,说明vgg16的fc6和fc7只是初始化了faster rcnn中heat_to_tail中的fc6和fc7,之后后者被训练。 具体读取任意变量的代码如下: import tenso
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:57344
    • 提供者:weixin_38661008
  1. 在tensorflow实现直接读取网络的参数(weight and bias)的值

  2. 训练好了一个网络,想要查看网络里面参数是否经过BP算法优化过,可以直接读取网络里面的参数,如果一直是随机初始化的值,则证明训练代码有问题,需要改。 下面介绍如何直接读取网络的weight 和 bias。 (1) 获取参数的变量名。可以使用一下函数获取变量名: def vars_generate1(self,scope_name_var): return [var for var in tf.global_variables() if scope_name_var in var.name ]
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:64512
    • 提供者:weixin_38626984
  1. 对Tensorflow中的变量初始化函数详解

  2. Tensorflow 提供了7种不同的初始化函数: tf.constant_initializer(value) #将变量初始化为给定的常量,初始化一切所提供的值。 假设在卷积层中,设置偏执项b为0,则写法为: 1. bias_initializer=tf.constant_initializer(0) 2. bias_initializer=tf.zeros_initializer(0) tf.random_normal_initializer(mean,stddev) #功能是将变量初始
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:38912
    • 提供者:weixin_38719702
  1. TensorFlow中权重的随机初始化的方法

  2. 一开始没看懂stddev是什么参数,找了一下,在tensorflow/python/ops里有random_ops,其中是这么写的: def random_normal(shape, mean=0.0, stddev=1.0, dtype=types.float32, seed=None, name=None): """Outputs random values from a normal distribution. Args: shape: A 1-D intege
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:38912
    • 提供者:weixin_38693524
  1. 详解tensorflow训练自己的数据集实现CNN图像分类

  2. 利用卷积神经网络训练图像数据分为以下几个步骤 1.读取图片文件 2.产生用于训练的批次 3.定义训练的模型(包括初始化参数,卷积、池化层等参数、网络) 4.训练 1 读取图片文件 def get_files(filename): class_train = [] label_train = [] for train_class in os.listdir(filename): for pic in os.listdir(filename+train_class): clas
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:79872
    • 提供者:weixin_38664556
  1. 基于tensorflow加载部分层的方法

  2. 一般使用 saver.restore(sess, modeldir + "model.ckpt") 即可加载已经训练好的网络,可是有时候想值使用部分层的参数,这时候可以选择在加载网络之后重新初始化剩下的层 var_list = [weights['wd1'], weights['out'], biases['bd1'], biases['out'], global_step] initfc = tf.variables_initializer(var_list, name='init') 比
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:31744
    • 提供者:weixin_38663544
  1. TensorFlow变量管理详解

  2. 一、TensorFlow变量管理 1. TensorFLow还提供了tf.get_variable函数来创建或者获取变量,tf.variable用于创建变量时,其功能和tf.Variable基本是等价的。tf.get_variable中的初始化方法(initializer)的参数和tf.Variable的初始化过程也类似,initializer函数和tf.Variable的初始化方法是一一对应的,详见下表。 tf.get_variable和tf.Variable最大的区别就在于指定变量名称的参
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:76800
    • 提供者:weixin_38609247
  1. Pytorch 实现权重初始化

  2. 在TensorFlow中,权重的初始化主要是在声明张量的时候进行的。 而PyTorch则提供了另一种方法:首先应该声明张量,然后修改张量的权重。通过调用torch.nn.init包中的多种方法可以将权重初始化为直接访问张量的属性。 1、不初始化的效果 在Pytorch中,定义一个tensor,不进行初始化,打印看看结果: w = torch.Tensor(3,4) print (w) 可以看到这时候的初始化的数值都是随机的,而且特别大,这对网络的训练必定不好,最后导致精度提不上,甚至损失无法收
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:46080
    • 提供者:weixin_38638688
  1. 小白带你用Numpy、Tensor、Autograd、TensorFlow等技术实现同一个机器学习任务

  2. 1.标量方向传播 1.1 代码 import torch #定义输入张量x x=torch.Tensor([3]) print(x) #初始化权重参数W,偏移量b、并设置require_grad属性为True,为自动求导 w=torch.randn(1,requires_grad=True) b=torch.randn(1,requires_grad=True) print("w=",w) print("b=",b) #实现前向传播 y=torch.mul(w,x) #等价于w*x pri
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:561152
    • 提供者:weixin_38560107
  1. Tensorflow2.0 实现 YOLOv3(七):train.py

  2. 文章目录文章说明导入需要的库构建数据集设置参数构建网络初始化优化器设置保存文件定义训练函数训练完整代码 文章说明 本系列文章旨在对 Github 上 malin9402 提供的代码进行说明,在这篇文章中,我们会对 YOLOv3 项目中的 train.py 文件进行说明。 如果只是想运行 Github 上的代码,可以参考对 YOLOv3 代码的说明一文。 导入需要的库 import os import time import shutil import numpy as np import ten
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:178176
    • 提供者:weixin_38738422
  1. python用TensorFlow做图像识别的实现

  2. 一、TensorFlow简介 TensorFlow是由谷歌开发的一套机器学习的工具,使用方法很简单,只需要输入训练数据位置,设定参数和优化方法等,TensorFlow就可以将优化结果显示出来,节省了很大量的编程时间,TensorFlow的功能很多很强大,这边挑选了一个比较简单实现的方法,就是利用TensorFlow的逻辑回归算法对数据库中的手写数字做识别,让机器找出规律,然后再导入新的数字让机器识别。 二、流程介绍 上图是TensorFlow的流程,可以看到一开始要先将参数初始化,然后导入训练
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:185344
    • 提供者:weixin_38606169
  1. RBP-ADDA-源码

  2. RBP-ADDA RBP-ADDA:基于对抗性域适应性推论RNA结合蛋白的靶标偏爱 要求: Python 3.7, Numpy 1.19, Tensorflow 1.15. 配置: Clone the repositopry into your working space. 运行模型: Source_train:对源网络和任务预测器进行预训练; 通过与源网络共享相同的参数和体系结构来初始化目标网络。 python main.py source_train test_data/train
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:1048576
    • 提供者:weixin_42125770
  1. coursera_deeplearning_specialization-源码

  2. Coursera上的深度学习专业 介绍 此仓库包含我针对该专业的所有工作。 所有代码库和资产均来自 。 深度学习专业化是我们的基础计划,它将帮助您了解深度学习的功能,挑战和后果,并使您为参与领先的AI技术的发展做好准备。 在本专业中,您将构建神经网络架构,例如卷积神经网络,递归神经网络,LSTM,变压器,并学习如何通过Dropout,BatchNorm,Xavier / He初始化等策略使它们更好。 您将使用Python和TensorFlow掌握这些理论概念及其行业应用。 您将处理现实案例研究
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:29360128
    • 提供者:weixin_42144707
  1. Tensorflow 多线程设置方式

  2. 一. 通过 ConfigProto 设置多线程 (具体参数功能及描述见 tensorflow/core/protobuf/config.proto) 在进行 tf.ConfigProto() 初始化时,可以通过设置相应的参数,来控制每个操作符 op 并行计算的线程个数或 session 线程池的线程数。主要涉及的参数有以下三个: 1. intra_op_parallelism_threads 控制运算符op内部的并行 当运算符 op 为单一运算符,并且内部可以实现并行时,如矩阵乘法,redu
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:49152
    • 提供者:weixin_38681646
  1. Tensorflow 进行MNIST手写字体识别中权重初始化问题

  2. 在对卷积层及池化层进行权重初始化时, 激活函数为 sigmoid 时: def weight_variable(shape): inital = tf.truncated_normal(shape) return tf.Variable(inital) 权重初始化为截断正态分布,默认参数如下: def truncated_normal(shape, mean=0.0, stddev=1.0,
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:30720
    • 提供者:weixin_38680764
  1. TensorFlow 滑动平均的示例代码

  2. 滑动平均会为目标变量维护一个影子变量,影子变量不影响原变量的更新维护,但是在测试或者实际预测过程中(非训练时),使用影子变量代替原变量。 1、滑动平均求解对象初始化 ema = tf.train.ExponentialMovingAverage(decay,num_updates) 参数decay `shadow_variable = decay * shadow_variable + (1 – decay) * variable` 参数num_updates `min(decay, (1
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:62464
    • 提供者:weixin_38684509
  1. 关于tensorflow的几种参数初始化方法小结

  2. 在tensorflow中,经常会遇到参数初始化问题,比如在训练自己的词向量时,需要对原始的embeddigs矩阵进行初始化,更一般的,在全连接神经网络中,每层的权值w也需要进行初始化。 tensorlfow中应该有一下几种初始化方法 1. tf.constant_initializer() 常数初始化 2. tf.ones_initializer() 全1初始化 3. tf.zeros_initializer() 全0初始化 4. tf.random_uniform_initializer()
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38680664
  1. tensorflow保持每次训练结果一致的简单实现

  2. 在用tensorflow构建神经网络的时候,有很多随机的因素,比如参数的随机初始化: 正态分布随机变量tf.random_normal([m,n]),均匀分布的随机变量tf.random_uniform([m,n]),还有在从tfrecord读取数据时,也会随机打乱数据。 那么由于这些随机的操作,即使是在输入数据完全一样的情况下,每次训练的结果也不一样,那么如果想要使得每次训练的结果一致,应该怎么做呢? 可以在最开始时,固定随机数种子,如下 tf.set_random_seed(1) 以上
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:41984
    • 提供者:weixin_38560039
« 12 »