您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. tensorflow卷积神经网络

  2. 基于tensoflow1.8实现的卷积神经网络,包括两个卷积层,两个池化层,一个dropout层和一个输出层
  3. 所属分类:深度学习

    • 发布日期:2018-07-10
    • 文件大小:4096
    • 提供者:ch2725
  1. 基于tensorflow的SSD+SORT多目标跟踪源码

  2. 来源https://blog.csdn.net/ycc2011/article/details/85094651 根据上面两个代码,自己修改了对应的检测和关联数据接口; !!!使用视频流作为数据输入,并输出对应的每帧图像到对应目录,同时显示追踪过程到屏幕上。具体可参考对应源码。 从文件夹中的notebook进入,修改对应视频数据流源地址和对应追踪关联后的输出数据。 我需要一些csdn下载积分供自己以后用,所以设置了分值。。。
  3. 所属分类:深度学习

    • 发布日期:2018-12-19
    • 文件大小:196083712
    • 提供者:ycc2011
  1. 多任务学习模型 python-keras实现 [tf-tensorflow-keras]

  2. 关键词:多输入多输出/BatchNormalization/dropout 两个不同领域输入,两个回归/分类任务, input_domain_a, input_domain_b concatenate(共享) task1:dense-BatchNormalization-dropout-dense task2:dense-BatchNormalization-dropout-dense
  3. 所属分类:深度学习

    • 发布日期:2019-07-10
    • 文件大小:2048
    • 提供者:zh_mars
  1. tensorflow学习笔记

  2. tensorflow学习笔记 目前主要有两种度量模型深度的方式。第一个观点是基于评估架构所需执行的 顺序指令的数目。假设我们将模型表示为给定输入后,计算对应输出的流程图,则 可以将这张流程图中的最长路径视为模型的深度。正如两个使用不同语言编写的等 价程序将具有不同的长度;相同的函数可以被绘制为具有不同深度的流程图,其深 度取决于我们可以用来作为一个步骤的函数。
  3. 所属分类:深度学习

    • 发布日期:2019-04-20
    • 文件大小:9437184
    • 提供者:grispeut
  1. Tensorflow2.0如何在网络中规定多个输出

  2. 有时,我们需要使所建立的网络输出多个层的结果(例如神经风格迁移中)。这时,我们需要在网络中定义输出。下面用VGG19网络举例。 加载VGG19模型 vgg = tf.keras.applications.VGG19(include_top=False, weights='imagenet') vgg.trainable = False 对于迁移学习,可以参考:Tensorflow2.0之tf.keras.applacations迁移学习 。 vgg.summary() 得到网络结构: Mod
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:34816
    • 提供者:weixin_38592256
  1. Tensorflow轻松实现XOR运算的方式

  2. 对于“XOR”大家应该都不陌生,我们在各种课程中都会遇到,它是一个数学逻辑运算符号,在计算机中表示为“XOR”,在数学中表示为“”,学名为“异或”,其来源细节就不详细表明了,说白了就是两个a、b两个值做异或运算,若a=b则结果为0,反之为1,即“相同为0,不同为1”. 在计算机早期发展中,逻辑运算广泛应用于电子管中,这一点如果大家学习过微机原理应该会比较熟悉,那么在神经网络中如何实现它呢,早先我们使用的是感知机,可理解为单层神经网络,只有输入层和输出层(在吴恩达老师的系列教程中曾提到过这一点,关
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:184320
    • 提供者:weixin_38612527
  1. Tensorflow累加的实现案例

  2. 由于python内部的变量其实都是reference,而Tensorflow实现的时候也没有意义去判断输出是否是同一变量名,从而判定是否要新建一个Tensor用于输出。Tensorflow为了满足所有需求,定义了两个不同的函数:tf.add和tf.assign_add。从名字即可看出区别,累加应该使用tf.assign_add。同理的还有tf.assign_sub和tf.assign。 具体地,笔者需要一个iteration counter类似的变量,即每次使用一个batch更新参数之后都使得该
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:39936
    • 提供者:weixin_38645862
  1. tensorflow实现将ckpt转pb文件的方法

  2. 本博客实现将自己训练保存的ckpt模型转换为pb文件,该方法适用于任何ckpt模型,当然你需要确定ckpt模型输入/输出的节点名称。    使用 tf.train.saver()保存模型时会产生多个文件,会把计算图的结构和图上参数取值分成了不同的文件存储。这种方法是在TensorFlow中是最常用的保存方式。     例如:下面的代码运行后,会在save目录下保存了四个文件: import tensorflow as tf # 声明两个变量 v1 = tf.Variable(tf.random
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:87040
    • 提供者:weixin_38607864
  1. python读取图片的方式,以及将图片以三维数组的形式输出方法

  2. 近期做个小项目需要用到python读取图片,自己整理了一下两种读取图片的方式,其中一种用到了TensorFlow,(TensorFlow是基于python3 的)。代码及运行结果如下所示: import numpy as np from PIL import Image import matplotlib.pyplot as plt image = Image.open(r'C:\Users\Administrator\Desktop\data\train\forest_001.jpg')
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:94208
    • 提供者:weixin_38673237
  1. tensorflow 基础API

  2. tensorflow 基础APItensorflow 常量(constant)创建常量矩阵创建常量、常量定义类型、定义一个随机数(标量)定义一个有2个元素的零向量、定义两个2×2的常量矩阵0维张量、字符串张量矩阵操作举例加法、平方、矩阵相乘、转置输出矩阵信息打印矩阵、打印范围行、打印第几行、用numpy输出输出矩阵形状、类型和numpy相互转换字符串张量创建字符串常量、打印字符串常量获得字符串长度、获得在utf8编码下的长度、将字符串从unicode转换成utf-8不等长矩阵、不等长矩阵转换成普
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:75776
    • 提供者:weixin_38556737
  1. ClassifierForCifar10_TensorFlow:分类CIFAR10数据的小分类器,为了交作业写的(基于TensorFlow源码),分别使用基础的CNN和ResNet两个网络进行了比对,同时是一个很典型的TensorFlow分

  2. 以CIFAR10数据为例的分类器 实验课作业,由于是很经典的分类任务,所以整理了一下记录下来,实际上TensorFlow源码中就有很好的CIFAR10示例(包含单机和多样化版本),不过既然要交作业,自己的在基础CNN分类的版本外,添加了使用ResNet进行分类的实验,收敛速度远快于基础CNN。 一,文件介绍 公用脚本 ops.py网络层封装实现,已被Advanced_CNN.py和ResNet.py调用cifar10_input.py :数据读入相关函数脚本,包含对训练数据和测试数据的不同预先路
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:1002496
    • 提供者:weixin_42128015
  1. resnet_cough_classifier-源码

  2. resnet_cough_classifier 系统要求 安装Conda 需要Python版本> = 3.7.6 安装TensorFlow: pip3 install tensorflow 安装pip3 install keras : pip3 install keras 安装scikit-learn: pip3 install scikit-learn 安装熊猫: pip3 install pandas 运行推理的步骤 将ResNet下载到目录中,然后运行python3 pre
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:126877696
    • 提供者:weixin_42099176
  1. siamesenetwork-tensorflow:使用siamese网络进行降维和相似图像检索-源码

  2. 暹罗网络Tensorflow 暹罗网络是包含两个或多个相同子网络的神经网络。 该网络的目的是发现两个相似事物之间的相似性或进行比较。 与使用交叉熵作为损失函数的分类任务不同,暹罗网络通常使用对比损失或三重损失。 暹罗网络具有很多功能,该存储库正在尝试使用暹罗网络进行降维和图像检索。 该项目遵循Hadsell-et-al.'06 [1],方法是计算共享网络输出上的欧几里得距离,并优化对比损失(更多信息请参见论文)。 污染损失定义如下 的 是网络输出之间的距离 与输入 和输入 。 相似度函
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:6291456
    • 提供者:weixin_42117267
  1. Adversarial_Video_Generation:Mathieu,Couprie和LeCun的“超越均方误差的深度多尺度视频预测”的TensorFlow实现-源码

  2. 对抗视频生成 该项目实施了一个生成对抗网络,以预测视频的未来帧,如Mathieu,Couprie和LeCun的。 他们的官方代码(使用Torch)可在找到。 对抗生成使用两个网络(生成器和鉴别器)来提高生成图像的清晰度。 给定视频的过去四帧,生成器将学习为下一帧生成准确的预测。 给定生成的图像或真实世界的图像,鉴别器将学习正确地对生成的图像和真实图像进行分类。 这两个网络“竞争”,生成器试图欺骗鉴别器将其输出分类为真实。 这迫使生成器创建与域中实际帧看起来非常相似的帧。 结果与比较 我在Pac
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:9437184
    • 提供者:weixin_42122838
  1. BertSimilarity:使用Google的BERT算法计算两个句子的相似度。利用Bert计算句子相似度。语义相似度计算-源码

  2. 伯特相似度 基于Google的BERT模型来进行语义相似度计算。代码基于tensorflow 1。 1.基本原理 简单来说就是将需要需要计算的相似性的两个句子先分解在一起,然后通过伯特模型获取获取整体的编码信息,然后通过全连接层将维,输出相似和不相似的概率。 1.1模型结构 模型结构所示如下: 1.1.1数据预处理 本文使用Bert模型计算相似度前,首先要对输入数据进行预处理,例如当要处理的文本是: 如何得知关闭借呗 想永久关闭借呗 首先进行文本按token化,切成分割的文字排列: [如
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42099755
  1. seldon-core:一个MLOps框架,用于打包,部署,监视和管理数千个生产机器学习模型-源码

  2. Seldon Core:Swift燃烧,面向行业的ML 一个开源平台,可在Kubernetes上大规模部署您的机器学习模型。 总览 Seldon核心将您的ML模型(Tensorflow,Pytorch,H2o等)或语言包装器(Python,Java等)转换为生产REST / GRPC微服务。 Seldon可以扩展到数千种生产机器学习模型,并提供先进的机器学习功能,包括高级度量,请求日志记录,解释器,异常值检测器,A / B测试,Canaries等。 阅读 加入我们的,提出任何问题 入门 加
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:56623104
    • 提供者:weixin_42128558
  1. 《TensorFlow 深度学习》阅读笔记(三)—— 神经网络

  2. 二、神经网络 注:整理自《TensorFlow 深度学习》(龙龙老师)一书,侵删 神经网络组成 神经元模型如上图,X为输入的向量,W为超参数向量,b为偏置项。输出的计算公式如下: y=∑i=1nxiwi y = \sum_{i=1}^{n} x_iw_i y=i=1∑n​xi​wi​ 多个神经元,可以构成神经网络,如下图: 中间部分称为隐藏层,神经网络层数在计算的时候只计算隐藏层及输出层。 神经网络的实现 对于上述的神经网络有两种方式实现: 张量方式 # 隐藏层 1 张量 w1 = tf.
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:153600
    • 提供者:weixin_38602098
  1. tensoflow2.0学习笔记——手写识别(MNIST数据)的两种方法,附代码。

  2. 学习环境 电脑Windows10,环境anaconda3,开发语言Python3.7 目标 用tensorflow训练MNIST手写数据,并进行测试 实现方法(两种方法) 一、用tensorflow构建一个基本的神经网络,用于预测手写数字。          本例为3层神经网,包括一个输入层,两个隐层,一个输出层。          输入数据大小:28*28dpi的手写图片,即(28*28)的二维数组,展平后为长度784的数组。          直接上代码,代码后面有解析: import t
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:83968
    • 提供者:weixin_38675797
  1. TensorFlow Session会话控制&Variable变量详解

  2. 这篇文章主要讲TensorFlow中的Session的用法以及Variable。 Session会话控制 Session是TensorFlow为了控制和输出文件的执行语句,运行session.run()就能获得运算结果或者部分运算结果。我们在这里使用一个简单的矩阵相乘的例子来解释Session的两个用法。 首先我们要加载TensorFlow并建立两个矩阵以及两个矩阵所做的运算。这里我们建立一个一行两列的matrix1和一个两行一列的matrix2,让它们做矩阵的乘法。tf.matmul相当于nu
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:64512
    • 提供者:weixin_38632797
  1. TensorFlow tf.nn.softmax_cross_entropy_with_logits的用法

  2. 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[bat
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:57344
    • 提供者:weixin_38560275
« 12 »