您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. keras示例程序

  2. addition_rnn.py 执行序列学习以执行两个数字(作为字符串)的添加。 antirectifier.py 演示如何为Keras编写自定义图层。 babi_memnn.py 在bAbI数据集上训练一个内存网络以进行阅读理解。 babi_rnn.py 在bAbI数据集上训练一个双支循环网络,以便阅读理解。 cifar10_cnn.py 在CIFAR10小图像数据集上训练一个简单的深CNN。 conv_filter_visualization.py 通过输入空间中的渐变上升可视化 VGG1
  3. 所属分类:深度学习

    • 发布日期:2017-10-23
    • 文件大小:10485760
    • 提供者:manoerina0411
  1. 经过分类好的mnist手写数据集,保存的格式为jpg

  2. 通过分类好的mnist数据集,大小为28X28,保存格式为图片格式(jpg),方便利用卷积神经网络实现手写数字的练习。其中图片的命名方式为“类型+标签+列数”,例如,原始的训练集为784x60000,表示60000个训练集,图片名称(train5456.jpg),表示训练集,其对应的标签是数字5,60000列中的456列表示该图片。
  3. 所属分类:算法与数据结构

    • 发布日期:2019-04-16
    • 文件大小:47185920
    • 提供者:mrahut
  1. 分布式训练框架ApacheHorn.zip

  2. Apache Horn 是 Apache 的一个孵化项目,是一个以神经元为中心的编程模型和同步、异步混合的分布式训练框架,支持数据和模型并行性,用于在 Apache Hadoop 和 Hama 训练具有大量数据集的大型模型。快速运行示例下载 MNIST 训练和标签数据集,并使用以下命令转换为 HDFS 序列文件: % bin/horn jar horn-0.x.0.jar MNISTConverter \    train-images.idx3-ubyte train-labels.idx1
  3. 所属分类:其它

    • 发布日期:2019-07-17
    • 文件大小:147456
    • 提供者:weixin_39840387
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1048576
    • 提供者:abacaba
  1. 使用tensorflow实现VGG网络,训练mnist数据集方式

  2. 主要介绍了使用tensorflow实现VGG网络,训练mnist数据集方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:107520
    • 提供者:weixin_38700320
  1. 基于深度学习的实时识别硬件系统框架设计

  2. 设计了一种基于深度学习的实时识别硬件系统框架。该系统框架使用Keras完成卷积神经网络模型的训练并提取出网络的参数,利用ZYNQ器件的FPGA+ARM软硬件协同的方式,使用ARM完成对实时图像数据的采集、预处理及显示,通过FPGA实现卷积神经网络的硬化并对图像进行识别,再将识别结果发送至上位机进行实时显示。系统框架采用MNIST和Fashion MNIST数据集作为网络模型硬化试验样本,实验结果表明,在一般场景下该系统框架能够实时、准确地完成图像数据的获取、显示及识别,并且具有可移植性高、处理速
  3. 所属分类:其它

    • 发布日期:2020-10-15
    • 文件大小:387072
    • 提供者:weixin_38600253
  1. 使用tensorflow实现VGG网络,训练mnist数据集方式

  2. VGG作为流行的几个模型之一,训练图形数据效果不错,在mnist数据集是常用的入门集数据,VGG层数非常多,如果严格按照规范来实现,并用来训练mnist数据集,会出现各种问题,如,经过16层卷积后,28*28*1的图片几乎无法进行。 先介绍下VGG ILSVRC 2014的第二名是Karen Simonyan和 Andrew Zisserman实现的卷积神经网络,现在称其为VGGNet。它主要的贡献是展示出网络的深度是算法优良性能的关键部分。 他们最好的网络包含了16个卷积/全连接层。网络的结构
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:59392
    • 提供者:weixin_38530115
  1. keras自定义回调函数查看训练的loss和accuracy方式

  2. 前言: keras是一个十分便捷的开发框架,为了更好的追踪网络训练过程中的损失函数loss和准确率accuracy,我们有几种处理方式,第一种是直接通过 history=model.fit(),来返回一个history对象,通过这个对象可以访问到训练过程训练集的loss和accuracy以及验证集的loss和accuracy。 第二种方式就是通过自定义一个回调函数Call backs,来实现这一功能,本文主要讲解第二种方式。 一、如何构建回调函数Callbacks 本文所针对的例子是卷积神经网络
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:83968
    • 提供者:weixin_38557095
  1. 解决keras,val_categorical_accuracy:,0.0000e+00问题

  2. 问题描述: 在利用神经网络进行分类和识别的时候,使用了keras这个封装层次比较高的框架,backend使用的是tensorflow-cpu。 在交叉验证的时候,出现 val_categorical_accuracy: 0.0000e+00的问题。 问题分析: 首先,弄清楚,训练集、验证集、测试集的区别,验证集是从训练集中提前拿出一部分的数据集。在keras中,一般都是使用这种方式来指定验证集占训练集和的总大小。 validation_split=0.2 比如,经典的数据集MNIST,共有
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:49152
    • 提供者:weixin_38741950
  1. 使用 PyTorch 实现 MLP 并在 MNIST 数据集上验证方式

  2. 简介 这是深度学习课程的第一个实验,主要目的就是熟悉 Pytorch 框架。MLP 是多层感知器,我这次实现的是四层感知器,代码和思路参考了网上的很多文章。个人认为,感知器的代码大同小异,尤其是用 Pytorch 实现,除了层数和参数外,代码都很相似。 Pytorch 写神经网络的主要步骤主要有以下几步: 1 构建网络结构 2 加载数据集 3 训练神经网络(包括优化器的选择和 Loss 的计算) 4 测试神经网络 下面将从这四个方面介绍 Pytorch 搭建 MLP 的过程。 项目代码地址:la
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:86016
    • 提供者:weixin_38638163
  1. reactpro-源码

  2. reactpro reactpro是我的数字猜测网站。 ip查看网站 (托管在AWS EC-2实例中) 前端 这个网站的前端部分是由react-js制作的。 whiteboard-collab文件夹包含所有react-js代码 后端 该网站的后端部分,由Django制造(Python框架) 机器学习模型(CNN) 我使用tensorflow,numpy,keras库构建了我的CNN模型,该模型可以预测人类的手指数字。该模型是由MNIST数据集newhandwrite训练的。h5是我的机器学习模
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:6291456
    • 提供者:weixin_42177768
  1. nn_best_intervals_test-源码

  2. 项目结构: ├────主要测试#查找并验证MNIST集的间隔 ├────────攻击模型#处理对抗过程 ├────────间隔求解器#处理最佳环境的搜索 ├────────────全局任务#查看和分析结果 ├────────────────参数#配置攻击方式和搜索参数 代码用法: “ data”文件夹将图像以.csv格式保存(在这种情况下,图像取自MNIST数据集) “ nn_models”文件夹将神经网络模型保持在pytorch词典格式(.pth)中 “ Parameters.py”定义
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:2097152
    • 提供者:weixin_42153691
  1. normalperson:一个神经网络,用于识别使用basicNN库制作的手写数字-源码

  2. 普通人 描述 一个神经网络,用于识别使用basicNN编写的手写数字。 使用MNIST数据集进行训练。 由2个分别具有300 HU和100 HU的隐藏层组成。 MNIST训练和测试集以csv文件的形式出现。 为了使训练和测试文件更快,更有效,需要事先对数据进行腌制,而功能人员希望它采用这种格式。 将数据腌制为60个样本的批次。 测验 测试功能有点非常规。 它向用户提示要选择的测试批次,然后提示要测试的批次中的特定样品。 完成后,模型将预测该数字并在控制台中显示它的预测,然后实际图像将显示给用户
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:30408704
    • 提供者:weixin_42131728
  1. VisualTF:可视化tensorflow学习记录,通过可视化方式观察梯度下降以及权重,偏差等变化情况。数据挖掘入门,推荐系统入门numpy,matploytlib-源码

  2. 可视化TF numpy,matploytlib h(x)= w * x + b作为连续值w,b就是需要不断进行修正。一般都是通过梯度下降的方法将w,b进行修正。的速度一般的梯度下降方式有: 新元 最简单的方式,就是测试数据分批进行神经网络计算。 势头 传统的W参数更新为:W + =-学习率* dx动量则是加上一个惯性,即m = b1 * m学习率* dx W + = m 阿达格拉德 对学习率进行更新:v + = dx ^ 2 W + =-学习率* dx /√vv算是一种惩罚措施,逼迫朝着正
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:737280
    • 提供者:weixin_42108054
  1. MNIST-Fashion-data-Classification-Task:尝试使用MNIST Fashion数据集,以手工方式建立最佳模型,而无需使用预制的机器学习模型-源码

  2. MNIST时尚数据分类任务 这项研究的目的是找到最佳分类器来训练机器学习模型,该模型将用于预测图片的内容。 通过使用成千上万张图片的像素分解,模型将尝试将每张图片分类为正确的类别。 该报告将重点关注以下10种服装的图片:T恤/上衣,裤子,套头衫,连衣裙,外套,凉鞋,衬衫,运动鞋,包和脚踝靴。 该模型的目的是使用30,000张带有指定标签的图片对其进行训练,然后再对5,000张图片进行测试。 理想情况下,该模型将来将可以接收任何图片,并且可以预测图片上方列出的10个项目中的哪个正在描绘。 创建了
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:23068672
    • 提供者:weixin_42134038
  1. 笔记本:针对不同主题的机器学习笔记本进行了优化,可在Google合作实验室中运行-源码

  2. 笔记本电脑 姓名 描述 类别 关联 培训pix2pix 该笔记本显示了用于在简单数据集上训练pix2pix的简单管道。 大多数代码都基于。 甘 一个地方 该笔记本显示了如何直接从一个笔记本在浏览器中训练,测试然后部署模型。 我们使用一个简单的XOR示例来证明这个简单的概念。 部署方式 TPU与GPU Google最近允许在colab上免费培训TPU。 本笔记本介绍了如何启用TPU培训。 此外,它还通过比较TPU和GPU性能报告了使用mnist数据集的一些基准。 热塑性聚氨酯 Ke
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:17825792
    • 提供者:weixin_42132359
  1. 暹罗三胞胎:在PyTorch中使用在线对三胞胎进行挖掘的连体和三胞胎网络-源码

  2. 在线对/三胞胎挖掘的连体和三元学习 PyTorch实施暹罗和三联体网络来学习嵌入。 连体和三联体网络对于学习从图像到紧凑的欧几里得空间的映射很有用,其中距离对应于相似度的度量[2]。 以这种方式训练的嵌入可以用作分类或几次学习任务的特征向量。 安装 需要 0.4和torchvision 0.2.1 对于pytorch 0.3兼容性签出标签torch-0.3.1 代码结构 数据集 SiameseMNIST类-类似于MNIST数据集的包装,返回随机的正负对 TripletMNIST类-类似于MN
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:4194304
    • 提供者:weixin_42120563
  1. tensorpack:TensorFlow上的神经网络培训界面,专注于速度+灵活性-源码

  2. Tensorpack是基于TensorFlow的神经网络训练接口。 特征: 它是又一个TF高级API,具有速度和灵活性。 注重训练速度。 Tensorpack免费提供了速度-它以高效的方式使用TensorFlow而没有额外的开销。 在常见的CNN上,它的训练比等效的Keras代码1.2〜5。 如果使用Tensorpack编写,您的培训可能会更快。 数据并行的多GPU /分布式训练策略是现成的。 它具有可扩展性以及Google的。 有关一些基准脚本,请参见。 专注于大型数据集。 。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42131785
  1. 使用TensorFlow直接获取处理MNIST数据方式

  2. MNIST是一个非常有名的手写体数字识别数据集,TensorFlow对MNIST数据集做了封装,可以直接调用。MNIST数据集包含了60000张图片作为训练数据,10000张图片作为测试数据,每一张图片都代表了0-9中的一个数字,图片大小都是28*28。虽然这个数据集只提供了训练和测试数据,但是为了验证训练网络的效果,一般从训练数据中划分出一部分数据作为验证数据,测试神经网络模型在不同参数下的效果。TensorFlow提供了一个类来处理MNIST数据。 代码如下: from tensorflo
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:47104
    • 提供者:weixin_38699830
  1. 机器学习KNN算法之手写数字数字识别

  2. 算法简介 手写数字识别是KNN算法一个特别经典的实例,其数据源获取方式有两种,一种是来自MNIST数据集,另一种是从UCI欧文大学机器学习存储库中下载,本文基于后者讲解该例。 基本思想就是利用KNN算法推断出如下图一个32×32的二进制矩阵代表的数字是处于0-9之间哪一个数字。 数据集包括两部分,一部分是训练数据集,共有1934个数据;另一部分是测试数据集,共有946个数据。所有数据命名格式都是统一的,例如数字5的第56个样本——5_56.txt,这样做为了方便提取出样本的真实标签。 数据的
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:205824
    • 提供者:weixin_38737751