您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 机器学习-12. TensorBoard可视化

  2. 人工智能基础视频教程零基础入门课程 第十二章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Tenso
  3. 所属分类:机器学习

    • 发布日期:2020-07-16
    • 文件大小:368050176
    • 提供者:suolong123
  1. 机器学习-10. TensorFlow深入、TensorBoard

  2. 人工智能基础视频教程零基础入门课程 第十章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Tensor
  3. 所属分类:机器学习

    • 发布日期:2020-07-16
    • 文件大小:588251136
    • 提供者:suolong123
  1. 机器学习-09. 深度学习、TensorFlow安装和实现

  2. 人工智能基础视频教程零基础入门课程 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 TensorFlow
  3. 所属分类:机器学习

    • 发布日期:2020-07-16
    • 文件大小:747634688
    • 提供者:suolong123
  1. 机器学习-03. 梯度下降和过拟合和归一化(下)

  2. 人工智能基础视频教程零基础入门课程 第三章(下) 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Ten
  3. 所属分类:机器学习

    • 发布日期:2020-07-15
    • 文件大小:1007681536
    • 提供者:suolong123
  1. 机器学习-03. 梯度下降和过拟合和归一化(上)

  2. 人工智能基础视频教程零基础入门课程 第三章(上) 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Ten
  3. 所属分类:机器学习

    • 发布日期:2020-07-15
    • 文件大小:805306368
    • 提供者:suolong123
  1. TensorFlow手写数字识别预处理代码

  2. TensorFlow手写数字识别预处理代码,备注详细可以直接运行,为后续具体算法的 实现提供了可靠、规范的数据源。处理内容包括MNIST数据的下载、读取、整形、归一化、标签独热编码以及画图显示等。
  3. 所属分类:机器学习

    • 发布日期:2020-09-11
    • 文件大小:2048
    • 提供者:qq_43005387
  1. TensorFlow实现批量归一化操作的示例

  2. 主要介绍了TensorFlow实现批量归一化操作的示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:71680
    • 提供者:weixin_38734037
  1. 批量归一化代码 适用所有网络框架

  2. 自用BN操作 适用所有的算法 只需要改一些必要的层链接 深度学习 批量归一化 python余语言 tensorflow pytorch 均可使用
  3. 所属分类:深度学习

    • 发布日期:2020-09-23
    • 文件大小:3072
    • 提供者:qq_37692302
  1. tensorflow下的图片标准化函数per_image_standardization用法

  2. 实验环境:windows 7,anaconda 3(Python 3.5),tensorflow(gpu/cpu) 函数介绍:标准化处理可以使得不同的特征具有相同的尺度(Scale)。 这样,在使用梯度下降法学习参数的时候,不同特征对参数的影响程度就一样了。 tf.image.per_image_standardization(image),此函数的运算过程是将整幅图片标准化(不是归一化),加速神经网络的训练。 主要有如下操作,(x – mean) / adjusted_stddev,其中x为图
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:174080
    • 提供者:weixin_38644780
  1. TensorFlow实现Batch Normalization

  2. 一、BN(Batch Normalization)算法 1. 对数据进行归一化处理的重要性 神经网络学习过程的本质就是学习数据分布,在训练数据与测试数据分布不同情况下,模型的泛化能力就大大降低;另一方面,若训练过程中每批batch的数据分布也各不相同,那么网络每批迭代学习过程也会出现较大波动,使之更难趋于收敛,降低训练收敛速度。对于深层网络,网络前几层的微小变化都会被网络累积放大,则训练数据的分布变化问题会被放大,更加影响训练速度。 2. BN算法的强大之处 1)为了加速梯度下降算法的训练,我们
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:154624
    • 提供者:weixin_38615591
  1. tensorflow训练中出现nan问题的解决

  2. 深度学习中对于网络的训练是参数更新的过程,需要注意一种情况就是输入数据未做归一化时,如果前向传播结果已经是[0,0,0,1,0,0,0,0]这种形式,而真实结果是[1,0,0,0,0,0,0,0,0],此时由于得出的结论不惧有概率性,而是错误的估计值,此时反向传播会使得权重和偏置值变的无穷大,导致数据溢出,也就出现了nan的问题。 解决办法: 1、对输入数据进行归一化处理,如将输入的图片数据除以255将其转化成0-1之间的数据; 2、对于层数较多的情况,各层都做batch_nomorlizati
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:46080
    • 提供者:weixin_38563871
  1. Tensorflow卷积神经网络实例进阶

  2. 在Tensorflow卷积神经网络实例这篇博客中,我们实现了一个简单的卷积神经网络,没有复杂的Trick。接下来,我们将使用CIFAR-10数据集进行训练。 CIFAR-10是一个经典的数据集,包含60000张32*32的彩色图像,其中训练集50000张,测试集10000张。CIFAR-10如同其名字,一共标注为10类,每一类图片6000张。 本文实现了进阶的卷积神经网络来解决CIFAR-10分类问题,我们使用了一些新的技巧: 对weights进行了L2的正则化 对图片进行了翻转
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:97280
    • 提供者:weixin_38712578
  1. Tensorflow学习实战之多变量预测

  2. Tensorflow学习实战之多变量预测载入数据归一化处理建立模型初始化训练并显示结果结果预测 用的不是波士顿的数据,8700+的数据,进行的训练,相关性不强,而且线性不明显,得出的效果不好 要进行打乱数据,使用Shuttle,打乱顺序的原因呢,就跟人一样,你按顺序来,可能是按照某种规律,你可能会规律的去计算下一值,防止机器跟人一样找到规律,所以每一次要打乱一下。 载入数据 import tensorflow as tf import matplotlib.pyplot as plt impor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:111616
    • 提供者:weixin_38593380
  1. nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。

  2. 自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:26214400
    • 提供者:weixin_42115003
  1. Adaptive-Gradient-Clipping:TensorFlow 2中最小化自适应梯度剪切(https:arxiv.orgabs2102.06171)-源码

  2. 自适应梯度剪切 该存储库提供了一个最小的实施自适应限幅梯度(AGC)的在TensorFlow 2(如在高性能大规模图像识别提出不进行归1)纸为了训练,而不批次深神经网络属性AGC作为关键成分归一化2 。 鼓励读者查阅该论文,以了解为什么鉴于其最重要的成功,为什么可能希望在不进行批量标准化的情况下训练网络。 我使用此存储库的目标是能够快速训练带有或不带有AGC的浅层网络。 因此,我提供了两个我在下面讨论的Colab笔记本。 关于笔记本 AGC.ipynb :演示使用AGC训练浅层网络(仅0.00
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:67584
    • 提供者:weixin_42142062
  1. 使用CIFAR10数据集进行图像分类:在本笔记本中,我将对CIFAR-10数据集中的图像进行分类。 数据集由飞机,狗,猫和其他物体组成。 在对图像进行预处理之后,我对所有样本都训练了卷积神经网络。 图像需要归一化,标签需要进行一次热编码-源

  2. 使用CIFAR10数据集进行图像分类 在本笔记本中,我将对CIFAR-10数据集中的图像进行分类。 数据集由飞机,青蛙,马和其他物体组成。 在对图像进行预处理之后,我对所有样本都训练了卷积神经网络。 图像需要进行归一化,标签需要进行一次热编码。 目录-> 获取数据 了解数据集 实作经验,实现归一化和一键编码功能 Tensorflow基础 模型架构和构造(使用不同类型的API) 训练模型 预测请打开jupyter笔记本以查看完整描述
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:8192
    • 提供者:weixin_42144199
  1. UGATIT:U-GAT-IT的正式Tensorflow实施:具有图像到图像转换的自适应层实例规范化的无监督生成注意网络(ICLR 2020)-源码

  2. U-GAT-IT —正式TensorFlow实施(ICLR 2020) :具有图像到图像转换的自适应层实例规范化的无监督生成注意网络 | 该存储库提供以下论文的正式Tensorflow实现: U-GAT-IT:具有图像到图像转换的自适应层实例规范化的无监督生成注意网络Kim Junho(NCSOFT) ,Minjae Kim(NCSOFT),Hyeonwoo Kang(NCSOFT),Kwanghee Lee(波音韩国) 摘要我们提出了一种新的无监督图像到图像翻译方法,该方法以端到端的方式结
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:4194304
    • 提供者:weixin_42110070
  1. stylegan2:StyleGAN2-官方TensorFlow实现-源码

  2. StyleGAN2 —正式的TensorFlow实施 分析和改善StyleGAN的图像质量Tero Karras,Samuli Laine,Miika Aittala,Janne Hellsten,Jaakko Lehtinen,Timo Aila 论文: : 视频: : 摘要:基于样式的GAN架构(StyleGAN)在数据驱动的无条件生成图像建模中产生了最先进的结果。 我们将揭露和分析其一些特征工件,并提出模型体系结构和训练方法方面的更改以解决这些问题。 特别是,我们重新设计了生
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:599040
    • 提供者:weixin_42122988
  1. TensorFlow2.x——批归一化(BatchNormalization)、droupout

  2. 批归一化(BatchNormalization)、droupout TensorFlow已经将这两个函数集成在layers层中,因此我们只要在构建网络层中调用相应的函数即可。 代码示例: model.add(keras.layers.BatchNormalization()) model.add(keras.layers.AlphaDroupout(rate=0.5)) 网络层构建示例: #使用序贯模型Sequential tf.keras.models.sequential() model
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38679233
  1. TensorFlow实现批量归一化操作的示例

  2. 批量归一化 在对神经网络的优化方法中,有一种使用十分广泛的方法——批量归一化,使得神经网络的识别准确度得到了极大的提升。 在网络的前向计算过程中,当输出的数据不再同一分布时,可能会使得loss的值非常大,使得网络无法进行计算。产生梯度爆炸的原因是因为网络的内部协变量转移,即正向传播的不同层参数会将反向训练计算时参照的数据样本分布改变。批量归一化的目的,就是要最大限度地保证每次的正向传播输出在同一分布上,这样反向计算时参照的数据样本分布就会与正向计算时的数据分布一样了,保证分布的统一。 了解了原理
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:69632
    • 提供者:weixin_38501810
« 12 3 »