您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Deep Learning 经典文章与代码(matlab)

  2. 有深度学习中必读经典,以及相应的matlab代码。 此外,文章中本人做的笔记,希望能帮助大家更好的理解。 文章为:1.A fast learning algorithm for deep belief nets(Hinton) 2. Learning Deep Architectures for AI (Bengio) 3. A Practical Guide to Training Restricted Boltzmann Machines(Hinton) 等。。 code 为经典的deep
  3. 所属分类:专业指导

    • 发布日期:2014-07-22
    • 文件大小:32505856
    • 提供者:hanzihan123
  1. Deep Learning(深度学习)学习笔记整理系列pdf

  2. 原创作者是Zouxy,整个笔记在他博客上,为了方便大家保存阅读,我将其整理成了pdf文档,希望大家多多交流。 目录 一、概述 2 二、背景 5 三、人脑视觉机理 8 四、关于特征 10 4.1、特征表示的粒度 10 4.2、初级(浅层)特征表示 11 4.3、结构性特征表示 14 4.4、需要有多少个特征? 16 五、Deep Learning的基本思想 17 六、浅层学习(Shallow Learning)和深度学习(Deep Learning) 18 七、Deep learning与Neu
  3. 所属分类:其它

    • 发布日期:2015-09-09
    • 文件大小:1048576
    • 提供者:cdownload_zxl
  1. TensorFlow学习笔记(一)之逻辑斯地回归模型及Cifar-10分类的实现

  2. 目录 环境 介绍 机器学习步骤 深度学习、机器学习、人工智能三者的关系 神经网络 二分类逻辑斯地回归模型 多分类逻辑斯地回归模型 目标函数(损失函数) 主要类型 举例 神经网络训练 训练目标 梯度下降算法 TensorFlow实现 计算图模型 命令式编程 声明式编程 二者的对比 数据处理 下载数据 准备工作 读取数据 查看数据 数据读取及预处理整体代码 构建模型 构建计算图 构建模型整体代码 初始化及运行模型 整体代码 注意事项 参考资料 环境 python 3.6 + TensorFlow 1
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:523264
    • 提供者:weixin_38501751
  1. 深度学习笔记(3)基于Tensorflow的多元线性回归:预测波士顿房价

  2. 问题描述 给定波士顿地区一系列地区租房的价格,然后罗列出了收集到多个因素,每个因素已经是量化好。现在给定的要求是,使用一个多元线性模型去拟合这些数据,然后用于预测。 模型 price=f(x1,x2,…,xn)=∑i=1nwixi+b price = f(x_1, x_2, …, x_n) = \sum\limits_{i=1}^{n} w_i x_i + bprice=f(x1​,x2​,…,xn​)=i=1∑n​wi​xi​+b 这里没有激活函数,所以还不到神经网络的阶段。 基于Tensor
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:249856
    • 提供者:weixin_38700240
  1. python学习笔记(八)函数相关

  2. 函数相关 文章目录函数相关递归函数生成器生成器方式1:将列表生成式的[]换成()即可生成器方式2:在函数中使用yield关键字迭代器可迭代对象高级函数map函数filter函数reduce函数 递归函数 定义:在函数内部调用自己的函数称为递归函数。 组成: 函数内部调用自己 终止条件(停止调用自己) 核心算法 特点: 代码简洁 可读性差 瞬间占用内存较大,终止条件出错立即崩溃 原则: 能不使用就不使用,只有再不得不使用时才使用(深度优先目录遍历) 实例: 求n的阶乘 求斐波那契数列的第n项 前两
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:60416
    • 提供者:weixin_38719890
  1. 史上最详细Python爬虫基础教学(一)

  2. 目录一、前言二、爬虫简介2.1 什么是爬虫2.2 基本的爬虫流程2.3 爬虫的分类2.4 robots协议三、网站基础3.1 HTTP和HTTPS3.2 URL3.3 请求和响应3.4 网页基础 一、前言 首先,我也是个爬虫小白,也在努力的学习中,当然,接触python也不只是为了去学爬虫,数据分析啊,机器学习和深度学习啊,都是我努力的目标。我开始写这个爬虫教程也是想和我一样想学好爬虫的小白在边自己去写教程的同时可以去温习一下旧知识,更能够在学习新知识的时候加深印象,我会在以后将自己学到
  3. 所属分类:其它

    • 发布日期:2021-01-08
    • 文件大小:552960
    • 提供者:weixin_38540782
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38630571
  1. MATLAB深度学习笔记(三) 机器学习的类型

  2. (三)机器学习的类型 机器学习根据训练方法的不同可以分为三类,监督学习、无监督学习、强化学习。 监督学习和人类的学习过程很相似, 1)选择一个练习题,运用已有的知识去解决它,将答案和正确答案进行比较; 2)如果答案不对,换一种方法; 3)重复1和2直到解决所有的问题。 机器学习和这个例子类比,练习题和答案对应于训练数据,知识对应于模型。重要的是我们需要一个正确答案,这是监督学习的一个重点。就像是老师给学生提供解法一样。 在监督学习中,每一个训练数据集包含输入数据和与之对应的正确的输出数据。对于同
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:141312
    • 提供者:weixin_38508549
  1. 14天动手挑战深度学习Pytorch–task3、4、5笔记

  2. 一、过拟合以及欠拟合提出以及解决方案 1.欠拟合以及过拟合的概念 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 2.模型复杂度和训练数据集大小 3补充:在多项式函数拟合实验中用到的torch.cat()函数的用
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:142336
    • 提供者:weixin_38554186
  1. Adam优化算法原理详解(吴恩达深度学习笔记)

  2. 在介绍Adam之前首先介绍一下momentum和RMSprop优化算法。 一、momentum 1、指数加权平均数 指数加权平均数不仅考虑了当前数值也涵盖了以前的数据对现在的影响。 解释指数加权平均值名称的由来: 指数加权平均值的应用: 使用这种方法进行数据的估计可能不是最精确的,但是这种方法计算简单,节省内存。 指数加权平均数因为设置的第0个值为0,所以对于前几个数都会出现严重的偏差,所以引入了偏差修正。 2.指数加权平均数的偏差修正 3.momentum算法 此算法是梯度下降算法的一种改进
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:464896
    • 提供者:weixin_38516863
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:49152
    • 提供者:weixin_38720653
  1. 【李宏毅机器学习笔记】6、简单介绍深度学习(Deep Learning)

  2. 【李宏毅机器学习笔记】1、回归问题(Regression) 【李宏毅机器学习笔记】2、error产生自哪里? 【李宏毅机器学习笔记】3、gradient descent 【李宏毅机器学习笔记】4、Classification 【李宏毅机器学习笔记】5、Logistic Regression 【李宏毅机器学习笔记】6、简短介绍Deep Learning 【李宏毅机器学习笔记】7、反向传播(Backpropagation) 【李宏毅机器学习笔记】8、Tips for Training DNN 【李宏
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:2097152
    • 提供者:weixin_38597990
  1. 动手学深度学习Pytorch版本学习笔记 Task4

  2. 1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 主要步骤: 1. 数据预处理 2.分词 3.建立词典 Sequence to Sequence模型: 2.注意力机制与Seq2seq模型 a.点注意力机制与多层感知机注意力机制 b.引入注意力机制的Seq2seq模型:将注意机制添加到sequence to sequence
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:199680
    • 提供者:weixin_38717896
  1. 深度学习笔记(4)

  2. 一、机器翻译及相关技术; 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。( 例:i am chinese=我是中国人,长度变化:3—>5) 数据预处理: 将数据集清洗、转化为神经网络的输入minbatch 分词: 字符串—>单词组成的列表 建立词典: 单词组成的列表—>单词id组成的列表 载入数据集: Encoder-Decode
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:578560
    • 提供者:weixin_38587130
  1. 动手学深度学习Pytorch版本学习笔记 Task 03

  2. 1.过拟合、欠拟合及其解决方案 1.1对于过拟合、欠拟合的理解 我们探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 1.2模型复杂度的影响 1.3训练数据集大小影响 影响欠
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:212992
    • 提供者:weixin_38750861
  1. 深度学习笔记(3)

  2. 一、过拟合、欠拟合及其解决方案 1、训练误差和泛化误差 训练误差(training error):指模型在训练数据集上表现出的误差。 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集:预留一部分在训练数据集和测试数据集以外的数据来进行
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:285696
    • 提供者:weixin_38640985
  1. PyTorch版《动手学深度学习》学习笔记 Task.4

  2. 有效长度 def SequenceMask(X, X_len,value=0): maxlen = X.size(1) mask = torch.arange(maxlen)[None, :].to(X_len.device) < X_len[:, None] X[~mask]=value return X 在seq2seq模型中,解码器只能隐式地从编码器的最终状态中选择相应的信息。然而,注意力机制可以将这种选择过程显式地建模。 unsqueeze()函数
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:31744
    • 提供者:weixin_38695773
  1. 动手学深度学习笔记3过拟合、欠拟合

  2. 一、欠拟合与过拟合 误差: 训练误差(training error):指模型在训练数据集上表现出的误差 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。机器学习模型应关注降低泛化误差。 Q:如何计算误差?A:引入损失函数(MSE、交叉熵损失)。 验证集:从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。因为不可以使用测试数据选择模型,如调参。所以引入验证集(从训练集中划分出部分验证集),即预
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:373760
    • 提供者:weixin_38713009
  1. coursera-deep-learning-specialization:deeplearning.ai提供的Coursera深度学习专业内所有课程的笔记,编程作业和测验-源码

  2. Coursera上的深度学习专业化(由deeplearning.ai提供) deeplearning.ai提供的Coursera所有课程的编程作业和测验。 授课老师: 笔记 有关Coursera深度学习专业中所有课程的详细面试准备笔记,请 设置 运行setup.sh以(i)下载经过预先​​训练的VGG-19数据集,并(ii)提取所有分配所需的经过z​​ip压缩的经过预先训练的模型和数据集。 学分 此仓库包含我针对该专业的工作。除非另有说明,否则代码库,测验问题和图表均取自的“ 。 编程作业 课
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:183500800
    • 提供者:weixin_42160645
  1. [深度学习]动手学深度学习笔记-6

  2. Task-3——循环神经网络进阶 6.1 长短期记忆(LSTM) 6.1.1 理论知识理解 理解LSTM网络 6.1.2 LSTM的从零开始实现 以下附上代码: 导入相应的包 import numpy as np import torch from torch import nn, optim import torch.nn.functional as F import sys sys.path.append(..) import d2lzh_pytorch as d2l device =
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:974848
    • 提供者:weixin_38733676
« 12 3 »