您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. c#语言学习资料笔记大全

  2. 这里包含c# 面向对象思想,源码教程,常用的技术资料,语言规范 包含目录如下: 语言规范 C# Language Specification 1.2(C#语言规范1.2).doc C# Language Specification 2.0(C#语言规范2.0).doc 源码教程 ASP.NET编程技术与交互式网页设计 asp.net亲密接触_带源码 C#学习 01_类.htm.txt 02_构造函数的执行序列.htm.txt 03_抽象类和接口.htm.txt 04_结构类型.htm.txt
  3. 所属分类:C#

    • 发布日期:2009-11-25
    • 文件大小:7340032
    • 提供者:pv11pv
  1. ASP升级.net资料大全(c#入门 语言规范 源码教程 学习笔记 技术资料 面试题 asp与.net代码生成器)

  2. 辅助软件 aspx/asp代码生成器 语言规范 C# Language Specification 1.2(C#语言规范1.2).doc C# Language Specification 2.0(C#语言规范2.0).doc 源码教程 ASP.NET编程技术与交互式网页设计 asp.net亲密接触_带源码 C#学习 01_类.htm.txt 02_构造函数的执行序列.htm.txt 03_抽象类和接口.htm.txt 04_结构类型.htm.txt 05_类成员的定义.htm.txt 06_
  3. 所属分类:C#

    • 发布日期:2010-11-08
    • 文件大小:13631488
    • 提供者:liunu
  1. .net技术资料大全(语言规范 源码教程 学习笔记 技术资料 .net代码生成器)

  2. 语言规范 C# Language Specification 1.2(C#语言规范1.2).doc C# Language Specification 2.0(C#语言规范2.0).doc 源码教程 ASP.NET编程技术与交互式网页设计 asp.net亲密接触_带源码 C#学习 01_类.htm.txt 02_构造函数的执行序列.htm.txt 03_抽象类和接口.htm.txt 04_结构类型.htm.txt 05_类成员的定义.htm.txt 06_类成员的其他议题.htm.txt 07
  3. 所属分类:C#

    • 发布日期:2008-12-18
    • 文件大小:7340032
    • 提供者:caoacaoca
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38630571
  1. 《动手学——卷积神经网络进阶》笔记

  2. 深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 两派特征提取的观点: 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 AlexNet 首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉研究的前状。 特征: 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:392192
    • 提供者:weixin_38752628
  1. 14天动手挑战深度学习Pytorch–task3、4、5笔记

  2. 一、过拟合以及欠拟合提出以及解决方案 1.欠拟合以及过拟合的概念 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 2.模型复杂度和训练数据集大小 3补充:在多项式函数拟合实验中用到的torch.cat()函数的用
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:142336
    • 提供者:weixin_38554186
  1. 动手深度学习 笔记5

  2. 模型选择、欠拟合和过拟合 训练误差(training error):指模型在训练数据集上表现出的误差。 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 机器学习模型应关注降低泛化误差。 模型选择 1.验证数据集 我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。 2.K折交叉验证 把原始训练数据集分割成K个不重合的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:44032
    • 提供者:weixin_38521831
  1. 【学习笔记】动手学深度学习 Task02

  2. (需要一定时间逐步补充以下内容,暂且用做打卡) 1. 模型选择、过拟合和欠拟合 训练误差和泛化误差 模型选择 验证数据集 K折交叉验证 过拟合和欠拟合 模型复杂度 权重衰减 L2 范数正则化 高维线性回归实验 2. 梯度消失、梯度爆炸 梯度消失 梯度爆炸 模型训练和预测 3. 卷积神经网络基础 二维卷积层 二维互相关运算 特征图与感受野 填充和步幅 多输入通道和多输出通道 卷积层与全连接层的对比 卷积、池化 4. 循环神经网络进阶 GRU LSTM 5. 机器翻译及相关技术 数据预处理 分词 建
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38697444
  1. 动手学深度学习笔记二

  2. Task03 错题 一.过拟合、欠拟合及解决方法 二.梯度消失、梯度爆炸 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。 三.循环神经网络进阶 实现深层循环神经网络需要修改的参数是?num_layers 3. GRU有重置门和更新门,没有遗忘门。重置门有助于捕捉时间序列里短期的依赖关系,更新门有助于捕捉时间序列⾥长期的依赖关系。参考视频1分20秒起关于GRU的原理讲解。 4. 每个循环单元中的记
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38694674
  1. [深度学习]动手学深度学习笔记-5

  2. Task2——梯度消失、梯度爆炸 5.1 梯度消失与梯度爆炸的概念 深度神经网络训练的时候,采用的是反向传播方式,该方式使用链式求导,计算每层梯度的时候会涉及一些连乘操作,因此如果网络过深。 那么如果连乘的因子大部分小于1,最后乘积的结果可能趋于0,也就是梯度消失,后面的网络层的参数不发生变化. 那么如果连乘的因子大部分大于1,最后乘积可能趋于无穷,这就是梯度爆炸。 5.2 梯度消失与梯度爆炸的后果 梯度消失会导致我们的神经网络中前面层的网络权重无法得到更新,也就停止了学习。 梯度爆炸会使得学
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:627712
    • 提供者:weixin_38516658
  1. 【动手学深度学习】Task05笔记汇总

  2. Task05:卷积神经网络基础;leNet;卷积神经网络进阶 相比taks04,感觉这边比较能看得下去,就先看了。   卷积神经网络基础 1.卷积和池化的计算概念不难理解,本质还是矩阵运算,又在感叹之前老师在代数学里埋的种子。 2.二者最大的区别是,池化层好像没有自己学什么,只是数值的搬运工,然后在模型里的日常工作是降维。但卷积层应该是学到新东西了,适当设置步长也能代班降维。想到之前有个朋友还玩了卷积核的可视化,之前没懂她在干嘛,现在可能有点点懂了。池化层有参与模型的正向计算,同样也会参与反向传
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:270336
    • 提供者:weixin_38607908
  1. 动手学习深度学习_笔记5

  2. 5.1 卷积神经网络基础 主要是卷积层和池化层。 二维互相关运算的输入是一个二维输入数组和一个二维核数组,输出也是一个二维数组,其中核数组称为卷积核或过滤器。 def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]):
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:48128
    • 提供者:weixin_38655990
  1. 动手学深度学习学习笔记tf2.0版(3.8: 多层感知机)

  2. 注意这里的bh维度为 1 * h,计算时使用广播机制,进行计算 所以引入激活函数 %matplotlib inline import tensorflow as tf from matplotlib import pyplot as plt import numpy as np import random def use_svg_display(): # 用矢量图显示 %config InlineBackend.figure_format = 'svg' def set_fi
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:446464
    • 提供者:weixin_38647925
  1. 动手学DL|Task5 LeNet+卷积神经网络进阶+循环神经网络进阶

  2. LeNet 笔记 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: 卷积层保留输入形状。 卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。 LeNet-5是Yann LeCun等人在多次研究后提出的最终卷积神经网络结构,一般LeNet即指代LeNet-5,是最早的卷积神经网络之一,并且推动了深度学习领域的发展。 LeNet-5包含七层,
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:889856
    • 提供者:weixin_38646634