您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 图像匹配 灰度匹配 归一化积 最小均方误差 不变矩

  2. 灰度匹配 归一化积 最小均方误差 不变矩 图像匹配
  3. 所属分类:C++

    • 发布日期:2011-11-21
    • 文件大小:406528
    • 提供者:zhangqy210
  1. 深度学习 修改卷积层

  2. 修改了卷基层,在卷基层后加了一个预处理层,将数据归一化到500维的正确维度上
  3. 所属分类:互联网

    • 发布日期:2015-07-08
    • 文件大小:64512
    • 提供者:a1b2c3d4123456
  1. 归一化积相关图像匹配算法中的图像分块并行处理方法

  2. 对具有良好匹配特性的归一化积相关算法中的相关求和 - ∑ ∑ X Y的并行算法进行了较为深入的探讨 ,设计 了基于 K元 2立方体网络计算机的图像分块计算∑ ∑ X Y 的并行算法 . 对于 N× N的参考图像、 M× M的实时图像和 K× K的处理元阵列 ( N= BK , K= M , B> 1) ,通过将参考图像分成 B× B个图像块就可利用该算法实现归一化积相关 图像分块匹配并行算法 .应用实验表明 ,本文设计的并行算法具有很好的并行效率
  3. 所属分类:算法与数据结构

    • 发布日期:2018-01-24
    • 文件大小:152576
    • 提供者:u013250198
  1. x空间中改进的Epstein-Glaser重归一化与差分重归一化

  2. 在这里,将使用几乎唯一的实变量方法来重新检查x空间中无质量的费曼振幅的重新归一化。 我们通过分布的递归扩展来计算大量具体示例。 这使我们能够以几种循环顺序显示四点和两点函数的摄动展开。 为了处理内部顶点,我们阐述并扩展了对数齐次分布的卷积理论。 这种方法与Freedman,Johnson和Latorre提出的差分重新规范化有很多共同点。 但重要细节不同。
  3. 所属分类:其它

    • 发布日期:2020-05-03
    • 文件大小:609280
    • 提供者:weixin_38529436
  1. 深度学习是一种享受

  2. 通过使用深度学习网络构建玩具parton淋浴模型,我们在QCD的背景下明确了某些深度学习体系结构和重归一化组之间的联系。 该模型旨在描述大型强子对撞机上的质子-质子碰撞。 卷积自动编码器学习一组内核,这些内核可以有效地编码完全淋浴的QCD碰撞事件的行为。 网络是递归构造的,以确保自相似性,并且训练后的网络参数数量很少。 随机性是通过一种新颖的自定义遮罩层引入的,该遮罩层还通过使用跳层连接保留了现有的parton分割。 通过应用淋浴合并程序,可以对矩阵元素计算产生的未显示事件评估网络。 训练有素的
  3. 所属分类:其它

    • 发布日期:2020-04-24
    • 文件大小:872448
    • 提供者:weixin_38599545
  1. 共形扇区中的重归一化组特性:朝可扰动可归一化的量子引力

  2. 威尔逊重整化组(RG)需要欧几里得签名。 度量的共形因数则具有错误符号动力学项,这对其RG属性具有深远的影响。 通常,对于保形扇区,完整的流动仅在相反的方向上存在(即从红外到紫外)。 高斯不动点支持红外相关性不断增加(质量维数逐渐增加)的复合特征运算符的无穷序列,这些序列是正交的且对于在适当度量下平方可积的裸相互作用是完整的。 这些特征运算符在ℏ和渐逝中是非扰动的。 对于ℝ4时空,每个重新归一化的物理算子都存在,但仅对消失的场振幅有支持。 在无限多个不消失的耦合的一般情况下,如果存在完整的RG流
  3. 所属分类:其它

    • 发布日期:2020-04-21
    • 文件大小:808960
    • 提供者:weixin_38697123
  1. 可积性,对偶性和sigma模型

  2. 我们介绍和研究由W-代数指定的共形场理论,并交换某些筛选电荷。 这些CFT所具有的扰动定义了可集成的QFT。 我们确定这些QFT具有运动的局部和非局部积分,并接受弱耦合区域中的微扰理论。 我们构造了与非局部运动积分和微扰理论相一致的因式散射理论。 在强耦合极限中,此QFT的S矩阵趋向于O(N)sigma模型的散射矩阵。 应用扰动理论,Bethe ansatz技术,重归一化群方法和共形场论方法表明,构造的QFT对O(N)sigma模型的可变形具有双重性。
  3. 所属分类:其它

    • 发布日期:2020-04-18
    • 文件大小:506880
    • 提供者:weixin_38691482
  1. 由高协变量导数正则化的理论的NSVZβ函数:物质和鬼奇点的全循环总和

  2. 物质超场和Faddeev-Popov幻影对N $$ \ mathcal {N} $$ = 1超对称规范理论(根据裸耦合定义)的β函数的贡献在以下情况下按所有顺序计算: 使用较高的协变导数正则化。 为此,我们使用最近被证明的陈述,即这些理论中的β函数由相对于弯矩的双总导数的积分给出。 由于积分的奇异性,这些积分不会消失。 这意味着超出单环逼近的β函数由奇异贡献之和给出,该奇异贡献的总和是由物质超场和Faddeev-Popov幻影产生的奇异性的所有阶数计算的。 结果以这些超场的异常尺寸表示。 它与N
  3. 所属分类:其它

    • 发布日期:2020-04-05
    • 文件大小:1048576
    • 提供者:weixin_38717870
  1. 可积系统中量子经典对偶性的三角形式

  2. 我们将量子经典对偶性扩展到三角(双曲)情况。 对偶性在经典的N体三角Ruijsenaars–Schneider模型与N位点上的不均匀扭曲XXZ自旋链之间建立了明确的关系。 与有理版本相似,自旋链数据在经典可积系统的相空间中固定了某个拉格朗日子流形。 不均匀性参数等于粒子的坐标,而经典粒子的速度与自旋链哈密顿量(正确归一化的传递矩阵的残差)的特征值成正比。 在对偶性的有理形式中,鲁伊斯纳尔斯-施耐德模型的作用变量等于扭曲参数,并且具有由量子(占据)数定义的某些多重性。 与有理形式相反,在三角函数情
  3. 所属分类:其它

    • 发布日期:2020-03-28
    • 文件大小:286720
    • 提供者:weixin_38695751
  1. 机器学习-03. 梯度下降和过拟合和归一化(上)

  2. 人工智能基础视频教程零基础入门课程 第三章(上) 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Ten
  3. 所属分类:机器学习

    • 发布日期:2020-07-15
    • 文件大小:805306368
    • 提供者:suolong123
  1. 大偏差下手绘太阳黑子图像的归一化

  2. 为解决手绘太阳黑子图像的不一致性给黑子信息自动测量带来的困难,研究了一种大偏差下手绘太阳黑子图像归一化的方法;利用Hough变换检测圆初步确定图像圆圈的位置,再基于最小二乘拟合圆准确定位圆圈的位置,从而实现图像大小的归一化;对大小归一化后的图像特定区域进行Hough变换直线检测以及CNN(卷积神经网络)字符识别,确定图像的偏转角度,从而完成整个图像的归一化。实验结果表明,该方法具有较好的准确性、鲁棒性和稳定性。
  3. 所属分类:其它

    • 发布日期:2020-10-16
    • 文件大小:245760
    • 提供者:weixin_38707217
  1. 批量归一化和残差网络

  2. 1.由来: 由google2015年提出,深度神经网络训练的技巧,主要是让数据的分布变得一致,从而使得训练深层神经网络更加容易和稳定。 2.作用 BN的作用就是将这些输入值或卷积网络的张量进行类似标准化的操作,将其放缩到合适的范围,从而加快训练速度;另一方面使得每一层可以尽量面对同一特征分布的输入值,减少了变化带来的不确定性 3.操作阶段 4.操作流程 计算每一层深度的均值和方差 对每一层设置2个参数,γ和β。假设第1深度γ=2、β=3;第2深度γ=5、β=8。 使用缩放因子γ和移位因子
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:258048
    • 提供者:weixin_38675797
  1. 批量归一化和残差网络、稠密连接网络

  2. 批量归一化 批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 1.全连接层的批量归一化 前两条公式是一个全连接层的普通实现方式,批量归一化的过程处在两条公式之间,对输出层维度的i个x计算μ和σ,然后计算新的x(i),再通过激活函数得到
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:235520
    • 提供者:weixin_38622427
  1. Pytorch 深度学习 Day03 —批量归一化与残差网格

  2. 批量归一化 批量归一化的提出正是为了应对深度模型训练的挑战。在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。批量归一化和下一节将要介绍的残差网络为训练和设计深度模型提供了两类重要思路。 批量归一化曾 对全连接层和卷积层做批量归一化的方法稍有不同。下面我们将分别介绍这两种情况下的批量归一化。 对全连接层做批量归一化 我们先考虑如何对全连接层做批量归一化。通常,我们将批量归一化层置于全连接层中的仿射变换和激活函数之间。设全
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:294912
    • 提供者:weixin_38610682
  1. 伯禹 动手学深度学习 打卡09 之批量归一化和残差网络

  2. 批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 1.对全连接层做批量归一化 位置:全连接层中的仿射变换和激活函数之间。 全连接: 2.对卷积层做批量归⼀化 位置:卷积计算之后、应⽤激活函数之前。 如果卷积计算输出多个通道,我们需要对
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:186368
    • 提供者:weixin_38653687
  1. ebu-norm:适用于EBU R 128和其他目标水平的先进,专业的批量归一化器和扫描仪-源码

  2. ebu-norm | tp-norm | Loudmax范数 用于批量归一化文件以达到积分或真实峰目标的脚本 先决条件: ebur128 , sox 完全支持的文件输入:wav,aiff(或aif),flac,ogg。 Mp3,Opus和wavpack在标准化之前先转换为wav。 过程 文件由ebur128分析, ebur128所需的增益传递给SoX 。 +/-增益是通过目标水平减去所分析的积分或峰值来计算的。 在ebu-norm的情况下,这是在限制后进行的,以确保达到准确的积分值。 文件写入
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:19456
    • 提供者:weixin_42153615
  1. 卷积神经网络的权重归一化训练低位宽模型

  2. 卷积神经网络的权重归一化训练低位宽模型
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:623616
    • 提供者:weixin_38670531
  1. 使用CIFAR10数据集进行图像分类:在本笔记本中,我将对CIFAR-10数据集中的图像进行分类。 数据集由飞机,狗,猫和其他物体组成。 在对图像进行预处理之后,我对所有样本都训练了卷积神经网络。 图像需要归一化,标签需要进行一次热编码-源

  2. 使用CIFAR10数据集进行图像分类 在本笔记本中,我将对CIFAR-10数据集中的图像进行分类。 数据集由飞机,青蛙,马和其他物体组成。 在对图像进行预处理之后,我对所有样本都训练了卷积神经网络。 图像需要进行归一化,标签需要进行一次热编码。 目录-> 获取数据 了解数据集 实作经验,实现归一化和一键编码功能 Tensorflow基础 模型架构和构造(使用不同类型的API) 训练模型 预测请打开jupyter笔记本以查看完整描述
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:8192
    • 提供者:weixin_42144199
  1. 特征驱动先验的归一化卷积超分辨率重建

  2. 特征驱动先验的归一化卷积超分辨率重建
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:1048576
    • 提供者:weixin_38634610
  1. ConvNorm:卷积归一化的正式实施:改进深度神经网络的鲁棒性和培训-源码

  2. 转换规范 该存储库是卷积归一化的官方实现:提高深度神经网络的鲁棒性和培训 我们介绍了一种简单有效的“卷积归一化”方法,该方法可以充分利用傅立叶域中的卷积结构,并作为简单的即插即用模块,可以方便地合并到任何ConvNets中。 我们表明,卷积归一化可以减少权重矩阵的分层频谱范数,从而改善网络的Lipschitzness,从而为深度ConvNets简化训练并提高鲁棒性。 将其应用于噪声破坏和生成对抗网络(GAN)下的分类中,我们表明卷积归一化可提高常见ConvNet(例如ResNet)的鲁棒性和GA
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:50176
    • 提供者:weixin_42120541
« 12 3 4 5 6 7 8 9 10 »