您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 三角函数公式(word)

  2. sin cos tan cot sh ch th arsh arch 二倍角 三倍角 半角 两角和 诱导公式 万能公式 积化和差 和差化积
  3. 所属分类:专业指导

    • 发布日期:2010-03-27
    • 文件大小:41984
    • 提供者:snser
  1. 同角三角函数的基本关系式

  2. 同角三角函数的基本关系式方便大家计算三角形的角度。包括倒数关系、商的关系、平方关系、诱导公式、两角和与差的三角函数公式、万能公式、半角的正弦、余弦和正切公式、三角函数的降幂公式、二倍角的正弦、余弦和正切公式、三倍角的正弦、余弦和正切公式、三角函数的和差化积公式、三角函数的积化和差公式、化asinα ±bcosα为一个角的一个三角函数的形式(辅助角的三角函数的公式)。
  3. 所属分类:专业指导

    • 发布日期:2010-04-05
    • 文件大小:61440
    • 提供者:liyun000000
  1. 实用三角函数公式大全

  2. 三角函数的积化和差公式 1 sinα •cosβ=-[sin(α+β)+sin(α-β)] 2 1 cosα •sinβ=-[sin(α+β)-sin(α-β)] 2 1 cosα •cosβ=-[cos(α+β)+cos(α-β)] 2 1 sinα •sinβ=— -[cos(α+β)-cos(α-β)] 2
  3. 所属分类:专业指导

    • 发布日期:2010-04-30
    • 文件大小:83968
    • 提供者:likunwang
  1. 计算机 基础数学 总结的很好 很棒的资料

  2. 第一章 初等代数部分....................................................................................................................................................... 1 一、 数的运算律.............................................................................
  3. 所属分类:教育

    • 发布日期:2016-10-14
    • 文件大小:3145728
    • 提供者:xulin416
  1. 三角函数公式

  2. 考研数学公式,三角函数公式(倍角公式,三角函数求导常用公式,倍角公式 三倍角公式 ,半角公式,和差化积,积化和差 )
  3. 所属分类:其它

    • 发布日期:2018-01-29
    • 文件大小:360448
    • 提供者:qq_26369907
  1. DLT 478-2013 继电保护和安全自动装置通用技术条件.pdf

  2. 本标准代替DL/T 478-2010 本标准由中国电力企业联合会标准化中心提出。DLT478-201? 目次 前言 范围...1 2规范性引用文件.. 3术语和定义 ··“· 4技术要求 :::t:::::::::·t:::. ,,,,,,,,,,,,,,,,,3 4.1环境条件 “:“;·““““+“““““.“““;“·“:+ 42额定电气参数 4.3准确度和变差. 44配线端子要求 4.5开关量输入和输出. :·::::.:::::: 曹重m曹里曹 46过载能力 “··““·““ 6 4.
  3. 所属分类:制造

    • 发布日期:2019-07-15
    • 文件大小:7340032
    • 提供者:m0_37683005
  1. 积化和差.png

  2. 积化和差
  3. 所属分类:讲义

    • 发布日期:2020-05-08
    • 文件大小:68608
    • 提供者:weixin_44439930
  1. x空间中改进的Epstein-Glaser重归一化与差分重归一化

  2. 在这里,将使用几乎唯一的实变量方法来重新检查x空间中无质量的费曼振幅的重新归一化。 我们通过分布的递归扩展来计算大量具体示例。 这使我们能够以几种循环顺序显示四点和两点函数的摄动展开。 为了处理内部顶点,我们阐述并扩展了对数齐次分布的卷积理论。 这种方法与Freedman,Johnson和Latorre提出的差分重新规范化有很多共同点。 但重要细节不同。
  3. 所属分类:其它

    • 发布日期:2020-05-03
    • 文件大小:609280
    • 提供者:weixin_38529436
  1. BCJ身份和d维广义统一性

  2. 我们提出了尺寸调节的QCD振幅的单环积分系数之间的一组关系。 在维数正则化中,颜色运动学对偶性和被积物归约的组合使用产生了部分振幅的被积物残差与外部粒子的不同顺序之间的关系。 可以为可削减的捐款以及负责合理条款的捐款建立这些关系。 从一环残基的一般参数化开始,并应用Laurent展开以提取基于主积分的幅度分解系数,我们表明,通过考虑d维之间的BCJ同一性,可以获得完整的关系集。 树级振幅。 我们提供了一个回路中多胶子散射幅度的明确示例。
  3. 所属分类:其它

    • 发布日期:2020-03-24
    • 文件大小:789504
    • 提供者:weixin_38665490
  1. 积化和差以及和差化积最简记忆口诀.pdf

  2. 关于和差化积以及积化和差的两句口诀 sin和差前后积,cos和差cos负sin 观察 和差化积 以及 积化和差 公式,找到共同规律,编成最简口诀。 口诀的最主要原则是朗朗上口:应如“一价氢氯钾钠银;二价氧钙钡镁锌,三铝四硅五价磷;二三铁,二四碳,二四六硫都齐全……”一般直接明了。 口诀中要体现普遍性以及特殊性。比如两组各自填入的角度模式都是一致的,而特殊点在于都有一条公式是带有负号的。
  3. 所属分类:讲义

    • 发布日期:2019-12-31
    • 文件大小:136192
    • 提供者:Will_Watson
  1. 三角函数计算.pdf

  2. 常用三角函数计算公式的汇总,大家可以下载进行系统学习或者保存参考。cos2a=cos2a-sin2 a=2c0s2a-1=1-2sin2 a tan a tang= sin3a=3sin a-4sin3 a cos3 a =4cos3a-3cos a Btan a-tan 3 a tana= 3tan2 a 三角函数的和差化积公式三角函数的积化和差公式 十β a-B sina+sinβ=2sin - co sin a B=2cos a+β cosa+cosβ=2 a+B COS aCOS= SI
  3. 所属分类:机器学习

    • 发布日期:2019-10-08
    • 文件大小:8388608
    • 提供者:liming6331
  1. 和差化积公式

  2. 和差化积和差化积和差化积和差化积和差化积和差化积和差化积
  3. 所属分类:其它

    • 发布日期:2012-11-13
    • 文件大小:51200
    • 提供者:kaidy_peng
  1. 瞬间记住三角函数和差化积积化和差公式的方法

  2. sina*cosb=(sin(a+b)+sin(a-b))/2 cosa*sinb=(sin(a+b)-sin(a-b))/2 cosa*cosb=(cos(a+b)+cos(a-b))/2 sina*sinb=-(cos(a+b)-cos(a-b))/2 sinx+siny=2sin((x+y)/2)*cos((x-y)/2) sinx-siny=2cos((x+y)/2)*sin((x-y)/2) cosx+cosy=2cos((x+y)/2)*cos((x-y)/2) cos
  3. 所属分类:其它

    • 发布日期:2010-09-17
    • 文件大小:1024
    • 提供者:wc349742683
  1. 批量归一化和残差网络

  2. 1.由来: 由google2015年提出,深度神经网络训练的技巧,主要是让数据的分布变得一致,从而使得训练深层神经网络更加容易和稳定。 2.作用 BN的作用就是将这些输入值或卷积网络的张量进行类似标准化的操作,将其放缩到合适的范围,从而加快训练速度;另一方面使得每一层可以尽量面对同一特征分布的输入值,减少了变化带来的不确定性 3.操作阶段 4.操作流程 计算每一层深度的均值和方差 对每一层设置2个参数,γ和β。假设第1深度γ=2、β=3;第2深度γ=5、β=8。 使用缩放因子γ和移位因子
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:258048
    • 提供者:weixin_38675797
  1. 批量归一化和残差网络、稠密连接网络

  2. 批量归一化 批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 1.全连接层的批量归一化 前两条公式是一个全连接层的普通实现方式,批量归一化的过程处在两条公式之间,对输出层维度的i个x计算μ和σ,然后计算新的x(i),再通过激活函数得到
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:235520
    • 提供者:weixin_38622427
  1. Pytorch 深度学习 Day03 —批量归一化与残差网格

  2. 批量归一化 批量归一化的提出正是为了应对深度模型训练的挑战。在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。批量归一化和下一节将要介绍的残差网络为训练和设计深度模型提供了两类重要思路。 批量归一化曾 对全连接层和卷积层做批量归一化的方法稍有不同。下面我们将分别介绍这两种情况下的批量归一化。 对全连接层做批量归一化 我们先考虑如何对全连接层做批量归一化。通常,我们将批量归一化层置于全连接层中的仿射变换和激活函数之间。设全
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:294912
    • 提供者:weixin_38610682
  1. 伯禹 动手学深度学习 打卡09 之批量归一化和残差网络

  2. 批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 1.对全连接层做批量归一化 位置:全连接层中的仿射变换和激活函数之间。 全连接: 2.对卷积层做批量归⼀化 位置:卷积计算之后、应⽤激活函数之前。 如果卷积计算输出多个通道,我们需要对
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:186368
    • 提供者:weixin_38653687
  1. 从零开始搭建神经网络-卷积神经网络(CNN)

  2. 本文来自csdn,本文主要通过代码实例详细介绍了卷积神经网络(CNN)架构中的卷积层,池化层和全连接层,希望对您的学习有所帮助。卷积神经网络的基础内容可以参考:机器学习算法之卷积神经网络卷积神经网络一般包括卷积层,池化层和全连接层,下面分别介绍一下2.1卷积层卷积神经网络里面的这个卷积和信号里面的卷积是有些差别的,信号中的卷积计算分为镜像相乘相加,卷积层中的卷积没有镜像这一操作,直接是相乘和相加,如下图所示最左边的是卷积的输入,中间的为卷积核,最右边的为卷积的输出。可以发现卷积计算很简单,就是卷
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:385024
    • 提供者:weixin_38719702
  1. 从零开始搭建神经网络-卷积神经网络(CNN)

  2. 本文来自csdn,本文主要通过代码实例详细介绍了卷积神经网络(CNN)架构中的卷积层,池化层和全连接层,希望对您的学习有所帮助。 卷积神经网络的基础内容可以参考:机器学习算法之卷积神经网络 卷积神经网络一般包括卷积层,池化层和全连接层,下面分别介绍一下 2.1卷积层卷积神经网络里面的这个卷积和信号里面的卷积是有些差别的,信号中的卷积计算
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:375808
    • 提供者:weixin_38547532
  1. 2018年宁波大学2603随机过程考博真题

  2. 宁波大学2018年博士研究生招生考试初试试题(B卷)(答案必须写在考点提供的答题纸上)第1页共3页科目代码:2603科目名称:随机过程本试题可能用到的公式:积化和差:和差化积1sincossinsin
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:423936
    • 提供者:weixin_38651165
« 12 3 4 5 6 7 8 9 10 »