您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 有关信息论基础ppt

  2. 一. 信息论 信息论的发展以及通信系统的模型 离散信源熵,互信息以及冗余度 二. 信源编码 定长编码,变长编码以及最佳编码 离散信源的信息率失真函数R(D) 限失真信源编码定理以及常用信源编码方法 三. 信道编码 信道模型和容量 线性分组码 卷积码 网格编码调制与级联码 Turbo码及其迭代译码原理
  3. 所属分类:专业指导

    • 发布日期:2010-07-16
    • 文件大小:1048576
    • 提供者:chenhong8008
  1. 信息熵在图像处理中的应用

  2. 信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统计等学科相 结合而逐步发展起来的一门新兴交叉学科。而熵是信息论中事件出现概率的不确定性的量度, 能有效反映事件包含的信息。
  3. 所属分类:专业指导

    • 发布日期:2010-10-22
    • 文件大小:116736
    • 提供者:hunyyuan
  1. 信息论编码的实践报告

  2. 信息论是现代通信与信息工程的理论基础。作为电子信息科学与技术专业本科生的学科基础课,本课程主要讲授:信息的定义和测度、信源和信息熵、连续熵和信息变差、信道和互信息、平均互信息和信道容量、数据处理和信息测量理论、无失真信源编码理论和编码方法等内容。
  3. 所属分类:专业指导

    • 发布日期:2012-03-10
    • 文件大小:250880
    • 提供者:xuan_yan_xuan
  1. 统计自然语言处理基础

  2. 第一部分 基础知识 第1章 绪论 1.1 理性主义者和经验主义者的方法 1.2 科学内容 1.3 语言中的歧义问题是自然语言难以处理的原因 1.4 第一手资料 1.5 深入阅读 1.6 习题 第2章 数学基础 2.1 概率论基础 2.2 信息论基础 2.3 深入阅读 2.4 习题 第3章 语言学基础 3.1 词性和词法 3.2 短语结枸 3.3 语义和语用 3.4 其他研究领域 3.5 深入阅读 3.6 习题 .第4章 基于语料库的工作 4.1 基础知识 4.2 文本 4.3 数据标注 4.
  3. 所属分类:专业指导

    • 发布日期:2012-07-26
    • 文件大小:26214400
    • 提供者:a06062125
  1. 统计自然语言处理基础 中文版

  2. 第一部分 基础知识 第1章 绪论 1.1 理性主义者和经验主义者的方法 1.2 科学内容 1.3 语言中的歧义问题是自然语言难以处理的原因 1.4 第一手资料 1.5 深入阅读 1.6 习题 第2章 数学基础 2.1 概率论基础 2.2 信息论基础 2.3 深入阅读 2.4 习题 第3章 语言学基础 3.1 词性和词法 3.2 短语结枸 3.3 语义和语用 3.4 其他研究领域 3.5 深入阅读 3.6 习题 .第4章 基于语料库的工作 4.1 基础知识 4.2 文本 4.3 数据标注 4.
  3. 所属分类:其它

    • 发布日期:2014-02-13
    • 文件大小:26214400
    • 提供者:aaa939291641
  1. 信息论与编码PPT

  2. 信息论与编码上课的PPT资源,信源与信息熵,离散信源熵和互信息
  3. 所属分类:其它

    • 发布日期:2015-06-20
    • 文件大小:4194304
    • 提供者:zhenzhenrr
  1. 信息论信源与信息熵111

  2. 信源描述与分类 离散信源的信息熵和互信息 离散序列信源的熵 连续信源的熵与互信息 冗余度
  3. 所属分类:专业指导

    • 发布日期:2008-12-30
    • 文件大小:447488
    • 提供者:clyde87
  1. 熵与条件熵,疑义度,噪声熵,互信息等计算程序

  2. 程序功能: % 根据给定的信源分布和转移概率矩阵计算 % 输入信源熵H(X) % 输出信源熵H(Y) % 疑义度H(X|Y) % 噪声熵H(Y|X) % 互信息I(X;Y)
  3. 所属分类:专业指导

    • 发布日期:2009-04-26
    • 文件大小:1024
    • 提供者:chenwen333
  1. 机器学习相关的基础数学知识

  2. 一. 线性代数 二. 概率论 三. 数理统计 四. 优化相关 五.信息论 向量 条件概率 样本 目标函数 信息熵 矩阵 联合概率 总体 全局最小值 互信息 集合 全概率公式 统计量 局部极小值 信息增益 标量 逆概率 参数估计 无约束优化 KL 散度 张量 贝叶斯公式 假设检验 约束优化 最大熵原理 范数 贝叶斯定理 置信区间 拉格朗日函数 交叉熵和相对熵的对比 内积 先验概率 区间估计 KKT条件与对偶函数 各种熵之间的关系 向量正交 后验概率 泛化能力 梯度下降法 正交基 似然概率 泛化误
  3. 所属分类:机器学习

    • 发布日期:2019-02-21
    • 文件大小:327680
    • 提供者:u012459213
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1048576
    • 提供者:abacaba
  1. 统计自然语言处理

  2. 统计自然语言处理是一本很好的书籍,是一本很基础的书籍目录 序二 第2版前宣 第1版前言 第1章绪论 11基本概念 1.1.1语言学与语音学 2自然语言处理 11.3关于“理解”的标准 1,2自然语言处理研究的内容和面临的困难 1,2,1自然语言处理研宄的内容 1,22自然语言处理涉及的几个层次 1.2.3自然语言处理面临的困难 13自然语言处理的基本方法及其发展 13,1自然语言处理的基本方汏 3,2自然语言处理的发展 14自然语言处理的研究现状 本书的内容安挂 第2章顸备知识 2,1概率论基本
  3. 所属分类:Python

    • 发布日期:2019-03-04
    • 文件大小:25165824
    • 提供者:weixin_34749051
  1. 信息论与互信息

  2. 在信息论中,熵是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。 在信息世界中,熵越高,则能传输越多的信息,熵越低,则意味着传输的信息越少。 自信息: 1、自信息表示事件发生前,事情发生的不确定性 2、自信息表示事件发生后,事件所包含的信息量,是提供给新宿的信息量,也是解除这种不确定性所需要的信息量。 互信息: 离散随机事件之间的互信息: 事件x,y之间的互信息等于“x的自信息”减去“y条件下x的自信息”,I(x)表示x的不确定性,I(x|y)表示在y发生条件下,x的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:77824
    • 提供者:weixin_38627603
  1. 基于信息理论的采样成像系统匹配设计

  2. 把信息论应用于采样成像系统中,用互信息量评价图像捕捉部分的性能,做出基于信息论的系统评价仿真曲线,提出基于信息论的系统优化设计的指标。根据仿真结果,给出光学成像系统与CCD阵列探测器的宏观匹配特性与最佳匹配条件。图像捕捉实验结果证明了理论分析和仿真结论的正确性。
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:466944
    • 提供者:weixin_38562725
  1. 线性时不变控制系统中的互信息率和解析约束

  2. 针对受随机干扰的离散线性时不变系统的跟踪控制问题, 采用信息论的方法讨论了系统获得 有效跟踪性能的基本信息条件。从此条件出发,得出系统闭环传递函数设计的解析约束,表明了系统敏 感函数与补敏感函数的 Bo de 积分间的关系。对于开环传递函数严格正则的系统, 这一约束反映了开环 不稳定零极点应具备的特性。
  3. 所属分类:其它

    • 发布日期:2021-01-15
    • 文件大小:192512
    • 提供者:weixin_38567962