您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. BP神经网络源程序及训练样本

  2. BP神经网络源程序c语言版的程序 训练样本为程序调试运行准备的
  3. 所属分类:网络基础

    • 发布日期:2009-05-02
    • 文件大小:456704
    • 提供者:qqqmengxiang
  1. C语言写的神经网络源程序

  2. C语言写的神经网络源程序 C语言写的神经网络源程序 C语言写的神经网络源程序 C语言写的神经网络源程序
  3. 所属分类:C

    • 发布日期:2009-05-02
    • 文件大小:291840
    • 提供者:qqqmengxiang
  1. 基于BP神经网络的手写体数字识别

  2. 这是用MATLAB语言编写的手写体识别程序,基于BP神经网络的手写体数字识别,代码简洁,界面图形化
  3. 所属分类:网络基础

    • 发布日期:2009-05-04
    • 文件大小:122880
    • 提供者:lyfsscg2009
  1. NLP(神经语言程序学

  2. NLP是神经语言程序学 (Neuro-Linguistic Programming) 的英文缩写. N (Neuro) 指的是神经系统,包括大脑和思维过程。 L (LinpJistic) 是指语言,更准确点说,是指从感觉信号的输入到构成意思的过程。 P (Programming) 是指为产生某种后果而要执行的一套具体指令。
  3. 所属分类:专业指导

    • 发布日期:2009-08-04
    • 文件大小:2097152
    • 提供者:a05081539
  1. NLP神经语言程式学

  2. NLP神经语言程式学 教会你如何交流,虽然看上去是理工类的,实际是威客东东西
  3. 所属分类:专业指导

    • 发布日期:2011-12-14
    • 文件大小:584704
    • 提供者:yangyang520201
  1. NLP神经语言程序学

  2. NLP神经语言程序学,想要学催眠术或者心理学的朋友必看,会学到很多!
  3. 所属分类:教育

    • 发布日期:2012-07-06
    • 文件大小:91136
    • 提供者:luyongzy
  1. 神经语言程序学

  2. NPL神经语言程序学,牛人程序!牛族手册!
  3. 所属分类:咨询

    • 发布日期:2013-01-27
    • 文件大小:366592
    • 提供者:arhujik
  1. 语言的魔力:谈笑间转变信念之NLP技巧].(美)罗伯特·迪尔茨.pdf )

  2. NLP(英文全称 Neuro Linguistic programming,译作“神经语言程序学”)是20世纪70年代美国加州大学圣塔克鲁兹分校的理察·班德勒(Richard Bandler)和语言学约翰·葛瑞德(John Grinder)共同创办的,是一种沟通,个人发展的技术和方法。NLP的原则指出人是身心合一的系统,存在着“神经程序”,“语言”以及“习得的行为策略”三者的一致,模式性的连接。带着“帮助人们过得更好,更饱满和富硕的生活”的目标,这种创新和实用的方法论已被广泛应用于精神疗法,教
  3. 所属分类:教育

    • 发布日期:2013-04-06
    • 文件大小:28311552
    • 提供者:yuerxia
  1. 人工神经网络电子讲稿和课本

  2. 人工神经网络电子讲稿和课本 适合初学者 人工神经网络(Artificial Neural Networks, ANN),一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。(引自《环球科学》20
  3. 所属分类:网络基础

    • 发布日期:2008-12-07
    • 文件大小:1048576
    • 提供者:iterate
  1. 重塑心灵:NLP—心灵成长科学pdf

  2. 将神经语言程序介绍的很好,是一本不错的入门书。
  3. 所属分类:专业指导

    • 发布日期:2008-12-29
    • 文件大小:12582912
    • 提供者:lt79460064
  1. nlc, 在Tensorflow上实现神经语言校正.zip

  2. nlc, 在Tensorflow上实现神经语言校正 这个项目将我们的原始代码移植到 Theano 。 仍在开发中。简介基于Tensorflow的神经语言校正( http://arxiv.org/abs/1603.09727 )的。培训要训练字符级模型( 默认值),请执行以下操作:
  3. 所属分类:其它

    • 发布日期:2019-09-17
    • 文件大小:18432
    • 提供者:weixin_38743737
  1. neurallanguage-notes, 关于神经语言学习论文的总结与说明.zip

  2. neurallanguage-notes, 关于神经语言学习论文的总结与说明 神经语言注释关于从 arXiv 。ACL 。EMNLP 。NAACL和一些机器/深度学习。ICLR 。ICML的神经语言学习简介。 这条笔记灵感来自的britz 。 还有用于神经语言研究 [ link ]的数据集。会议文件&组
  3. 所属分类:其它

    • 发布日期:2019-10-10
    • 文件大小:12288
    • 提供者:weixin_38744435
  1. 神经语言生成:形式化,方法与评价

  2. 基于神经网络的生成式模型的最新进展重新燃起了计算机系统能够与人类无缝对话并能够理解自然语言的希望。神经结构被用于生成文本摘录,在满足不同用户需求的多种上下文和任务中取得了不同程度的成功。
  3. 所属分类:机器学习

    • 发布日期:2020-08-10
    • 文件大小:1045504
    • 提供者:syp_net
  1. 基于特征注意的神经语言校正.pdf

  2. 基于特征注意的神经语言校正.pdf 英文版
  3. 所属分类:深度学习

    • 发布日期:2020-11-03
    • 文件大小:407552
    • 提供者:weixin_42591985
  1. PRPN-Analysis:此回购包含分析结果,该论文报告见“使用神经语言模型进行语法归纳”-源码

  2. PRPN分析 此仓库包含输出文件和分析结果,该报告在论文 [1]中进行了报告,我们在其中对解析阅读预测网络[2]进行了深入分析。 解析的文件可以在下载解析的文件以以下方式命名: parsed_ {parsed-dataset} {model-type} {train-data} _ {earlystop-criterion} .jsonl 示例:parsed_WSJ_PRPNUP_WSJFull_ESUP.jsonl 我们还共享提供最佳F-1分数的预训练模型(PRPN-LM在AllNLI上使用
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:451584
    • 提供者:weixin_42099814
  1. 用于神经文本生成的差异化分布恢复

  2. 基于递归神经网络(RNNLM)的神经语言模型极大地提高了文本生成的性能,但是以图灵测试通过率表示的生成文本的质量仍然远远不能令人满意。 一些研究人员建议使用对抗训练或强化学习来提高质量,但是,这种方法通常会在训练和参数调整过程中带来巨大挑战。 通过我们的分析,我们发现RNNLM的问题来自最大似然估计(MLE)作为目标函数的使用,这需要生成的分布来精确地恢复真实分布。 这种要求有利于高世代多样性,这限制了世代质量。 当整体质量较低时,这是不合适的,因为高世代多样性通常表示很多错误,而不是多样化的好
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:708608
    • 提供者:weixin_38607088
  1. 结合语言知识来学习分布式单词表示

  2. 结合神经语言模型,分布式单词表示在计算语言学和文本挖掘中获得了明显的优势。 现有的大多数模型都以无人监督的方式从大规模数据中估计分布式词向量,但是,这些词向量并没有考虑到丰富的语言知识。 语言知识既可以表示为基于链接的知识,也可以表示为基于偏好的知识,并且我们提出了知识正则化的单词表示模型(KRWR),以结合这些先验知识来学习分布式单词表示。 实验结果表明,我们的估计单词表示在语义相关性排序任务中取得了较好的表现。 这表明我们的方法可以有效地将知识库中的先验知识和大规模文本语料库中的统计知识编码
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:131072
    • 提供者:weixin_38647039
  1. 整合语言知识以学习分布式单词表示

  2. 结合神经语言模型,分布式单词表示在计算语言学和文本挖掘中获得了明显的优势。 现有的大多数模型都以无人监督的方式从大规模数据中估计分布式词向量,但是,这些词向量并没有考虑到丰富的语言知识。 语言知识既可以表示为基于链接的知识,也可以表示为基于偏好的知识,并且我们提出了知识正则化的单词表示模型(KRWR),以结合这些先验知识来学习分布式单词表示。 实验结果表明,我们的估计单词表示在语义相关性排序任务中取得了较好的表现。 这表明我们的方法可以有效地将知识库中的先验知识和大规模文本语料库中的统计知识编码
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:393216
    • 提供者:weixin_38519849
  1. tale_of_two_perplexities:与纸张相关的代码:Trevor Cohen *和Serguei Pakhomov。 两种困惑的故事:阿尔茨海默氏型痴呆症中神经语言模型对词汇检索缺陷的敏感性(表示相等的贡献)。 出现在202

  2. tale_of_two_perplexities 与纸张相关的代码:Trevor Cohen *和Serguei Pakhomov。 两种困惑的故事:阿尔茨海默氏型痴呆症中神经语言模型对词汇检索缺陷的敏感性(表示相等的贡献)。 出现在2020年7月虚拟会议的计算语言学协会年会论文集(ACL 2020)中。
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:2097152
    • 提供者:weixin_42132354
  1. PyTorch教程到序列标签:使用任务感知神经语言模型增强序列标签| PyTorch教程进行序列标记-源码

  2. 这是序列标记的教程。 这是我正在编写的第二篇,介绍了如何使用令人惊叹的PyTorch库自己实现酷模型。 假定具有PyTorch的基础知识,递归神经网络。 如果您是PyTorch的新手,请先阅读PyTorch的和 。 问题,建议或更正可以作为问题发布。 我在Python 3.6使用PyTorch 0.4 。 2020年1月27日:添加了两个新教程的工作代码-和 内容 目的 建立一个可以用实体,词性等标记句子中每个单词的模型。 我们将实现。 它比大多数序列标记模型要先进,但是您将学到许
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:6291456
    • 提供者:weixin_42169674
« 12 3 4 5 6 7 8 9 10 ... 50 »