点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 神经语言
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
BP神经网络源程序及训练样本
BP神经网络源程序c语言版的程序 训练样本为程序调试运行准备的
所属分类:
网络基础
发布日期:2009-05-02
文件大小:456704
提供者:
qqqmengxiang
C语言写的神经网络源程序
C语言写的神经网络源程序 C语言写的神经网络源程序 C语言写的神经网络源程序 C语言写的神经网络源程序
所属分类:
C
发布日期:2009-05-02
文件大小:291840
提供者:
qqqmengxiang
基于BP神经网络的手写体数字识别
这是用MATLAB语言编写的手写体识别程序,基于BP神经网络的手写体数字识别,代码简洁,界面图形化
所属分类:
网络基础
发布日期:2009-05-04
文件大小:122880
提供者:
lyfsscg2009
NLP(神经语言程序学
NLP是神经语言程序学 (Neuro-Linguistic Programming) 的英文缩写. N (Neuro) 指的是神经系统,包括大脑和思维过程。 L (LinpJistic) 是指语言,更准确点说,是指从感觉信号的输入到构成意思的过程。 P (Programming) 是指为产生某种后果而要执行的一套具体指令。
所属分类:
专业指导
发布日期:2009-08-04
文件大小:2097152
提供者:
a05081539
NLP神经语言程式学
NLP神经语言程式学 教会你如何交流,虽然看上去是理工类的,实际是威客东东西
所属分类:
专业指导
发布日期:2011-12-14
文件大小:584704
提供者:
yangyang520201
NLP神经语言程序学
NLP神经语言程序学,想要学催眠术或者心理学的朋友必看,会学到很多!
所属分类:
教育
发布日期:2012-07-06
文件大小:91136
提供者:
luyongzy
神经语言程序学
NPL神经语言程序学,牛人程序!牛族手册!
所属分类:
咨询
发布日期:2013-01-27
文件大小:366592
提供者:
arhujik
语言的魔力:谈笑间转变信念之NLP技巧].(美)罗伯特·迪尔茨.pdf )
NLP(英文全称 Neuro Linguistic programming,译作“神经语言程序学”)是20世纪70年代美国加州大学圣塔克鲁兹分校的理察·班德勒(Richard Bandler)和语言学约翰·葛瑞德(John Grinder)共同创办的,是一种沟通,个人发展的技术和方法。NLP的原则指出人是身心合一的系统,存在着“神经程序”,“语言”以及“习得的行为策略”三者的一致,模式性的连接。带着“帮助人们过得更好,更饱满和富硕的生活”的目标,这种创新和实用的方法论已被广泛应用于精神疗法,教
所属分类:
教育
发布日期:2013-04-06
文件大小:28311552
提供者:
yuerxia
人工神经网络电子讲稿和课本
人工神经网络电子讲稿和课本 适合初学者 人工神经网络(Artificial Neural Networks, ANN),一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。(引自《环球科学》20
所属分类:
网络基础
发布日期:2008-12-07
文件大小:1048576
提供者:
iterate
重塑心灵:NLP—心灵成长科学pdf
将神经语言程序介绍的很好,是一本不错的入门书。
所属分类:
专业指导
发布日期:2008-12-29
文件大小:12582912
提供者:
lt79460064
nlc, 在Tensorflow上实现神经语言校正.zip
nlc, 在Tensorflow上实现神经语言校正 这个项目将我们的原始代码移植到 Theano 。 仍在开发中。简介基于Tensorflow的神经语言校正( http://arxiv.org/abs/1603.09727 )的。培训要训练字符级模型( 默认值),请执行以下操作:
所属分类:
其它
发布日期:2019-09-17
文件大小:18432
提供者:
weixin_38743737
neurallanguage-notes, 关于神经语言学习论文的总结与说明.zip
neurallanguage-notes, 关于神经语言学习论文的总结与说明 神经语言注释关于从 arXiv 。ACL 。EMNLP 。NAACL和一些机器/深度学习。ICLR 。ICML的神经语言学习简介。 这条笔记灵感来自的britz 。 还有用于神经语言研究 [ link ]的数据集。会议文件&组
所属分类:
其它
发布日期:2019-10-10
文件大小:12288
提供者:
weixin_38744435
神经语言生成:形式化,方法与评价
基于神经网络的生成式模型的最新进展重新燃起了计算机系统能够与人类无缝对话并能够理解自然语言的希望。神经结构被用于生成文本摘录,在满足不同用户需求的多种上下文和任务中取得了不同程度的成功。
所属分类:
机器学习
发布日期:2020-08-10
文件大小:1045504
提供者:
syp_net
基于特征注意的神经语言校正.pdf
基于特征注意的神经语言校正.pdf 英文版
所属分类:
深度学习
发布日期:2020-11-03
文件大小:407552
提供者:
weixin_42591985
PRPN-Analysis:此回购包含分析结果,该论文报告见“使用神经语言模型进行语法归纳”-源码
PRPN分析 此仓库包含输出文件和分析结果,该报告在论文 [1]中进行了报告,我们在其中对解析阅读预测网络[2]进行了深入分析。 解析的文件可以在下载解析的文件以以下方式命名: parsed_ {parsed-dataset} {model-type} {train-data} _ {earlystop-criterion} .jsonl 示例:parsed_WSJ_PRPNUP_WSJFull_ESUP.jsonl 我们还共享提供最佳F-1分数的预训练模型(PRPN-LM在AllNLI上使用
所属分类:
其它
发布日期:2021-03-20
文件大小:451584
提供者:
weixin_42099814
用于神经文本生成的差异化分布恢复
基于递归神经网络(RNNLM)的神经语言模型极大地提高了文本生成的性能,但是以图灵测试通过率表示的生成文本的质量仍然远远不能令人满意。 一些研究人员建议使用对抗训练或强化学习来提高质量,但是,这种方法通常会在训练和参数调整过程中带来巨大挑战。 通过我们的分析,我们发现RNNLM的问题来自最大似然估计(MLE)作为目标函数的使用,这需要生成的分布来精确地恢复真实分布。 这种要求有利于高世代多样性,这限制了世代质量。 当整体质量较低时,这是不合适的,因为高世代多样性通常表示很多错误,而不是多样化的好
所属分类:
其它
发布日期:2021-03-07
文件大小:708608
提供者:
weixin_38607088
结合语言知识来学习分布式单词表示
结合神经语言模型,分布式单词表示在计算语言学和文本挖掘中获得了明显的优势。 现有的大多数模型都以无人监督的方式从大规模数据中估计分布式词向量,但是,这些词向量并没有考虑到丰富的语言知识。 语言知识既可以表示为基于链接的知识,也可以表示为基于偏好的知识,并且我们提出了知识正则化的单词表示模型(KRWR),以结合这些先验知识来学习分布式单词表示。 实验结果表明,我们的估计单词表示在语义相关性排序任务中取得了较好的表现。 这表明我们的方法可以有效地将知识库中的先验知识和大规模文本语料库中的统计知识编码
所属分类:
其它
发布日期:2021-03-05
文件大小:131072
提供者:
weixin_38647039
整合语言知识以学习分布式单词表示
结合神经语言模型,分布式单词表示在计算语言学和文本挖掘中获得了明显的优势。 现有的大多数模型都以无人监督的方式从大规模数据中估计分布式词向量,但是,这些词向量并没有考虑到丰富的语言知识。 语言知识既可以表示为基于链接的知识,也可以表示为基于偏好的知识,并且我们提出了知识正则化的单词表示模型(KRWR),以结合这些先验知识来学习分布式单词表示。 实验结果表明,我们的估计单词表示在语义相关性排序任务中取得了较好的表现。 这表明我们的方法可以有效地将知识库中的先验知识和大规模文本语料库中的统计知识编码
所属分类:
其它
发布日期:2021-03-05
文件大小:393216
提供者:
weixin_38519849
tale_of_two_perplexities:与纸张相关的代码:Trevor Cohen *和Serguei Pakhomov。 两种困惑的故事:阿尔茨海默氏型痴呆症中神经语言模型对词汇检索缺陷的敏感性(表示相等的贡献)。 出现在202
tale_of_two_perplexities 与纸张相关的代码:Trevor Cohen *和Serguei Pakhomov。 两种困惑的故事:阿尔茨海默氏型痴呆症中神经语言模型对词汇检索缺陷的敏感性(表示相等的贡献)。 出现在2020年7月虚拟会议的计算语言学协会年会论文集(ACL 2020)中。
所属分类:
其它
发布日期:2021-02-13
文件大小:2097152
提供者:
weixin_42132354
PyTorch教程到序列标签:使用任务感知神经语言模型增强序列标签| PyTorch教程进行序列标记-源码
这是序列标记的教程。 这是我正在编写的第二篇,介绍了如何使用令人惊叹的PyTorch库自己实现酷模型。 假定具有PyTorch的基础知识,递归神经网络。 如果您是PyTorch的新手,请先阅读PyTorch的和 。 问题,建议或更正可以作为问题发布。 我在Python 3.6使用PyTorch 0.4 。 2020年1月27日:添加了两个新教程的工作代码-和 内容 目的 建立一个可以用实体,词性等标记句子中每个单词的模型。 我们将实现。 它比大多数序列标记模型要先进,但是您将学到许
所属分类:
其它
发布日期:2021-02-03
文件大小:6291456
提供者:
weixin_42169674
«
1
2
3
4
5
6
7
8
9
10
...
50
»