点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 深度学习自然语言处理-Transformer模型
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
深度学习自然语言处理概述(116页ppt).pdf
在过去的几年中,自然语言处理领域发生了许多巨大的变化。在这篇介绍性的演讲中,我们将简要讨论自然语言处理中最大的挑战是什么,然后深入探讨NLP中最重要的深度学习里程碑。我们将包括词嵌入,语言建模和机器翻译的递归神经网络,以及最近兴起的基于Transformer的模型。
所属分类:
机器学习
发布日期:2020-03-10
文件大小:5242880
提供者:
syp_net
TabNine-0.1.8.jar
tabnine idea插件,直接放在idea插件目录下就可以使用。从程序语言处理的近亲 - 自然语言处理NLP的发展来看,这样的乐观不是没有道理的。从进入深度学习时代后,基于RNN的NLP技术不断发展进步,比如Attention机制引入RNN,到仅需要Attention的Transformer模型,到GPT, BERT, XLNet等预训练模型不断刷榜,借鉴NLP的经验,程序语言处理没有道理不取得大进步。TabNine的成功,也是对这种想法的印证。
所属分类:
互联网
发布日期:2020-07-21
文件大小:18432
提供者:
weixin_39393896
深度学习自然语言处理-Transformer模型
Transformer由论文《Attention is All You Need》提出,现在是谷歌云TPU推荐的参考模型。Transformer是:“首个完全抛弃RNN的recurrence,CNN的convolution,仅用attention来做特征抽取的模型。“ 本文简介了Transformer模型。
所属分类:
机器学习
发布日期:2020-08-31
文件大小:629760
提供者:
syp_net
nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。
自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
所属分类:
其它
发布日期:2021-03-23
文件大小:26214400
提供者:
weixin_42115003
nlp-journey:与自然语言处理有关的文档,文件和代码,包括主题模型,单词嵌入,命名实体识别,文本分类,文本生成,文本相似性,机器翻译)等。 所有代码均已实现intensorflow 2.0-源码
NLP旅程 全部在tensorflow 2.0中实现, 1.基础 2.书籍( 代码:txqx) 图形模型手册。 深度学习。 神经网络和深度学习。 语音和语言处理。 3.论文 01)变压器纸 BERT:用于语言理解的深度双向变压器的预训练。 GPT-2:语言模型是无监督的多任务学习者。 Transformer-XL:Transformer-XL:超出固定长度上下文的注意力语言模型。 XLNet:用于语言理解的通用自回归预训练。 RoBERTa:稳健优化的BERT预训练方法。 D
所属分类:
其它
发布日期:2021-02-06
文件大小:5242880
提供者:
weixin_42103587
course-nlp:NLP课程的代码优先简介-源码
自然语言处理的代码优先入门 您可以在找到有关该课程的,所有 。 该课程最初课程(2019年夏季)中教授的。该课程使用Jupyter Notebooks使用Python进行教学,并使用sklearn,nltk,pytorch和fastai等库。 目录 将涵盖以下主题: 1.什么是NLP? 不断变化的领域 资源资源 工具类 Python库 应用范例 道德问题 2.使用NMF和SVD进行主题建模 停用词,词干和词形化 术语文档矩阵 主题频率-逆文档频率(TF-IDF) 奇异值分解(SVD)
所属分类:
其它
发布日期:2021-02-03
文件大小:15728640
提供者:
weixin_42166626