点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - bert:TensorFlow代码和BERT的预训练模型-源码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
nlp-journey:与自然语言处理有关的文档,文件和代码,包括主题模型,单词嵌入,命名实体识别,文本分类,文本生成,文本相似性,机器翻译)等。 所有代码均已实现intensorflow 2.0-源码
NLP旅程 全部在tensorflow 2.0中实现, 1.基础 2.书籍( 代码:txqx) 图形模型手册。 深度学习。 神经网络和深度学习。 语音和语言处理。 3.论文 01)变压器纸 BERT:用于语言理解的深度双向变压器的预训练。 GPT-2:语言模型是无监督的多任务学习者。 Transformer-XL:Transformer-XL:超出固定长度上下文的注意力语言模型。 XLNet:用于语言理解的通用自回归预训练。 RoBERTa:稳健优化的BERT预训练方法。 D
所属分类:
其它
发布日期:2021-02-06
文件大小:5242880
提供者:
weixin_42103587
gpt-2-Pytorch:具有OpenAI的简单文本生成器gpt-2 Pytorch实现-源码
带文本生成器的GPT2-Pytorch 更好的语言模型及其含义 我们的模型称为GPT-2(是的继承者),仅经过培训即可预测40GB的互联网文本中的下一个单词。 由于我们担心该技术的恶意应用,因此我们不会发布经过训练的模型。 作为负责任公开的一项实验,我们将发布一个供研究人员进行实验的以及一份。 来自 该存储库是有关Pytorch中带有压缩代码的文本生成器的简单实现GPT-2 原始曲目是 。 您也可以阅读有关gpt-2的论文, 。 为了理解更详细的概念,我建议您阅读有关变压器模型的论文。
所属分类:
其它
发布日期:2021-02-03
文件大小:576512
提供者:
weixin_42166105
bert:TensorFlow代码和BERT的预训练模型-源码
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经证明,除了BERT-Base和BERT-Large之外,标准BERT配方(包括模型体系结构和训练目标)对多种模型尺寸均有效。 较小的BERT模型适用于计算资源有限的环境。 可以按照与原始BERT模型相同的方式对它们进行微调。 但是,它们在知识提炼的情况下最有效,在这种情况下,微调标签是由更大,更
所属分类:
其它
发布日期:2021-02-03
文件大小:108544
提供者:
weixin_42168750