文件名称:
bert_language_understanding:用于语言理解的深度双向变压器的预训练:TextCNN的预训练-源码
开发工具:
文件大小: 6mb
下载次数: 0
上传时间: 2021-02-03
详细说明:Google的bert提出的有关语言理解的想法:训练TextCNN
目录
1.引言
2.性能
3.用法
4.样本数据,数据格式
5.对用户的建议
6.BERT的简短描述
7.作者对BERT的详细描述
8,预训练语言理解任务
9,环境
10.实施细节
11,更好地理解变压器和BERT的问题
12,玩具任务
13.多标签分类任务
14.TODO列表
15,结论
16,参考文献
介绍
预训练就是您所需要的!
BERT最近在10多个nlp任务上取得了最新的技术成果。
这是用于语言理解的深度双向变压器预训练的张量流实现
(Bert)和Attention是您所需要的(变形金刚)。
更新:完成了这两篇论文的重复主要思想的大部分,明显地提高了性能
对于预训练模型和微调,可以从头开始训练模型。
试用前变体和微调
我们进行了实验,以将bert的主干网络从Transformer替换为TextCNN,结果是
使用大量原始数据使用掩盖的语言模型对模型进行预训练可以显着提高性能。
更普遍地说,我们认为训练前和微调策略与模型无关且与训练前任务无关。
话虽如此,您可以随意替换骨干网。 并添加更多的预训练任务
(系统自动生成,下载前可以参看下载内容)
下载文件列表
相关说明
- 本站资源为会员上传分享交流与学习,如有侵犯您的权益,请联系我们删除.
- 本站是交换下载平台,提供交流渠道,下载内容来自于网络,除下载问题外,其它问题请自行百度。
- 本站已设置防盗链,请勿用迅雷、QQ旋风等多线程下载软件下载资源,下载后用WinRAR最新版进行解压.
- 如果您发现内容无法下载,请稍后再次尝试;或者到消费记录里找到下载记录反馈给我们.
- 下载后发现下载的内容跟说明不相乎,请到消费记录里找到下载记录反馈给我们,经确认后退回积分.
- 如下载前有疑问,可以通过点击"提供者"的名字,查看对方的联系方式,联系对方咨询.