点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - pytorch语言模型
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
transformers pytorch 版语言模型 源码
其中transformers _test.py 这些代码的终点其他的都是辅助或者没用的代码 这个文件包含了网络和训练测试代码
所属分类:
深度学习
发布日期:2020-08-17
文件大小:927989760
提供者:
weixin_32759777
nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。
自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
所属分类:
其它
发布日期:2021-03-23
文件大小:26214400
提供者:
weixin_42115003
lmtool-fwms:用于快速重量记忆系统的PyTorch语言建模工具包-源码
PyTorch语言建模工具包(用于快速重量存储系统) 该存储库包含论文中用于语言建模实验的正式代码: ... 更一般而言,它可以用作PyTorch中的语言建模工具包来进行以下实验: 具有不同更新规则和线性注意功能的快速重量存储系统: 更新规则:删除后的“ sum”和“ ours”(如本文所建议;第4.2节) 线性注意功能:“基于ELU的”线性注意,“ FAVOR +”,“确定性无参数投影(DPFP)” 例如,某些组合会产生众所周知的模型: =“求和”更新规则+“基于ELU”的线性注意 =“总和”
所属分类:
其它
发布日期:2021-03-22
文件大小:69632
提供者:
weixin_42102358
full_stack_transformer:Pytorch库用于端到端的变压器模型训练,推理和服务-源码
全栈变压器 Pytorch库用于端到端的变压器模型训练,推理和服务。一系列出色的图书馆。 图书馆设计 该库的组织方式使得子包包含所有建模,数据结构和数据流类。 在子程序包中,包含所有特定于任务的代码。 可用任务: -经典的基于文档的语言模型培训。它还提供了用于交互式文本生成的应用程序服务。 文件语言模型 目前,该库中只有1个任务可用。因此,我将在README中为此示例使用一个示例。当将执行其他任务时,我将移动文档中的所有示例。 特征 自动LM数据集准备 端到端变压器LM培训 训练 用元数据(控制
所属分类:
其它
发布日期:2021-03-21
文件大小:1048576
提供者:
weixin_42144366
TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练
TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
所属分类:
其它
发布日期:2021-03-18
文件大小:2097152
提供者:
weixin_42165508
lm-prior-for-nmt:该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的源代码-源码
该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的论文的源代码() 介绍 在这项工作中,我们使用在目标方单语语料库上训练的语言模型(LM)作为较弱的先验知识。 我们添加了一个正则化项,该项驱动翻译模型(TM)的输出分布在LM的分布下可能出现。 更新:您现在可以使用插件下使用LM-之前与fairseq 。 先决条件 安装要求 创建环境(可选) :理想情况下,您应该为项目创建一个环境。 conda create -n lmprior python=3 conda activate l
所属分类:
其它
发布日期:2021-03-17
文件大小:16777216
提供者:
weixin_42117622
MTL-KGC:编码“具有预训练语言模型的知识图完成多任务学习”的代码-源码
货柜码头 这是的PyTorch实施。 火车 使用链接预测(LP),关系预测(RP)和相关性排名(RR)训练多任务学习。 如果收到AssertionError:未初始化默认进程组,请尝试使用python -m torch.distributed.launch python run_bert_multitask.py \ --do_train \ --task_list lp,rp,rr \ --data_dir ./data/wn18rr \ --bert_mo
所属分类:
其它
发布日期:2021-03-09
文件大小:11534336
提供者:
weixin_42099176
自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源
自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源
所属分类:
互联网
发布日期:2021-03-05
文件大小:106
提供者:
weixin_42200791
自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源
自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源
所属分类:
互联网
发布日期:2021-03-02
文件大小:23
提供者:
weixin_42207707
RecurrentLM:用于在具有RNN,GRU和LSTM层的PyTorch上训练,测试和采样自动回归递归语言模型的代码和脚本-源码
复发性LM 描述 用于在具有RNN,GRU和LSTM层的PyTorch上训练,测试和采样自动回归递归语言模型的代码和脚本。 买者自负 该存储库仅用于教育和展示目的。 内容按“原样”提供,没有任何默示保证,并且对因使用该内容而造成的损失不承担任何责任。 功能性 该代码提供3种功能:训练LM,评估LM和从LM采样序列。 单词级和字符级LM都可以训练。 训练可以在CPU或GPU中进行,测试和采样在CPU上进行。 训练 培训是使用train_lm.py脚本完成的。 运行python train_lm.p
所属分类:
其它
发布日期:2021-02-26
文件大小:16384
提供者:
weixin_42118770
learning-chess-blindfolded:论文的代码和数据-盲目学习国际象棋:在世界状态跟踪上评估语言模型-源码
被蒙住眼睛的国际象棋:评估世界状态跟踪的语言模型 国际象棋作为评估世界状态跟踪语言模型的测试平台。 通过Huggingface模型毂释放。 与预训练的模型进行交互。 设置 步骤1 git clone https://github.com/shtoshni92/learning-chess-blindfolded.git cd learning-chess-blindfolded/ 步骤2:安装软件包。 以下是可以单独安装的核心功能。 chess==1.3.0 pytorch-lightni
所属分类:
其它
发布日期:2021-02-23
文件大小:129024
提供者:
weixin_42108778
ctrl:可控发电的条件变压器语言模型-源码
CTRL-可控发电的条件变压器语言模型 作者: ,, ,,和 更新 2020年4月20日 我们正在为CTRL添加! 如有任何疑问,请与我们联系。 2019年10月31日 添加功能以响应将模型从TF转换为HuggingFace / Transformers。 要转换检查点,只需通过pip install transformers然后运行python -u convert_tf_to_huggingface_pytorch.py --tf --pytorch 然后,在HuggingFace中
所属分类:
其它
发布日期:2021-02-22
文件大小:20971520
提供者:
weixin_42132359
CokeBERT:CokeBERT:上下文知识选择和嵌入增强的预训练语言模型-源码
可口可乐 CokeBERT:上下文知识选择和嵌入增强的预训练语言模型 要求: 火炬> = 0.4.1 Python3 tqdm boto3 要求 Apex(如果要使用fp16,则必须确保提交为880ab925bce9f817a93988b021e12db5f67f7787。我们已经在源代码中提供了此版本的顶点)。您必须使用环境并执行以下操作: Python 3.6.9 pytorch 1.2.0 gcc 7.5.0 cd apex python3 setup.py ins
所属分类:
其它
发布日期:2021-02-17
文件大小:110100480
提供者:
weixin_42134234
lectra-pytorch:Electra的一种简单有效的实现,这是在Pytorch中从头开始预训练语言模型的最快方法-源码
伊莱克特拉-火炬 详细介绍了一种用于快速训练语言模型的简单工作包装。 与普通的屏蔽语言建模相比,它可以将训练速度提高4倍,并且如果训练时间更长,最终可以达到更好的性能。 特别感谢抽出时间为GLUE复制了结果。 安装 $ pip install electra-pytorch 用法 以下示例使用了reformer-pytorch ,可以通过pip安装。 import torch from torch import nn from reformer_pytorch import ReformerL
所属分类:
其它
发布日期:2021-02-11
文件大小:64512
提供者:
weixin_42098759
pytorch语言模型-源码
PyTorch语言模型 有关当前建议的API,请参见main.py 去做: [] CharacterLanguageModelingDataset [] datasets.py [] ptb []维基文字 [] enwik8
所属分类:
其它
发布日期:2021-02-09
文件大小:9216
提供者:
weixin_42131790
DISTRE:[ACL 19]对预训练的变压器语言模型进行微调以严格监督关系提取-源码
微调预训练的变压器语言模型以远程监督关系提取 该存储库包含本文的代码: 克里斯托弗·奥特,马克·赫布纳,莱昂哈德·汉尼格 我们的代码依赖于huggingface的了的和 -这样的感谢他们。 该代码已通过以下测试: 的Python 3.6.6 PyTorch 1.0.1 AllenNLP 0.7.1 安装 首先,将存储库克隆到您的计算机上,并使用以下命令安装要求: pip install -r requirements.txt 其次,下载(包含所有与模型相关的文件): wget --
所属分类:
其它
发布日期:2021-02-03
文件大小:30720
提供者:
weixin_42164931
PyTorch_GBW_LM:10亿个字(LM1B GBW)数据集的PyTorch语言模型-源码
PyTorch大规模语言模型 在10亿字(LM1B)/(GBW)数据集上训练的大规模PyTorch语言模型 最新结果 39.98使用LSTM语言模型和Adam Optimizer进行5次训练后的困惑 使用1个Nvidia V100 GPU(每个纪元〜5.1小时)和2048个批处理大小( 〜10.7 GB GPU内存)在约26小时内进行了培训 以前的结果 46.47在1层,2048个单位,256个投影的LSTM语言模型上经过5个训练时期后的困惑[3] 使用1个Nvidia P100 GPU进行了
所属分类:
其它
发布日期:2021-02-03
文件大小:4194304
提供者:
weixin_42099087
pytorch_chinese_lm_pretrain:pytorch中文语言模型预训练-源码
基于pytorch的中文语言模型预训练 ACL2020最佳论文有一篇论文提名奖,《不要停止预训练:使语言模型适应领域和任务》。本文涉及很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要方面: 在目标领域的数据集上继续预训练(DAPT)可以提高效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地提升效果。 结合两者(先进行DAPT,再进行TAPT)可以进一步提升效果
所属分类:
其它
发布日期:2021-02-03
文件大小:29696
提供者:
weixin_42101164
PyTorch教程到序列标签:使用任务感知神经语言模型增强序列标签| PyTorch教程进行序列标记-源码
这是序列标记的教程。 这是我正在编写的第二篇,介绍了如何使用令人惊叹的PyTorch库自己实现酷模型。 假定具有PyTorch的基础知识,递归神经网络。 如果您是PyTorch的新手,请先阅读PyTorch的和 。 问题,建议或更正可以作为问题发布。 我在Python 3.6使用PyTorch 0.4 。 2020年1月27日:添加了两个新教程的工作代码-和 内容 目的 建立一个可以用实体,词性等标记句子中每个单词的模型。 我们将实现。 它比大多数序列标记模型要先进,但是您将学到许
所属分类:
其它
发布日期:2021-02-03
文件大小:6291456
提供者:
weixin_42169674
翻译:翻译-PyTorch语言库-源码
注意 现在不建议使用PyTorch Translate,请改用 。 翻译-PyTorch语言库 翻译是一个用PyTorch编写的机器翻译库。 它提供了序列到序列模型的训练。 Translate依赖于 (一个通用的序列到序列库),这意味着可以训练在Translate和Fairseq中实现的模型。 Translate还提供了通过将某些模型导出到Caffe2图形以及从C ++加载和运行这些模型以用于生产目的的能力。 当前,我们将组件(编码器,解码器)分别导出到Caffe2,并且波束搜索是在C ++中实
所属分类:
其它
发布日期:2021-02-03
文件大小:280576
提供者:
weixin_42123191
«
1
2
3
4
5
6
7
8
9
10
»