您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. transformers pytorch 版语言模型 源码

  2. 其中transformers _test.py 这些代码的终点其他的都是辅助或者没用的代码 这个文件包含了网络和训练测试代码
  3. 所属分类:深度学习

    • 发布日期:2020-08-17
    • 文件大小:927989760
    • 提供者:weixin_32759777
  1. nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。

  2. 自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:26214400
    • 提供者:weixin_42115003
  1. lmtool-fwms:用于快速重量记忆系统的PyTorch语言建模工具包-源码

  2. PyTorch语言建模工具包(用于快速重量存储系统) 该存储库包含论文中用于语言建模实验的正式代码: ... 更一般而言,它可以用作PyTorch中的语言建模工具包来进行以下实验: 具有不同更新规则和线性注意功能的快速重量存储系统: 更新规则:删除后的“ sum”和“ ours”(如本文所建议;第4.2节) 线性注意功能:“基于ELU的”线性注意,“ FAVOR +”,“确定性无参数投影(DPFP)” 例如,某些组合会产生众所周知的模型: =“求和”更新规则+“基于ELU”的线性注意 =“总和”
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:69632
    • 提供者:weixin_42102358
  1. full_stack_transformer:Pytorch库用于端到端的变压器模型训练,推理和服务-源码

  2. 全栈变压器 Pytorch库用于端到端的变压器模型训练,推理和服务。一系列出色的图书馆。 图书馆设计 该库的组织方式使得子包包含所有建模,数据结构和数据流类。 在子程序包中,包含所有特定于任务的代码。 可用任务: -经典的基于文档的语言模型培训。它还提供了用于交互式文本生成的应用程序服务。 文件语言模型 目前,该库中只有1个任务可用。因此,我将在README中为此示例使用一个示例。当将执行其他任务时,我将移动文档中的所有示例。 特征 自动LM数据集准备 端到端变压器LM培训 训练 用元数据(控制
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:1048576
    • 提供者:weixin_42144366
  1. TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练

  2. TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:2097152
    • 提供者:weixin_42165508
  1. lm-prior-for-nmt:该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的源代码-源码

  2. 该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的论文的源代码() 介绍 在这项工作中,我们使用在目标方单语语料库上训练的语言模型(LM)作为较弱的先验知识。 我们添加了一个正则化项,该项驱动翻译模型(TM)的输出分布在LM的分布下可能出现。 更新:您现在可以使用插件下使用LM-之前与fairseq 。 先决条件 安装要求 创建环境(可选) :理想情况下,您应该为项目创建一个环境。 conda create -n lmprior python=3 conda activate l
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:16777216
    • 提供者:weixin_42117622
  1. MTL-KGC:编码“具有预训练语言模型的知识图完成多任务学习”的代码-源码

  2. 货柜码头 这是的PyTorch实施。 火车 使用链接预测(LP),关系预测(RP)和相关性排名(RR)训练多任务学习。 如果收到AssertionError:未初始化默认进程组,请尝试使用python -m torch.distributed.launch python run_bert_multitask.py \ --do_train \ --task_list lp,rp,rr \ --data_dir ./data/wn18rr \ --bert_mo
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:11534336
    • 提供者:weixin_42099176
  1. 自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源

  2. 自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源
  3. 所属分类:互联网

  1. 自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源

  2. 自然语言处理 | (15)使用Pytorch实现RNN(LSTM)语言模型-附件资源
  3. 所属分类:互联网

  1. RecurrentLM:用于在具有RNN,GRU和LSTM层的PyTorch上训练,测试和采样自动回归递归语言模型的代码和脚本-源码

  2. 复发性LM 描述 用于在具有RNN,GRU和LSTM层的PyTorch上训练,测试和采样自动回归递归语言模型的代码和脚本。 买者自负 该存储库仅用于教育和展示目的。 内容按“原样”提供,没有任何默示保证,并且对因使用该内容而造成的损失不承担任何责任。 功能性 该代码提供3种功能:训练LM,评估LM和从LM采样序列。 单词级和字符级LM都可以训练。 训练可以在CPU或GPU中进行,测试和采样在CPU上进行。 训练 培训是使用train_lm.py脚本完成的。 运行python train_lm.p
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:16384
    • 提供者:weixin_42118770
  1. learning-chess-blindfolded:论文的代码和数据-盲目学习国际象棋:在世界状态跟踪上评估语言模型-源码

  2. 被蒙住眼睛的国际象棋:评估世界状态跟踪的语言模型 国际象棋作为评估世界状态跟踪语言模型的测试平台。 通过Huggingface模型毂释放。 与预训练的模型进行交互。 设置 步骤1 git clone https://github.com/shtoshni92/learning-chess-blindfolded.git cd learning-chess-blindfolded/ 步骤2:安装软件包。 以下是可以单独安装的核心功能。 chess==1.3.0 pytorch-lightni
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:129024
    • 提供者:weixin_42108778
  1. ctrl:可控发电的条件变压器语言模型-源码

  2. CTRL-可控发电的条件变压器语言模型 作者: ,, ,,和 更新 2020年4月20日 我们正在为CTRL添加! 如有任何疑问,请与我们联系。 2019年10月31日 添加功能以响应将模型从TF转换为HuggingFace / Transformers。 要转换检查点,只需通过pip install transformers然后运行python -u convert_tf_to_huggingface_pytorch.py --tf --pytorch 然后,在HuggingFace中
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:20971520
    • 提供者:weixin_42132359
  1. CokeBERT:CokeBERT:上下文知识选择和嵌入增强的预训练语言模型-源码

  2. 可口可乐 CokeBERT:上下文知识选择和嵌入增强的预训练语言模型 要求: 火炬> = 0.4.1 Python3 tqdm boto3 要求 Apex(如果要使用fp16,则必须确保提交为880ab925bce9f817a93988b021e12db5f67f7787。我们已经在源代码中提供了此版本的顶点)。您必须使用环境并执行以下操作: Python 3.6.9 pytorch 1.2.0 gcc 7.5.0 cd apex python3 setup.py ins
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:110100480
    • 提供者:weixin_42134234
  1. lectra-pytorch:Electra的一种简单有效的实现,这是在Pytorch中从头开始预训练语言模型的最快方法-源码

  2. 伊莱克特拉-火炬 详细介绍了一种用于快速训练语言模型的简单工作包装。 与普通的屏蔽语言建模相比,它可以将训练速度提高4倍,并且如果训练时间更长,最终可以达到更好的性能。 特别感谢抽出时间为GLUE复制了结果。 安装 $ pip install electra-pytorch 用法 以下示例使用了reformer-pytorch ,可以通过pip安装。 import torch from torch import nn from reformer_pytorch import ReformerL
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:64512
    • 提供者:weixin_42098759
  1. pytorch语言模型-源码

  2. PyTorch语言模型 有关当前建议的API,请参见main.py 去做: [] CharacterLanguageModelingDataset [] datasets.py [] ptb []维基文字 [] enwik8
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:9216
    • 提供者:weixin_42131790
  1. DISTRE:[ACL 19]对预训练的变压器语言模型进行微调以严格监督关系提取-源码

  2. 微调预训练的变压器语言模型以远程监督关系提取 该存储库包含本文的代码: 克里斯托弗·奥特,马克·赫布纳,莱昂哈德·汉尼格 我们的代码依赖于huggingface的了的和 -这样的感谢他们。 该代码已通过以下测试: 的Python 3.6.6 PyTorch 1.0.1 AllenNLP 0.7.1 安装 首先,将存储库克隆到您的计算机上,并使用以下命令安装要求: pip install -r requirements.txt 其次,下载(包含所有与模型相关的文件): wget --
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:30720
    • 提供者:weixin_42164931
  1. PyTorch_GBW_LM:10亿个字(LM1B GBW)数据集的PyTorch语言模型-源码

  2. PyTorch大规模语言模型 在10亿字(LM1B)/(GBW)数据集上训练的大规模PyTorch语言模型 最新结果 39.98使用LSTM语言模型和Adam Optimizer进行5次训练后的困惑 使用1个Nvidia V100 GPU(每个纪元〜5.1小时)和2048个批处理大小( 〜10.7 GB GPU内存)在约26小时内进行了培训 以前的结果 46.47在1层,2048个单位,256个投影的LSTM语言模型上经过5个训练时期后的困惑[3] 使用1个Nvidia P100 GPU进行了
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:4194304
    • 提供者:weixin_42099087
  1. pytorch_chinese_lm_pretrain:pytorch中文语言模型预训练-源码

  2. 基于pytorch的中文语言模型预训练 ACL2020最佳论文有一篇论文提名奖,《不要停止预训练:使语言模型适应领域和任务》。本文涉及很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要方面: 在目标领域的数据集上继续预训练(DAPT)可以提高效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地提升效果。 结合两者(先进行DAPT,再进行TAPT)可以进一步提升效果
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:29696
    • 提供者:weixin_42101164
  1. PyTorch教程到序列标签:使用任务感知神经语言模型增强序列标签| PyTorch教程进行序列标记-源码

  2. 这是序列标记的教程。 这是我正在编写的第二篇,介绍了如何使用令人惊叹的PyTorch库自己实现酷模型。 假定具有PyTorch的基础知识,递归神经网络。 如果您是PyTorch的新手,请先阅读PyTorch的和 。 问题,建议或更正可以作为问题发布。 我在Python 3.6使用PyTorch 0.4 。 2020年1月27日:添加了两个新教程的工作代码-和 内容 目的 建立一个可以用实体,词性等标记句子中每个单词的模型。 我们将实现。 它比大多数序列标记模型要先进,但是您将学到许
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:6291456
    • 提供者:weixin_42169674
  1. 翻译:翻译-PyTorch语言库-源码

  2. 注意 现在不建议使用PyTorch Translate,请改用 。 翻译-PyTorch语言库 翻译是一个用PyTorch编写的机器翻译库。 它提供了序列到序列模型的训练。 Translate依赖于 (一个通用的序列到序列库),这意味着可以训练在Translate和Fairseq中实现的模型。 Translate还提供了通过将某些模型导出到Caffe2图形以及从C ++加载和运行这些模型以用于生产目的的能力。 当前,我们将组件(编码器,解码器)分别导出到Caffe2,并且波束搜索是在C ++中实
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:280576
    • 提供者:weixin_42123191
« 12 3 4 5 6 7 8 9 10 »