您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Python-LAMA是一组连接预训练语言模型的连接器

  2. LAMA是一组连接预训练语言模型的连接器
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:443392
    • 提供者:weixin_39840650
  1. Python-使用预训练语言模型BERT做中文NER

  2. 使用预训练语言模型BERT做中文NER
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:3145728
    • 提供者:weixin_39841882
  1. 最新《预训练语言模型》2020综述论文大全【复旦大学】.pdf

  2. 近日,复旦大学邱锡鹏等学者发布了自然语言处理处理中预训练模型PTMs的综述大全,共25页pdf205篇参考文献,从背景知识到当前代表性PTM模型和应用研究挑战等,是绝好的预训练语言模型的文献。
  3. 所属分类:机器学习

    • 发布日期:2020-03-19
    • 文件大小:500736
    • 提供者:syp_net
  1. 语言模型即知识库(Language Models as Knowledge Bases)

  2. 近年来使用大规模预训练语言模型已成为自然语言处理领域的常见思路。给定某一任务,在大规模预训练模型的基础上进行微调往往可以取得比传统方法更好的效果。
  3. 所属分类:机器学习

    • 发布日期:2020-10-31
    • 文件大小:2097152
    • 提供者:syp_net
  1. 自然语言处理任务中语言模型发展总结

  2. 讲述语言模型的发展历史,对阶段性较有代表性的工作进行了简述,同时对一些重要的技术细节展开了分析,主要从n-gram语言模型到BERT预训练语言模型,同时对这些模型的应用场景也进行了阐述,可以帮助我们整理思路,提供学习素材。
  3. 所属分类:讲义

    • 发布日期:2020-12-16
    • 文件大小:1048576
    • 提供者:qq_32782339
  1. 最新《弱监督预训练语言模型微调》报告

  2. 迁移学习从根本上改变了自然语言处理(NLP)的处理范式。许多最先进的模型首先在大型文本语料库上进行预先训练,然后在下游任务上进行微调。
  3. 所属分类:机器学习

    • 发布日期:2020-12-26
    • 文件大小:4194304
    • 提供者:syp_net
  1. REDN:关系提取任务预训练语言模型的下游模型设计-源码

  2. REDN 这是预训练语言模型的关系提取下游网络的原型代码,支持我们 此代码的一部分根据进行了修订。 数据集 您可以从和获取数据集 入门指南 在example / configs.py中设置自己的路径,包括预训练的模型路径,数据的根路径和输出名称。使用args数据集和mode运行example / redn_trainer.py。数据集可以是nyt10,semeval或webnlg。模式可以是t进行训练,e进行评估。例如,要训练SemEval,请尝试 python redn_trainer sem
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:48128
    • 提供者:weixin_42121754
  1. BERT-flow:预训练语言模型上的句子嵌入的TensorFlow实现(EMNLP 2020)-源码

  2. 从预训练语言模型看句子嵌入 这是以下的TensorFlow实现: On the Sentence Embeddings from Pre-trained Language Models Bohan Li, Hao Zhou, Junxian He, Mingxuan Wang, Yiming Yang, Lei Li EMNLP 2020 模型 斯皮尔曼的罗 BERT-大型-NLI 77.80 BERT-大-NLI-last2avg 78.45 BERT大NLI流(仅目标,仅训练)
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:281600
    • 提供者:weixin_42150745
  1. fastai_ulmfit:fastai ulmfit-预训练语言模型,微调和训练分类器-源码

  2. 从预培训到部署的带有SentencePiece的fast.ai ULMFiT 动机:为什么还要打扰非BERT / Transformer语言模型? 简短的答案:您可以使用ULMFiT在有限的数据和负担得起的硬件上训练最先进的文本分类器。 使用RTX 3090在我的工作站上,整个过程(准备Wikipedia转储,预训练语言模型,微调语言模型和训练分类器)大约需要5个小时。使用FP16训练模型所需的VRAM少于8 GB-因此您可以在负担得起的GPU上训练模型。 我还在fast.ai的路线图上看到
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:77824
    • 提供者:weixin_42164702
  1. MTL-KGC:编码“具有预训练语言模型的知识图完成多任务学习”的代码-源码

  2. 货柜码头 这是的PyTorch实施。 火车 使用链接预测(LP),关系预测(RP)和相关性排名(RR)训练多任务学习。 如果收到AssertionError:未初始化默认进程组,请尝试使用python -m torch.distributed.launch python run_bert_multitask.py \ --do_train \ --task_list lp,rp,rr \ --data_dir ./data/wn18rr \ --bert_mo
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:11534336
    • 提供者:weixin_42099176
  1. PLMpapers:关于预训练语言模型的必读论文-源码

  2. PLM文件 和贡献。 介绍 预先训练的语言模型(PLM)是NLP中非常受欢迎的主题。 在此仓库中,我们列出了一些有关PLM的代表性工作,并通过图表显示了它们之间的关系。 随时分发或使用它! 如果要在演示文稿中使用它,则可以获取该图的源PPT文件。 欢迎提出更正和建议。 我们还发布了 ,这是一个开放源代码的中文预训练模型动物园。 欢迎尝试。 文件 楷模 半监督序列学习。 戴安(Andrew M. Dai),Quoc V. Le 。 NIPS2015。[ ] context2vec:使用双向
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:842752
    • 提供者:weixin_42118423
  1. plur:NLP中代表性不足的语言的预训练语言模型-源码

  2. plur:P重新训练ünder-内容r L anguage模型epresented语言 该存储库包含针对NLP中代表性不足的语言的预训练语言模型。 语言模型适用于Flair和ELMo(即将推出:XLNet)。 使用Flair在NER和PoS标记下游任务上评估所有受过训练的语言模型。 巴斯克 语料库 Flair Embeddings和ELMo在最近的Wikipedia转储中接受了培训,并从OPUS和Leipzig Corpora Collection中收集了各种文本。 一些统计: 代币数量:
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:2048
    • 提供者:weixin_42131633
  1. CokeBERT:CokeBERT:上下文知识选择和嵌入增强的预训练语言模型-源码

  2. 可口可乐 CokeBERT:上下文知识选择和嵌入增强的预训练语言模型 要求: 火炬> = 0.4.1 Python3 tqdm boto3 要求 Apex(如果要使用fp16,则必须确保提交为880ab925bce9f817a93988b021e12db5f67f7787。我们已经在源代码中提供了此版本的顶点)。您必须使用环境并执行以下操作: Python 3.6.9 pytorch 1.2.0 gcc 7.5.0 cd apex python3 setup.py ins
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:110100480
    • 提供者:weixin_42134234
  1. zero-shot-arabic-dialects:EACL 2021论文代码“零和很少有多方言阿拉伯序列标签的自训练预训练语言模型”-源码

  2. 该存储库保存了EACL 2021的代码文件“零和很少射击的多方言阿拉伯语序列标签的自训练预训练语言模型”
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:29696
    • 提供者:weixin_42131633
  1. lectra-pytorch:Electra的一种简单有效的实现,这是在Pytorch中从头开始预训练语言模型的最快方法-源码

  2. 伊莱克特拉-火炬 详细介绍了一种用于快速训练语言模型的简单工作包装。 与普通的屏蔽语言建模相比,它可以将训练速度提高4倍,并且如果训练时间更长,最终可以达到更好的性能。 特别感谢抽出时间为GLUE复制了结果。 安装 $ pip install electra-pytorch 用法 以下示例使用了reformer-pytorch ,可以通过pip安装。 import torch from torch import nn from reformer_pytorch import ReformerL
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:64512
    • 提供者:weixin_42098759
  1. albert-chinese-ner:使用预训练语言模型ALBERT做中文NER-源码

  2. 阿尔伯特·中国人 前言 这次的albert某种程度上可能会导致bert本质上有所重叠,恰逢中文预训练模型出来,还是按照之前的数据来做NER方面的fine-tune PS:移步传统模型 资源资源 文件 配置 下载albert中文模型,这里使用的是base 将模型文件夹重命名为albert_base_zh,加入项目中 运行python albert_ner.py --task_name ner --do_train true --do_eval true --data_dir data --voc
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3145728
    • 提供者:weixin_42175035
  1. albert_zh:用于自我监督学习语言表示的精简BERT,海量中文预训练ALBERT模型-源码

  2. albert_zh 使用TensorFlow实现的实现 ALBert基于Bert,但有一些改进。 它以30%的参数减少,可在主要基准上达到最先进的性能。 对于albert_base_zh,它只有十个百分比参数与原始bert模型进行比较,并且保留了主要精度。 现在已经提供了针对中文的ALBERT预训练模型的不同版本,包括TensorFlow,PyTorch和Keras。 海量中文语料上预训练ALBERT模型:参数充分,效果更好。预训练小模型也能拿下13项NLP任务,ALBERT三大改造登顶G
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:992256
    • 提供者:weixin_42176827
  1. bert-chinese-ner:使用预训练语言模型BERT做中文NER-源码

  2. 伯特·中国人 前言 使用预训练语言模型BERT做中文NER尝试,微调BERT模型 PS:移步最新模型 代码参考 使用方法 从下载bert源代码,存放在路径下bert文件夹中 从下载模型,放置在checkpoint文件夹下 使用BIO数据标注模式,使用人民日报经典数据 培养: python BERT_NER.py --data_dir=data/ --bert_config_file=checkpoint/bert_config.json --init_checkpoint=checkpoint
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3145728
    • 提供者:weixin_42127754
  1. 土耳其语-Word2Vec:土耳其语的预训练Word2Vec模型-源码

  2. 土耳其语预训练Word2Vec模型 (下面是土耳其语版本。/Türkçeiçinaşağıyabakın。) 本教程介绍了如何从Wikipedia转储中为土耳其语训练word2vec模型。 此代码使用库以Python 3编写。 土耳其语是一种凝集性语言,维基百科语料库中有很多词具有相同的词缀和不同的后缀。 我将写土耳其语lemmatizer来提高模型的质量。 您可以查看以了解更多详细信息。 如果您只想下载预训练的模型,则可以使用并且可以在github Wiki中的页面中查找示例。 其中一些如
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5120
    • 提供者:weixin_42131705
  1. BERTweet:BERTweet:英语推文的预训练语言模型(EMNLP-2020)-源码

  2. 目录 BERTweet:英语推文的预训练语言模型 BERTweet是第一个为英语Tweets预先训练的公共大规模语言模型。 BERTweet使用与相同的模型配置,根据预训练过程进行训练。 用于预训练BERTweet的语料库由850M的英语Tweets(16B单词令牌〜80GB)组成,包含从01/2012到08/2019流的845M Tweets和与COVID-19大流行相关的5M Tweets。 BERTweet的性能优于其竞争对手的基于RoBERTa的和基于并且在词性标记,命名实体识别和文
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:8192
    • 提供者:weixin_42117340
« 12 3 4 5 6 7 8 9 10 ... 15 »