您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Python-按word2vec格式存储的BERT预训练模型

  2. 按word2vec格式存储的BERT预训练模型
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:100352
    • 提供者:weixin_39840588
  1. 官方bert中文预训练模型

  2. Google官方中文Bert预训练模型,当前模型为bert base模型,省去爬梯下载的烦恼,需要其他模型的可以私信
  3. 所属分类:深度学习

    • 发布日期:2020-08-17
    • 文件大小:381681664
    • 提供者:lichaobxd
  1. TF2 BERT中文预训练模型

  2. 官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
  3. 所属分类:深度学习

    • 发布日期:2020-10-27
    • 文件大小:379584512
    • 提供者:selien1126
  1. bert中文预训练模型,字典,有相关参数json等完整资源

  2. bert中文预训练模型,字典,有相关参数json等完整资源,可以直接通过bert的from_pretrained函数加载,可以直接拿来用,pytorch,tensorflow版本的都有,非常方便
  3. 所属分类:互联网

    • 发布日期:2020-10-27
    • 文件大小:381681664
    • 提供者:A199445
  1. bert中文NLP模型

  2. 该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
  3. 所属分类:机器学习

    • 发布日期:2020-11-23
    • 文件大小:381681664
    • 提供者:weixin_41950924
  1. PyTorch预训练Bert模型的示例

  2. 本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMDB影评数据作为训练数据。 transformers模块简介 transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。 本来打算预训练bert-large模型,发现
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:103424
    • 提供者:weixin_38698311
  1. BERT预训练模型字向量提取工具–使用BERT编码句子

  2. 本文将介绍两个使用BERT编码句子(从BERT中提取向量)的例子。 (1)BERT预训练模型字向量提取工具 本工具直接读取BERT预训练模型,从中提取样本文件中所有使用到字向量,保存成向量文件,为后续模型提供embdding。 本工具直接读取预训练模型,不需要其它的依赖,同时把样本中所有 出现的字符对应的字向量全部提取,后续的模型可以非常快速进行embdding github完整源码 #!/usr/bin/env python # coding: utf-8 __author__ = 'xmxo
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:59392
    • 提供者:weixin_38515362
  1. nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。

  2. 自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:26214400
    • 提供者:weixin_42115003
  1. TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练

  2. TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:2097152
    • 提供者:weixin_42165508
  1. fastai_ulmfit:fastai ulmfit-预训练语言模型,微调和训练分类器-源码

  2. 从预培训到部署的带有SentencePiece的fast.ai ULMFiT 动机:为什么还要打扰非BERT / Transformer语言模型? 简短的答案:您可以使用ULMFiT在有限的数据和负担得起的硬件上训练最先进的文本分类器。 使用RTX 3090在我的工作站上,整个过程(准备Wikipedia转储,预训练语言模型,微调语言模型和训练分类器)大约需要5个小时。使用FP16训练模型所需的VRAM少于8 GB-因此您可以在负担得起的GPU上训练模型。 我还在fast.ai的路线图上看到
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:77824
    • 提供者:weixin_42164702
  1. t5-pegasus:中文生成式预训练模型-源码

  2. T5飞马 中文生成式预训练模型,以mT5为基础架构和初始权重,通过类似PEGASUS的方式进行预训练。 详情可见: ://kexue.fm/archives/8209 分词器 我们将T5 PEGASUS的令牌生成器转换成BERT的令牌生成器,它对中文更友好。同时,我们重新排列一版词表,从而里边的字,词都更加完善,目前的vocab.txt共包含5万个token,真正覆盖了中文的常用字,词。 预训练任务 具体来说,假设一个文档有n个句子,我们从中挑出大约n / 4个句子(可以不连续),因此这n /
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:428032
    • 提供者:weixin_42153691
  1. AttRCNN-CNN:论文介绍:针对现有模型不能充分提取语义特征,以及单一使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。以及特征融合的论文,使用LSTM-Attention和CNN进行文档特征提取,同时结

  2. AttRCNN-CNN 译文:基于BERT和多特征联合的个性识别方法 领域:文本个性识别技术:BERT,LSTM,Attention,CNN 链接: 论文介绍:针对现有模型不能充分提取语义特征,以及单个使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。同时阅读了关于多模态以及特征融合的论文,使用LSTM-Attention和CNN进行文档尺寸特征提取,同时结合Mairesse语言学特征,将多个分割提取的特征融合起来进行分析,最终使用Pytorch进行模型实现。 其中
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:7340032
    • 提供者:weixin_42131890
  1. tianchi_bert_nlp:天池NLP中文预训练模型泛化能力挑战赛的配套代码-源码

  2. 使用说明 找个预训练的bert丢数据/ pre_model_dir文件夹,然后运行main.py就可以了 模型下载地址 项目介绍: : 代码说明地址:(或者直接下载本地的notebook) 文件树 ├── BertRCNN # 模型文件 │   ├── args.py # 模型的默认参数,不用管它 │   └── BertRCNN.py # 模型 ├── config.py # 配置文件,看看你想改啥,最好不要动文件 ├── data # 原始数据 │   ├── NLP_A_Da
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:6291456
    • 提供者:weixin_42131633
  1. RoBERTa-japanese:日语BERT预训练模型-源码

  2. RoBERTa-日语 日语BERT预训练模型 RoBERTaとは, ,BERTの改良版です。モデル构造そのものはオリジナルのBERTと同じで,学习手法に工夫があります。 のプロジェクトは,。 RoBERTa(改良BERT)日本语モデル 新 Tensorflow 1.x / 2.x両対応しました RoBERTa(改良BERT)の日本语版です 学习済みモデルについて 学习させたコーパスについて スポンサーシップについて 去做 ✓smallモデルの公开(2020/12/6) ✓baseモデルの公开(2
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:48128
    • 提供者:weixin_42168555
  1. KR-BERT:基于KoRean的BERT预训练模型(KR-BERT),用于Tensorflow和PyTorch-源码

  2. 基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌) 科伯特(ETRI) 科伯特(SKT) KR-BERT字符 KR-BERT子字符 vocab大小 119,547 30,797 8,002 16,424 12,367 参数大小 167,356,416 109,973,391 92,186,880 99,265,066 96,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:34603008
    • 提供者:weixin_42127783
  1. PIE:使用BERT的快速+非自回归语法错误校正。 论文《本地序列转导的并行迭代编辑模型》的代码和预训练模型:www.aclweb.organthologyD19-1435.pdf(EMNLP-IJCNLP 2019)-源码

  2. PIE:用于局部序列转导的并行迭代编辑模型 使用BERT的快速语法错误校正 伴随我们的论文《用于局部序列转导的并行迭代编辑模型》(EMNLP-IJCNLP 2019)附带的代码和预训练模型 我们介绍了PIE,一种基于BERT的体系结构,用于本地序列转导任务,如语法错误校正。 与将GEC建模为从“不正确”到“正确”语言的翻译任务的标准方法不同,我们将GEC视为本地序列编辑任务。 我们进一步将局部序列编辑问题减少到序列标记设置中,其中我们利用BERT来非自回归地对输入标记进行编辑。 我们专门为序列编
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42098830
  1. 中文-ELECTRA:训练有素的中文ELECTRA(中文ELECTRA预训练模型)-源码

  2. | 谷歌与斯坦福大学共同研发的最新预训练模型ELECTRA因其小巧的模型体积以及良好的模型性能受到了广泛关注。为了进一步促进中文预训练模型技术的研究与发展,哈工大讯飞联合实验室基于官方ELECTRA ELECTRA-small模型可与BERT-base甚至其他同等规模的模型相符美,而参数量仅为BERT-base的1 / 10。本项目基于谷歌&斯坦福大学官方的ELECTRA: : 其他相关资源: MacBERT预训练模型: : 中文BERT-wwm预训练模型: : 中文XLNet预训练
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:321536
    • 提供者:weixin_42136365
  1. gpt2-ml:适用于多种语言的GPT2,包括预先训练的模型。 GPT2多语言支持,15亿个参数中文预训练模型-源码

  2. 适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:797696
    • 提供者:weixin_42116805
  1. 中文-XLNet:预训练中文XLNet(中文XLNet预训练模型)-源码

  2. | 本项目提供了针对中文的XLNet预训练模型,扩展了丰富的自然语言处理资源,提供多种中文预训练模型选择。我们欢迎各位专家学者下载使用,并共同促进和发展中文资源建设。 本项目基于CMU /谷歌官方的XLNet: : 其他相关资源: MacBERT预训练模型: : 中文ELECTRA预训练模型: : 中文BERT-wwm预训练模型: : 知识蒸馏工具TextBrewer: : 查看更多哈工大讯飞联合实验室(HFL)发布的资源: : 新闻 2021年1月27日所有模型已支持Te
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:232448
    • 提供者:weixin_42174176
  1. UER-py:PyTorch和预训练的模型动物园中的开源预训练模型框架-源码

  2. | 预培训已成为NLP任务的重要组成部分,并带来了显着的进步。 UER-py(通用编码器表示形式)是用于对通用域语料库进行预训练并针对下游任务进行微调的工具包。 UER-py保持模型模块化并支持研究的可扩展性。 它有助于使用不同的预训练模型(例如BERT,GPT,ELMO),并为用户提供了进一步扩展的界面。 使用UER-py,我们建立了一个模型动物园,其中包含基于不同语料库,编码器和目标的预训练模型。 最近,我们收到了经过预训练的[中国36层RoBERTa]( )和[中国36层RoBERT
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:24117248
    • 提供者:weixin_42118161
« 12 3 4 5 6 7 8 9 10 »