您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. gpt2-ml:适用于多种语言的GPT2,包括预先训练的模型。 GPT2多语言支持,15亿个参数中文预训练模型-源码

  2. 适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:797696
    • 提供者:weixin_42116805