您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. KR-BERT:基于KoRean的BERT预训练模型(KR-BERT),用于Tensorflow和PyTorch-源码

  2. 基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌) 科伯特(ETRI) 科伯特(SKT) KR-BERT字符 KR-BERT子字符 vocab大小 119,547 30,797 8,002 16,424 12,367 参数大小 167,356,416 109,973,391 92,186,880 99,265,066 96,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:34603008
    • 提供者:weixin_42127783