您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Chinese-BERT-wwm:汉语BERT的全字掩蔽预训练(EnglishBERT-wwm系列模型)-源码

  2. | 在自然语言处理领域中,预训练语言模型(预训练语言模型)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练模型BERT-wwm,以及更多技术相关的模型:BERT-wwm-ext,RoBERTa-wwm-ext,RoBERTa-wwm-ext-large,RBT3,RBTL3。 崔一鸣,车万祥,刘婷,秦兵,杨自清,王世进,胡国平 本项目基于谷歌官方BERT: : 其他相关资源: MacBERT预训练模
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:15728640
    • 提供者:weixin_42099530