您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. BERTweet:BERTweet:英语推文的预训练语言模型(EMNLP-2020)-源码

  2. 目录 BERTweet:英语推文的预训练语言模型 BERTweet是第一个为英语Tweets预先训练的公共大规模语言模型。 BERTweet使用与相同的模型配置,根据预训练过程进行训练。 用于预训练BERTweet的语料库由850M的英语Tweets(16B单词令牌〜80GB)组成,包含从01/2012到08/2019流的845M Tweets和与COVID-19大流行相关的5M Tweets。 BERTweet的性能优于其竞争对手的基于RoBERTa的和基于并且在词性标记,命名实体识别和文
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:8192
    • 提供者:weixin_42117340