您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. bert_extension_tf:TensorFlow中的BERT扩展-源码

  2. BERT扩展 (来自变压器的双向编码器表示)是Google AI语言小组提出的一种通用的自动编码预训练方法,它在11个NLP任务(包括问题回答,自然,语言推理和情感分析)方面获得了最新的技术成果。 BERT旨在通过在所有层的左,右上下文上共同进行条件调节来预训练来自未标记文本的深层双向表示,这使它可以轻松地针对下游任务进行微调,而无需进行大量针对特定任务的体系结构修改。 该项目旨在提供基于当前BERT的扩展,并将BERT的功能带给NER和NLU等其他NLP任务。 图1:在不同任务上对BERT
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:243712
    • 提供者:weixin_42125867