您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. fine_tuning_data.zip 可直接用bert进行微调的中文情绪数据

  2. 具体使用方法可以看我的博客:https://blog.csdn.net/weixin_40015791/article/details/90410083 下面也会简单介绍一下:在bert开源代码中的run_classifier.py中找到 processors = { "cola": ColaProcessor, "mnli": MnliProcessor, "mrpc": MrpcProcessor, "xnli": XnliProcessor, "intentdetection":Inte
  3. 所属分类:深度学习

    • 发布日期:2019-05-21
    • 文件大小:613376
    • 提供者:weixin_40015791
  1. 微博情感分析语料.rar

  2. 谷歌Google 中文BERT中文预训练模型 chinese_L-12_H-768_A-12.zip。BERT本质上是一个两段式的NLP模型。第一个阶段叫做:Pre-training,跟WordEmbedding类似,利用现有无标记的语料训练一个语言模型。第二个阶段叫做:Fine-tuning,利用预训练好的语言模型,完成具体的NLP下游任务。可以测试对这个语料库进行分析。
  3. 所属分类:深度学习

    • 发布日期:2019-08-09
    • 文件大小:1048576
    • 提供者:u010243662
  1. chinese_L-12_H-768_A-12.zip

  2. https://github.com/google-research/bert 里的预训练好的模型,中文的
  3. 所属分类:深度学习

    • 发布日期:2020-06-21
    • 文件大小:381681664
    • 提供者:guotong1988
  1. chinese_L-12_H-768_A-12.zip

  2. 人工智能—机器学习—深度学习—自然语言处理(NLP)——BERT中文预训练模型,使用绝大部分场景,不同领域也可使用
  3. 所属分类:深度学习

    • 发布日期:2020-07-08
    • 文件大小:381681664
    • 提供者:weixin_43850384
  1. BERT-BiLSTM-CRF-master.zip

  2. 命名实体识别代码,解压即可用 # BERT-BiLSTM-CRF BERT-BiLSTM-CRF的Keras版实现 ## BERT配置 1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型: - https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip 2. 安装BERT客户端和服务器 pip install bert-serving-s
  3. 所属分类:互联网

    • 发布日期:2020-07-17
    • 文件大小:904192
    • 提供者:gdufsTFknight
  1. chinese_L-12_H-768_A-12.zip

  2. https://github.com/google-research/bert 里的预训练好的中文的NER模型,该模型是中文命名实体识别的预训练模型chinese_L-12_H-768_A-12.zip,这个链接下载只需3积分,主要是想给大家提供方便,供大家学习使用。
  3. 所属分类:机器学习

  1. 预训练1276812.zip

  2. chinese_L-12_H-768_A-12中文预训练模型
  3. 所属分类:互联网

    • 发布日期:2021-03-06
    • 文件大小:381681664
    • 提供者:qq_40521970