您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Google NLP BERT-Base中文模型2018-11-03发布版本

  2. Google NLP(自然语言处理) BERT-Base中文模型2018-11-03发布版本,国内无法直接下载,上传百度云盘下载地址及提取码分享给大家
  3. 所属分类:深度学习

    • 发布日期:2019-01-30
    • 文件大小:76
    • 提供者:youzuo
  1. 微博情感分析语料.rar

  2. 谷歌Google 中文BERT中文预训练模型 chinese_L-12_H-768_A-12.zip。BERT本质上是一个两段式的NLP模型。第一个阶段叫做:Pre-training,跟WordEmbedding类似,利用现有无标记的语料训练一个语言模型。第二个阶段叫做:Fine-tuning,利用预训练好的语言模型,完成具体的NLP下游任务。可以测试对这个语料库进行分析。
  3. 所属分类:深度学习

    • 发布日期:2019-08-09
    • 文件大小:1048576
    • 提供者:u010243662
  1. chinese_L-12_H-768_A-12.zip

  2. 人工智能—机器学习—深度学习—自然语言处理(NLP)——BERT中文预训练模型,使用绝大部分场景,不同领域也可使用
  3. 所属分类:深度学习

    • 发布日期:2020-07-08
    • 文件大小:381681664
    • 提供者:weixin_43850384
  1. bert中文NLP模型

  2. 该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
  3. 所属分类:机器学习

    • 发布日期:2020-11-23
    • 文件大小:381681664
    • 提供者:weixin_41950924
  1. DeepNER:天池中药说明书实体识别挑战冠军方案;中文命名实体识别; NER; BERT-CRF&BERT-SPAN&BERT-MRC; Pytorch-源码

  2. 中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔​​的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 p
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:3145728
    • 提供者:weixin_42116805
  1. EssayKiller_V2:基于开源GPT2.0的初代创作型人工智能|可扩展,可进化-源码

  2. 随笔杀手 通用型议论文创作人工智能框架,仅限交流与科普。 Bilibili视频地址: : 项目简介 EssayKiller是基于OCR,NLP领域的最新模型所构建的生成式文本创作AI框架,当前第一版finetune模型针对高考作文(主要是议论文),可以有效生成符合人类认知的文章,大量文章经过测试可以达到正常高中生及格作文水平。 项目作者 主页1 主页2 主页3 图灵的猫 致谢 感谢作者提供GPT-2中文预训练框架与数据支持。感谢, , , , , , , , 的参与和支持 框架说明
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:218103808
    • 提供者:weixin_42102272
  1. harley_the_bot:伯特驱动的机器人可以帮助您识别用户-源码

  2. 由bert驱动的机器人可以帮助您识别用户。 概述 该项目的目标是确定使用“ SunXiaoChuan”模式发布消息的用户。 背景 2019年11月,一波名为``孙小川258''的巨魔军队到达了Twitter中国用户。 他们来自哪里,他们的组织方式和背景是未知的。 但是,它们具有非常相似的语言行为。 这是学习如何将NLP与深度学习结合使用以识别它们的绝好机会。 训练数据集 来自“孙晓川”及其关注者网络的20,000条推文。 来自普通Twitter用户的20,000条推文。 搜寻器脚本是tools
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:197632
    • 提供者:weixin_42109125
  1. tianchi_bert_nlp:天池NLP中文预训练模型泛化能力挑战赛的配套代码-源码

  2. 使用说明 找个预训练的bert丢数据/ pre_model_dir文件夹,然后运行main.py就可以了 模型下载地址 项目介绍: : 代码说明地址:(或者直接下载本地的notebook) 文件树 ├── BertRCNN # 模型文件 │   ├── args.py # 模型的默认参数,不用管它 │   └── BertRCNN.py # 模型 ├── config.py # 配置文件,看看你想改啥,最好不要动文件 ├── data # 原始数据 │   ├── NLP_A_Da
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:6291456
    • 提供者:weixin_42131633
  1. albert_zh:用于自我监督学习语言表示的精简BERT,海量中文预训练ALBERT模型-源码

  2. albert_zh 使用TensorFlow实现的实现 ALBert基于Bert,但有一些改进。 它以30%的参数减少,可在主要基准上达到最先进的性能。 对于albert_base_zh,它只有十个百分比参数与原始bert模型进行比较,并且保留了主要精度。 现在已经提供了针对中文的ALBERT预训练模型的不同版本,包括TensorFlow,PyTorch和Keras。 海量中文语料上预训练ALBERT模型:参数充分,效果更好。预训练小模型也能拿下13项NLP任务,ALBERT三大改造登顶G
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:992256
    • 提供者:weixin_42176827
  1. fastNLP:fastNLP:模块化和可扩展的NLP框架。 目前仍在孵化中-源码

  2. 快速NLP fastNLP是一种轻量级的自然语言处理(NLP)工具包,目标是快速实现NLP任务以及内置复杂模型。 fastNLP具有如下的特性: 统一的Tabular式数据容器,简化数据预处理过程; 内置多种数据集的Loader和Pipe,省去预先代码; 各种方便的NLP工具,例如嵌入式加载(包括ELMo和BERT),中间数据缓存等; 部分的自动下载; 提供多种神经网络组件以及复现模型(包括中文分词,命名实体识别,句法分析,文本分类,文本匹配,指代消解,摘要等任务); Trainer提供多
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:3145728
    • 提供者:weixin_42116794
  1. All4NLP:全部用于NLP,尤其是中文-源码

  2. All4NLP 框架和工具包 使用PyTorch深度学习NLP 文本分类器,序列标记器,联合意图插槽模型和上下文意图插槽模型 C ++服务器示例 NER,POS,感官消歧和分类 在PyTorch之上 Seq2Seq建模 在PyTorch之上 文本标签,分类,预培训 在Tensorflow之上 NLP工具包 在Tensorflow之上 在火炬之上 速度,生产系统使用 教育和研究工具 学习和探索NLP概念 在NLTK之上 快速原型 应用程序不需要高性能 快速 精简 准备生产 分词器
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:10485760
    • 提供者:weixin_42109925
  1. text_classification:具有深度学习功能的各种文本分类模型等-源码

  2. 文字分类 该存储库的目的是通过深度学习探索NLP中的文本分类方法。 更新: 中文语言理解评估基准( ):用一行代码运行10个任务和9个基准,并进行详细的性能比较。 释放预训练模型使用30G +中国原始语料库,xxlarge,xlarge等进行中文培训,目标是与中国国庆日2019年10月7日的最新汉语表演相匹配! Google的BERT使用语言模型的预训练在NLP的10多个任务上取得了最新的成果,然后 微调。 介绍 它具有用于文本分类的各种基准模型。 它还支持多标签分类,其中多标签与句子或
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:14680064
    • 提供者:weixin_42132056