您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. gpt2-ml-master(GPT2 多语言支持, 15亿参数中文预训练模型).zip

  2. GPT-2的中文预训练模型。GPT-2是逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。
  3. 所属分类:深度学习

    • 发布日期:2020-06-05
    • 文件大小:775168
    • 提供者:work_lee
  1. gpt2-tf2-study-源码

  2. 入门 看看大牛操作,无需考虑代码,大致了解有个整体印象就行。tf1,gpt2预训练模-文章生成 tf2 +拥抱的脸简洁明了的使用示范,高度封装的框架,了解训练流程即可 新人建议直接在hugging face封装的训练框架的基础上开始学习,避免堆积没在网上各式各样的写法中,心力憔悴。 tf1版本gpt2的一种预训练模型 清华关于nlp研究的官网 tf版本gpt2预训练模型,转化清华开源的模型用 pytorch中文摘要生成 keras是趋势,也确实很方便,tf2也是这么推荐的,以下2个
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:2048
    • 提供者:weixin_42116681
  1. EssayKiller_V2:基于开源GPT2.0的初代创作型人工智能|可扩展,可进化-源码

  2. 随笔杀手 通用型议论文创作人工智能框架,仅限交流与科普。 Bilibili视频地址: : 项目简介 EssayKiller是基于OCR,NLP领域的最新模型所构建的生成式文本创作AI框架,当前第一版finetune模型针对高考作文(主要是议论文),可以有效生成符合人类认知的文章,大量文章经过测试可以达到正常高中生及格作文水平。 项目作者 主页1 主页2 主页3 图灵的猫 致谢 感谢作者提供GPT-2中文预训练框架与数据支持。感谢, , , , , , , , 的参与和支持 框架说明
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:218103808
    • 提供者:weixin_42102272
  1. project-code-py:适用于Python问题的GPT-2模型-源码

  2. 项目代码py 适用于Python问题的GPT-2模型 演示版 模型 from transformers import AutoTokenizer, AutoModelWithLMHead tokenizer = AutoTokenizer.from_pretrained("gagan3012/project-code-py") model = AutoModelWithLMHead.from_pretrained("gagan3012/project-code-py") 问题: Write
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:23552
    • 提供者:weixin_42168230
  1. gpt2-ml:适用于多种语言的GPT2,包括预先训练的模型。 GPT2多语言支持,15亿个参数中文预训练模型-源码

  2. 适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:797696
    • 提供者:weixin_42116805
  1. GPT2-chitchat:中文chitchat的GPT2。中文闲聊的GPT2模型(实现了DialoGPT的MMI思想)-源码

  2. GPT2,用于中文聊天 更新2020.01.09 添加50w闲聊语料与预训练模型的GoogleDrive的下载地址 更新2019.12.17 基于微软的论文添加了MMI模型(最大互信息评分功能),对对话模型生成了多个响应进行筛选 项目描述 本项目使用GPT2模型对中文闲聊语料进行训练,使用HuggingFace的实现GPT2模型的编写与训练。 在闲暇时间用模型训练了几个长文本的生成模型,并且精读了一遍作者的源码,除了匪浅,加深了自己对GPT2生成模型的一些理解,于是将GPT2模型用作闲聊对话的生
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:74752
    • 提供者:weixin_42136477
  1. GPT2-中文:使用BERT标记工具的中文版GPT2培训代码-源码

  2. GPT2-中文 描述 中文版本的GPT2培训代码,使用BERT标记程序或BPE标记程序。 它基于HuggingFace团队的极其强大的存储库。 可以写诗,新闻,小说或训练通用语言模型。 支持字符级别,单词级别和BPE级别。 支持大型训练语料库。 中文的GPT2训练代码,使用BERT的令牌生成器或句子的BPE模型(感谢的贡献,实现BPE模式需要略微修改train.py的代码)。可以写诗,新闻,小说,或者训练通用语言模型。支持字为单位或分词模式或BPE模式(需要略微修改train.py的代码)。支持
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:13631488
    • 提供者:weixin_42168265
  1. 可能是目前效果最好的开源生成式聊天机器人项目—–深入理解“用于中文闲聊的GPT2模型”项目

  2. 本文为对于GPT2 for Chinese chitchat项目的理解与学习 项目代码链接: https://github.com/yangjianxin1/GPT2-chitchat 深入理解“用于中文闲聊的GPT2模型”项目论文部分提炼1. Improving Language Understandingby Generative Pre-Training(GPT)摘要介绍最近工作NLP的半监督学习无监督预训练辅助训练目标框架无监督预训练监督预训练特定任务的输入转换文字蕴涵(Textual
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:2097152
    • 提供者:weixin_38748740