点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - gpt2中文训练模型
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
gpt2-ml-master(GPT2 多语言支持, 15亿参数中文预训练模型).zip
GPT-2的中文预训练模型。GPT-2是逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。
所属分类:
深度学习
发布日期:2020-06-05
文件大小:775168
提供者:
work_lee
gpt2-tf2-study-源码
入门 看看大牛操作,无需考虑代码,大致了解有个整体印象就行。tf1,gpt2预训练模-文章生成 tf2 +拥抱的脸简洁明了的使用示范,高度封装的框架,了解训练流程即可 新人建议直接在hugging face封装的训练框架的基础上开始学习,避免堆积没在网上各式各样的写法中,心力憔悴。 tf1版本gpt2的一种预训练模型 清华关于nlp研究的官网 tf版本gpt2预训练模型,转化清华开源的模型用 pytorch中文摘要生成 keras是趋势,也确实很方便,tf2也是这么推荐的,以下2个
所属分类:
其它
发布日期:2021-03-18
文件大小:2048
提供者:
weixin_42116681
EssayKiller_V2:基于开源GPT2.0的初代创作型人工智能|可扩展,可进化-源码
随笔杀手 通用型议论文创作人工智能框架,仅限交流与科普。 Bilibili视频地址: : 项目简介 EssayKiller是基于OCR,NLP领域的最新模型所构建的生成式文本创作AI框架,当前第一版finetune模型针对高考作文(主要是议论文),可以有效生成符合人类认知的文章,大量文章经过测试可以达到正常高中生及格作文水平。 项目作者 主页1 主页2 主页3 图灵的猫 致谢 感谢作者提供GPT-2中文预训练框架与数据支持。感谢, , , , , , , , 的参与和支持 框架说明
所属分类:
其它
发布日期:2021-03-16
文件大小:218103808
提供者:
weixin_42102272
project-code-py:适用于Python问题的GPT-2模型-源码
项目代码py 适用于Python问题的GPT-2模型 演示版 模型 from transformers import AutoTokenizer, AutoModelWithLMHead tokenizer = AutoTokenizer.from_pretrained("gagan3012/project-code-py") model = AutoModelWithLMHead.from_pretrained("gagan3012/project-code-py") 问题: Write
所属分类:
其它
发布日期:2021-03-06
文件大小:23552
提供者:
weixin_42168230
gpt2-ml:适用于多种语言的GPT2,包括预先训练的模型。 GPT2多语言支持,15亿个参数中文预训练模型-源码
适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce
所属分类:
其它
发布日期:2021-02-03
文件大小:797696
提供者:
weixin_42116805
GPT2-chitchat:中文chitchat的GPT2。中文闲聊的GPT2模型(实现了DialoGPT的MMI思想)-源码
GPT2,用于中文聊天 更新2020.01.09 添加50w闲聊语料与预训练模型的GoogleDrive的下载地址 更新2019.12.17 基于微软的论文添加了MMI模型(最大互信息评分功能),对对话模型生成了多个响应进行筛选 项目描述 本项目使用GPT2模型对中文闲聊语料进行训练,使用HuggingFace的实现GPT2模型的编写与训练。 在闲暇时间用模型训练了几个长文本的生成模型,并且精读了一遍作者的源码,除了匪浅,加深了自己对GPT2生成模型的一些理解,于是将GPT2模型用作闲聊对话的生
所属分类:
其它
发布日期:2021-02-03
文件大小:74752
提供者:
weixin_42136477
GPT2-中文:使用BERT标记工具的中文版GPT2培训代码-源码
GPT2-中文 描述 中文版本的GPT2培训代码,使用BERT标记程序或BPE标记程序。 它基于HuggingFace团队的极其强大的存储库。 可以写诗,新闻,小说或训练通用语言模型。 支持字符级别,单词级别和BPE级别。 支持大型训练语料库。 中文的GPT2训练代码,使用BERT的令牌生成器或句子的BPE模型(感谢的贡献,实现BPE模式需要略微修改train.py的代码)。可以写诗,新闻,小说,或者训练通用语言模型。支持字为单位或分词模式或BPE模式(需要略微修改train.py的代码)。支持
所属分类:
其它
发布日期:2021-02-03
文件大小:13631488
提供者:
weixin_42168265
可能是目前效果最好的开源生成式聊天机器人项目—–深入理解“用于中文闲聊的GPT2模型”项目
本文为对于GPT2 for Chinese chitchat项目的理解与学习 项目代码链接: https://github.com/yangjianxin1/GPT2-chitchat 深入理解“用于中文闲聊的GPT2模型”项目论文部分提炼1. Improving Language Understandingby Generative Pre-Training(GPT)摘要介绍最近工作NLP的半监督学习无监督预训练辅助训练目标框架无监督预训练监督预训练特定任务的输入转换文字蕴涵(Textual
所属分类:
其它
发布日期:2021-01-20
文件大小:2097152
提供者:
weixin_38748740