您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 变压器文本

  2. AC 交流 N 中性线PE 保护接地PEN 保护接地和中性线 D 差动PU 不接地保护DC 直流E 接地RES 备用TE 无噪声接地M 中间线电流表 PA电压表 PV有功电度表 PJ无功电度表 PJR频率表 PF相位表 PPA最大需量表(负荷监控仪) PM功率因数表 PPF有功功率表 PW无功功率表 PR无功电流表 PAR声信号 HA光信号 HS指示灯 HL红色灯 HR绿色灯 HG黄色灯 HY蓝色灯 HB白色灯 HW连接片 XB插
  3. 所属分类:其它

    • 发布日期:2013-07-21
    • 文件大小:10240
    • 提供者:u011466768
  1. 《文本深度学习模型压缩》综述论文

  2. 在这个综述中,我们讨论了六种不同类型的方法(剪枝、量化、知识蒸馏、参数共享、张量分解和基于线性变压器的方法)来压缩这些模型,使它们能够在实际的工业NLP项目中部署。
  3. 所属分类:机器学习

    • 发布日期:2020-08-20
    • 文件大小:1048576
    • 提供者:syp_net
  1. vedastr:基于PyTorch的场景文本识别工具箱-源码

  2. 介绍 vedastr是基于PyTorch的开源场景文本识别工具箱。它被设计为灵活的,以支持场景文本识别任务的快速实施和评估。 特征 模块化设计我们将场景文本识别框架分解为不同的组件,并且可以通过组合不同的模块轻松地构建自定义的场景文本识别框架。 灵活性vedastr具有足够的灵活性,能够轻松更改模块中的组件。 模块扩展性将新模块集成到vedastr项目中很容易。 支持多种框架该工具箱支持多种流行的现场文字识别框架,例如, , ,变压器等。 很棒的表演我们在重新实现了最佳模型,并获得了更好的平均
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:117760
    • 提供者:weixin_42129970
  1. full_stack_transformer:Pytorch库用于端到端的变压器模型训练,推理和服务-源码

  2. 全栈变压器 Pytorch库用于端到端的变压器模型训练,推理和服务。一系列出色的图书馆。 图书馆设计 该库的组织方式使得子包包含所有建模,数据结构和数据流类。 在子程序包中,包含所有特定于任务的代码。 可用任务: -经典的基于文档的语言模型培训。它还提供了用于交互式文本生成的应用程序服务。 文件语言模型 目前,该库中只有1个任务可用。因此,我将在README中为此示例使用一个示例。当将执行其他任务时,我将移动文档中的所有示例。 特征 自动LM数据集准备 端到端变压器LM培训 训练 用元数据(控制
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:1048576
    • 提供者:weixin_42144366
  1. simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码

  2. 简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:17825792
    • 提供者:weixin_42165018
  1. poem_generation:用于测试文本生成方法(例如LSTM,VAE等)和不同转换器的存储库-源码

  2. NLP-诗歌 在过去的十年中,自然语言处理(NLP)的发展非常Swift。 这是一个非常复杂的领域,并且一直在进步。 此回购旨在针对特定类型的语料诗尝试一些NLP任务和算法。 这些诗是从刮下来的,可以在找到刮取的代码 任务类型 使用此存储库中的ata可以执行两个主要任务: 文本生成-生成诗歌 文本分类-对主题或诗歌形式进行分类 数据集 该数据集由两个文件夹组成,两个文件夹都包含诗歌的子文件夹。 这些诗歌按形式(例如句,十四行诗等)或主题(爱,自然,欢乐,和平等)分类。 由于数据采用这种结构
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:16777216
    • 提供者:weixin_42116650
  1. GlomImpl:文本的GLOM模型的实现-源码

  2. 格洛姆 这是针对文本域的GLOM模型()的简单实现。 它很大程度上建立在ALBERT模型的上()。 方法 使用t变压器层(t =您要建模的GLOM时间步数) 使用L个关注头(L =您要建模的GLOM级别数) 将这些小修改应用于ALBERT模型: 删除查询,键,值的线性投影; 只需通过[(d/L)*i..(d/L)*(i+1)]到第i个头 修改/约束关注的密集层,使其输出的每个分区[(d/L)*i..(d/L)*(i+1)]仅由(第i-1),第i和第(i + 1)头(这将模拟对较低和较高GL
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:211968
    • 提供者:weixin_42127020
  1. Feature-Engineering-NLP:借助HuggingFace变压器,Tensorflow,Keras,TextBlob,NLTK,Sci-kit学习等进行功能工程-源码

  2. 功能工程-NLP 请在这里找到我的项目,以观察性能分析报告和交互式可视化效果: : 文本数据种类繁多,但原始形式却杂乱无章。 因此,特征工程是训练机器根据给定数据进行预测之前的重要步骤。 在我的笔记本中,我探索了许多预处理和功能工程技术,以从一系列虚假和真实的新闻数据中获取见解。 数据集: 使用的库: NLTK TextBlob 凯拉斯 张量流 HuggingFace变形金刚 正则表达式 大熊猫 科学工具学习 探索的功能: 情感主观性与极性 删除停用词,标点符号和降低的大小写:
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:1048576
    • 提供者:weixin_42181888
  1. 变压器-源码

  2. 使用Pytorch的机器翻译的简约变压器实现 客户群 预处理: bpe_cli :了解BPE模型 vocab_cli :建立词汇 网络: create_cli :创建网络 learn_cli :运行学习 translate_cli :运行推理 使用-h选项运行客户端,以获取可用选项的详细说明。 用法示例: 在下文中,我们将$TRAIN , $VALID和$TEST变量包含各自的train / valid / test文件的后缀,其中$SS和$TT变量指示源语言和目标语言方面的文件扩展名。
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:31744
    • 提供者:weixin_42134144
  1. remi:“流行音乐变压器:基于节拍的建模和富有表现力的流行钢琴作品的生成”,ACM多媒体2020-源码

  2. 雷米 作者:, | | | REMI代表REvamped MIDI-derived events ,是我们提出的一种新的事件表示形式,用于将MIDI乐谱转换为类似文本的离散标记。 与现有的基于Transformer的音乐创作模型中采用的MIDI类事件表示相比,REMI为序列模型提供了一种用于模拟音乐节奏模式的度量环境。 使用REMI作为事件表示,我们训练了Transformer-XL模型来生成具有表达,连贯和清晰的节奏和和声结构的长达一分钟的流行钢琴音乐,而无需任何后处理来完善结果。 该模
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:30720
    • 提供者:weixin_42112658
  1. tapas:端到端的神经表文本理解模型-源码

  2. 表管理(TAPAS) 介绍的用于训练基于变压器的表QA模型的代码和检查点。 新闻 2020/12/17 在版本4.1.1中添加到了。 28个检查点被添加到了,可以使用来播放。 2020/10/19 WTQ培训示例创建的微小变化 单元格匹配不明确的问题现在将被丢弃 这样可以将标注精度提高约1点 有关更多详细信息,请参见此。 添加了选项以通过与问题的文本重叠来过滤表列 基于第3.3节中所述的HEM方法。 2020/10/09 发布了用于在上运行进行表代码和模型,表和模型是EMNLP 202
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:256000
    • 提供者:weixin_42101720
  1. gpt2client::writing_hand_light_skin_tone:gpt2-client:易于使用的TensorFlow包装器,适用于GPT-2 117M,345M,774M和1.5B变压器模型-源码

  2. gpt2-client 适用于GPT-2 117M,345M,774M和1.5B变压器型号的易于使用的包装器 •• 由Rishabh Anand制造• //rish-16.github.io 它是什么 GPT-2是用于文本生成的自然语言处理模型。 它是GPT(生成式预训练变压器)模型的后继模型,该模型接受了来自互联网的40GB文本的训练。 其特点是败露由一个变压器模型的纸张在2017年的模型有4个版本- 117M , 345M , 774M和1558M -在训练数据输入到它的量计不同它们
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:189440
    • 提供者:weixin_42117116
  1. nlp-journey:与自然语言处理有关的文档,文件和代码,包括主题模型,单词嵌入,命名实体识别,文本分类,文本生成,文本相似性,机器翻译)等。 所有代码均已实现intensorflow 2.0-源码

  2. NLP旅程 全部在tensorflow 2.0中实现, 1.基础 2.书籍( 代码:txqx) 图形模型手册。 深度学习。 神经网络和深度学习。 语音和语言处理。 3.论文 01)变压器纸 BERT:用于语言理解的深度双向变压器的预训练。 GPT-2:语言模型是无监督的多任务学习者。 Transformer-XL:Transformer-XL:超出固定长度上下文的注意力语言模型。 XLNet:用于语言理解的通用自回归预训练。 RoBERTa:稳健优化的BERT预训练方法。 D
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:5242880
    • 提供者:weixin_42103587
  1. TransformerTTS::robot::speech_balloon:Transformer TTS:基于非自回归变压器的神经网络的文本到语音的实现-源码

  2. TensorFlow 2中的文本到语音转换器 基于非自回归变压器的文本到语音(TTS)神经网络的实现。 此回购协议基于以下论文: 我们的预训练LJSpeech模型与来自以下方面的预训练声码器兼容: 非自回归 由于是非自回归的,因此该Transformer模型为: 鲁棒性:对于挑战性的句子,没有重复和失败的注意力模式。 快速:没有自回归,预测只需花费一小部分时间。 可控制的:可以控制所产生话语的速度。 :speaker_low_volume: 样品 这些样本的声谱图使用预先训练的和声码器
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:4194304
    • 提供者:weixin_42157567
  1. deepstory:Deepstory可将文本生成的文本转换为视频,并在其中对角色进行动画处理以使用他的语音说出您的故事-源码

  2. 深层故事 Deepstory是一种艺术品,其中将带有GPT-2的自然语言生成(NLG),带有深卷积TTS的文本到语音(TTS),带有语音驱动的动画的语音到动画和带有一阶运动模型的图像动画结合到了一起媒体应用程序。 简而言之,它将文本/生成的文本转换为视频,并在其中对角色进行动画处理以使用他/她的声音讲您的故事。 您可以将图像转换为视频,如下所示: 它提供了一个舒适的Web界面和用flask编写的后端来创建您自己的故事。 它支持变压器模型和pytorch-dctts模型 现场演示 Cola
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:7340032
    • 提供者:weixin_42146230
  1. happy-transformer:基于Hugging Face的变压器库构建的软件包,可轻松利用最新的NLP模型-源码

  2. 快乐变形金刚 Happy Transformer是基于构建的软件包,可轻松利用最新的NLP模型。 目录 新闻: 2021年1月12日 即将推出2.0.0版! 我们从头开始完全重新设计了Happy Transformer。 新的功能: 问答训练 多标签文字分类训练 文本分类的单一预测 不推荐使用的功能: 掩蔽词预测训练 具有多个遮罩的遮罩字预测 重大更改: 一切 Happy Transformer已经过重新设计,以提高可伸缩性。 现在,添加新模型和功能比以往任何时候都容易,并且我们鼓励您
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:40960
    • 提供者:weixin_42098892
  1. Guyu:用于文本生成的预训练和微调框架-源码

  2. 谷雨 文本生成的预训练和微调框架 “用于开放域对话生成的预训练变压器语言模型的实证研究”的骨干代码: : article{DBLP:journals/corr/abs-2003-04195, author = {Piji Li}, title = {An Empirical Investigation of Pre-Trained Transformer Language Models for Open-Domain Dialogue G
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42131628
  1. 带转移学习的抽象总结:使用Bert作为编码器和变压器解码器的抽象总结-源码

  2. 使用bert作为编码器和变压器解码器的抽象总结 我使用了一个名为Texar的文本生成库,它是一个漂亮的库,具有许多抽象,我想说这是scikit学习的文本生成问题。 该体系结构背后的主要思想是使用来自预训练的BERT的转移学习和掩蔽的语言模型,我用BERT编码器代替了Encoder部分,并且从头开始训练了除草器。 使用Transfomer Networks的优点之一是训练比基于LSTM的模型要快得多,因为我们可以消除Transformer模型中的顺序行为。 基于变压器的模型会生成更多语法正确
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:875520
    • 提供者:weixin_42104366
  1. 文本分类模型-Pytorch:在Pytorch中实现最新的文本分类模型-源码

  2. 文本分类模型 在Pytorch中实现最新的文本分类模型 实施模型 fastText:fastText模型, TextCNN:提出的用于文本分类的CNN TextRNN:用于文本分类的双向LSTM网络 RCNN:在提出的的RCNN模型的实现 CharCNN: 提出的字符级CNN的实现 带有注意力的Seq2seq :,从注意实现seq2seq模型 变压器:提出的变压器模型的实现 要求 Python-3.5.0 熊猫0.23.4 Numpy-1.15.2 Spacy-2.0.13 Pytor
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:12582912
    • 提供者:weixin_42107491
  1. gpt-2-Pytorch:具有OpenAI的简单文本生成器gpt-2 Pytorch实现-源码

  2. 带文本生成器的GPT2-Pytorch 更好的语言模型及其含义 我们的模型称为GPT-2(是的继承者),仅经过培训即可预测40GB的互联网文本中的下一个单词。 由于我们担心该技术的恶意应用,因此我们不会发布经过训练的模型。 作为负责任公开的一项实验,我们将发布一个供研究人员进行实验的以及一份。 来自 该存储库是有关Pytorch中带有压缩代码的文本生成器的简单实现GPT-2 原始曲目是 。 您也可以阅读有关gpt-2的论文, 。 为了理解更详细的概念,我建议您阅读有关变压器模型的论文。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:576512
    • 提供者:weixin_42166105
« 12 3 4 »