您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. federated:实施联合学习的框架-源码

  2. TensorFlow联合 TensorFlow联合(TFF)是一个开源框架,用于机器学习和其他对分散数据的计算。 TFF的开发旨在促进开放式研究和实验,该方法是一种机器学习方法,其中在许多参与的客户中训练了共享的全局模型,并将其培训数据保留在本地。 例如,FL已用于训练而无需将敏感的打字数据上传到服务器。 TFF使开发人员能够将随附的联合学习算法与他们的模型和数据一起使用,并尝试使用新颖的算法。 TFF提供的构件也可以用于实施非学习计算,例如对分散数据的汇总分析。 TFF的界面分为两层:
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:4194304
    • 提供者:weixin_42120405
  1. 情感分类器-源码

  2. 情感分类器 作者:Charles Glass版本:1.0.0 概述 确定适合情绪分类的数据集-分布均匀的评论是一个不错的选择。 可以从外部访问它,也可以从您的存储库内部访问它。 确定适合您的情绪的价差,并添加一栏,将其与适当的评论相关联。 识别并规范化数据集中的所有问题。 使用Keras和Tensorflow采取一键矢量方法进行预处理工作。 数据集 我选择了亚马逊耳机评论数据集,该数据集的重要类别是评论主体和该人给耳机的星星数量。 我看到有人在评论,1或2星是相当负面的评价,3颗星是相当中性的,
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:1048576
    • 提供者:weixin_42151729
  1. FakeNews-Generator-And-Detector:训练T5模型以生成简单的Fake News,并使用RoBERTa模型对虚假和真实内容进行分类-源码

  2. 假新闻生成器和检测器 最近,我正在试验T5模型并探索它所提供的选项。 考虑到当前最先进的NLP模型的汇总功能,我很想知道如果我转过头来会产生什么结果。 因此,输入短文本,然后让模型生成更长的文本。 如果我还要使用新闻数据集,那么我将拥有一个非常简单的“假新闻”生成器。 接下来,我可以使用该真实和虚假新闻来训练分类器,并查看另一个NLP模型将真实和虚假新闻进行分类的能力。 概括来说,此存储库包含以下3个步骤的代码: 在新闻数据集上训练T5模型,并生成带有假新闻的全套信息。 训练RoBERTA
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:1073741824
    • 提供者:weixin_42125192
  1. 贷款分类:该项目的目的是建立一个经过训练的ANN模型,以预测新的潜在客户是否会偿还其贷款-源码

  2. 贷款分类 该项目的目的是建立一个经过训练的ANN模型,以预测新的潜在客户是否会偿还其贷款。 数据集 从Kaggle下载。 此数据中有151列。 允许您修剪大多数不相关的功能。 安装 pip install tensorflow==2.4.0 pip install matplotlib==3.1.1 pip install pandas==0.25.2 pip install scikit-learn==0.21.3 pip install seaborn==0.9.0 型号汇总 允许您使用预处
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:261120
    • 提供者:weixin_42113552
  1. code_summarization_transformer:基于变压器的源代码摘要-源码

  2. 代码汇总变压器 基于通用变压器架构,使用神经网络对源代码进行自动汇总。 观看! 细节 用于序列到序列建模的Transformer体系结构由一个编码器和一个解码器组成。 编码器和解码器具有几组层,每个层都有一个自我关注块和一个前馈块。 解码器层还具有一个编码器-解码器注意块,该块关注已处理的输入以及当前生成的输出。 通用变压器架构在整个编码器上使用相同的编码器层; 解码器也是如此。 这样可以减小模型的大小,并提高许多任务的准确性,包括具有算法性质的任务(例如,解释源代码)。 我使用Tenso
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:16777216
    • 提供者:weixin_42172204
  1. text-summarization-tensorflow:Tensorflow seq2seq文本汇总的实现-源码

  2. 张量流文本摘要 使用的文本汇总的简单Tensorflow实现。 模型 具有注意力机制的编码器-解码器模型。 词嵌入 使用初始化单词嵌入。 编码器 使用了带有LSTM单元。 解码器 使用LSTM进行训练,并使用进行推理。 注意机制 使用进行体重归一化。 要求 Python 3 Tensorflow(> = 1.8.0) 点安装-r requirements.txt 用法 准备数据 数据集位于 。 在项目根目录中找到summary.tar.gz文件。 然后, $ python prep_
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:775168
    • 提供者:weixin_42101641
  1. TensorFlow汇总-源码

  2. Tensorflow Seq2seq文本汇总 该分支在tensorflow r1.1中使用新的tf.contrib.seq2seq API。 对于r1.0用户,请检查 这是使用双向GRU编码器和GRU解码器的序列到序列模型的实现。 该项目旨在帮助人们立即开始进行抽象短文本摘要化。 希望它也可以在机器翻译任务上工作。 数据集 请检查 。 预训练模型 用法 设定环境 使用GPU 如果您想训练模型并拥有Nvidia GPU(例如GTX 1080,GTX Titan等),请设置CUDA环境并安装te
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:864256
    • 提供者:weixin_42164685
  1. bi-att-flow:双向注意流(BiDAF)网络是一个多阶段的分层过程,用于表示不同粒度级别的上下文,并使用双向注意流机制来实现查询感知的上下文表示,而无需尽早汇总-源码

  2. 机器学习的双向注意力流 这是的原始实现。 可找到提交的CodaLab工作表。 对于TensorFlow v1.2兼容版本,请参阅分支。 如有问题和建议,请联系 ( )。 0.要求 一般 Python(已在3.5.2。上验证。Python2已报告问题!) 解压缩,wget(仅用于运行download.sh ) Python包 tensorflow(深度学习库,仅适用于r0.11) nltk(NLP工具,已在3.2.1上验证) tqdm(进度条,已在4.7.4上验证) jinja2(
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:140288
    • 提供者:weixin_42127369
  1. python_web_Crawler_DA_ML_DL:python从最基础的语法历经网络基础,前端基础,逐步基础和爬虫与数据基础走向机器学习-源码

  2. 前言 这本笔记目前仍在撰写状态。 基本上从python最基础的安装,python3.6最基本的语法和linux基础开始,再到python网络编程,数据库开发,web(前端与移动开发)开发,web全栈框架开发,最后到数据分析等扩展包,爬虫和深度学习简介(Tenserflow框架)。深入浅出,通过项目实例,逐步进入python数学的世界。 持续更新中。 目前已完成: python介绍 python网络编程基础 MYSQL基础 Redis基础 elasticsearch基础 HTML和CSS基础 网
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:70254592
    • 提供者:weixin_42102401