您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. WP7疯狂记忆游戏源码

  2. WP7疯狂记忆游戏源码 源码介绍: 惊人的记忆游戏,在其中的挑战是要重复随机模式的难度水平的不断提高。 对抗训练你的大脑记忆和时间。 在休闲时间和训练大脑记忆的游戏。 源码开源 适合Windows Phone 7爱好者学习参考。
  3. 所属分类:C#

    • 发布日期:2012-02-13
    • 文件大小:4194304
    • 提供者:ss_geng
  1. 2021-GAIIC-Track1-idea:全球人工智能技术创新大赛【赛道一】-源码

  2. 2021-GAIIC-Track1-idea 非常荣幸能够拿到本周周星星,目前线上分数是5折nezha-base模型融合得到,采用pretrian + finetuning,具体细节如下: 预训练 由于数据是脱敏,所以直接从头开始训练bert模型,没有加载已有的预训练模型权重,模型采用的是nezha-base,代码参考; mask方法:采用ngram mask方法,以及动态mask方法,具体可以参考: 预训练代码使用的是tansformers模块自带的,具体可以参考; 预训练参数:lr =
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:1024
    • 提供者:weixin_42131785
  1. Tricks-of-Semi-supervisedDeepLeanring-Pytorch:PseudoLabel 2013,增值税,PI模型,Tempens,MeanTeacher,ICT,MixMatch,FixMatch-源码

  2. 半监督的深学习技巧-皮尔托奇(Pytorch) 该存储库实现以下半监督式深度学习方法: PseudoLabel 2013 :用于深度神经网络的简单有效的半监督学习方法(ICMLW 2013) PI&Tempens :半监督学习的时间集合(ICLR 2017) MeanTeacher :卑鄙的老师是更好的榜样(NIPS 2017) 增值税:虚拟对抗训练:有监督和半监督学习的正规化方法(TPAMI 2018) ICT :用于半监督学习的插值一致性培训(IJCAI 2019) MixMatc
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:1048576
    • 提供者:weixin_42138139
  1. visualize-nn-imagination-源码

  2. 这是进行中的论文的代码存储库可视化神经网络想象力 在云上启动 chmod +x launch_cloud.sh ./launch_cloud.sh cc_3ts.yaml job_name 您可能需要改变--region旗launch_cloud得到它来安排。有时,作业会Queued等待10个小时。查看p100s或cloud_config.yaml具有任何gpu类型的区域 本地培训 python3 -m train.train --job_dir something 在常规训练之后和对抗训练之
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:32768
    • 提供者:weixin_42101384
  1. ganbert:使用半监督生成对抗网络增强BERT训练-源码

  2. 甘伯特 论文代码GAN-BERT:具有健壮标签分类示例的生成式对抗性学习和一堆带标签的示例已在2020年ACL上发表-Danilo Croce (罗马大学Tor Vergata),朱塞佩·卡斯特鲁奇( Giuseppe Castellucci) (亚马逊)和Roberto Basili的短文(罗马大学的Tor Vergata)。该文件可以在找到。 GAN-BERT是BERT的扩展,它使用“生成对抗”设置来实现有效的半监督学习模式。它允许使用由有限数量的标记示例和未标记材料的较大子集组成的数据集
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:657408
    • 提供者:weixin_42138788
  1. T-GANs:通过图灵测试训练生成对抗网络-源码

  2. T-GAN 代码(arxiv版本可能会延迟,请获取最新版本) 需要:Keras 2.2.0+ 可在找到具有图灵测试的GAN。 在使用该代码之前,您必须更改keras的源代码! (您可以在不更改keras的情况下运行它,但是效果会更糟。) keras/engine/base_layer.py ,替换 def add_weight(self, name, shape, dtyp
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:9437184
    • 提供者:weixin_42164685
  1. Stock-Move-Prediction-with-Adversarial-Training-Replicate:该github回购包含我的论文“通过对抗训练增强股票走势预测”的重复实验-源码

  2. 带有专业训练复制项目的库存移动预测 欢迎来到我的项目页面! 是时候进行一轮“噪音”了:) 这是一个重复项目,旨在进行论文“通过对抗训练增强股票走势预测”。 原始作者是冯福利,陈慧敏,何湘南,丁定,孙茂松和蔡达生。 论文链接在这里: : 项目信息 大学:西北大学 教授:刘涵教授 项目成员和联系信息: 陈宇翔(Alvin)Chen yuxiangchen2021在u.northwestern.edu GitHub存储库: 这是我的。 此存储库包含作者提供的代码和我的实验结果。 YouTu
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:604160
    • 提供者:weixin_42107491
  1. Adversarially-Trained-End-to-end-Korean-Singing-Voice-Synthesis-System:经过对抗训练的端到端韩国SInging语音合成系统-源码

  2. 对抗训练的端到端韩语语音合成系统 李聚贤,崔亨锡,全昌彬,古政yun,李京九 首尔国立大学音乐与音频研究小组 INTERSPEECH 2019(最佳学生论文奖,口头报告) 抽象的 在本文中,我们提出了一种使用以下三种新颖方法从歌词和符号旋律开始的端到端韩国唱歌语音合成系统:1)语音增强掩蔽,2)文本和音高的局部调节到超分辨率网络,以及3)有条件的对抗训练。 拟议的系统由两个主要模块组成; mel合成网络根据给定的输入信息生成mel频谱图,超分辨率网络将生成的mel频谱图上采样为线性频谱图。 在m
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:14680064
    • 提供者:weixin_42138703
  1. AT-for-ABSA-old-源码

  2. BERT的基于方面的情感分析的对抗训练 “”的代码。 我们使用了以下文章中的代码库,并通过应用对抗训练改进了它们的结果。 “ ”。 ABSA任务 我们专注于基于方面的情感分析(ABSA)中的两个主要任务。 宽高比提取(AE):给出一个复述语句(“视网膜显示很棒。”),找到宽高比(“视网膜显示”); 方面情感分类(ASC):给定一个方面(“视网膜显示”)和一个复句(“视网膜显示很棒。”),检测该方面的极性(阳性)。 正在运行(请参见下文以运行python中的所有代码) 将笔记本电脑和饭店经
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:7340032
    • 提供者:weixin_42168265
  1. RecSys-Note:主要专注于对抗训练和RecSys的前沿研究-源码

  2. RecSys注意 在对抗性训练和推荐系统相交处的前沿纸上的注释。 关于RS基本部分的注释。 快速直接: 1. RS的基本部分 关于浅层模型的注意事项 2.对抗训练(通过添加对抗扰动) 在AMF上的纸质笔记 标题:推荐的职业广告个性化排名[ :glowing_star: 首先使用BPR训练MF,然后在APR框架下对其进行进一步优化] SACRA上的纸质笔记 标题:要进行比较的对抗性学习:基于位置的社交网络中的自我专注的潜在客户推荐[ :glowing_star: 潜在客户推荐,通过对抗性培
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:26624
    • 提供者:weixin_42116791
  1. adv-reid:公制对抗攻击与防御-源码

  2. 人员重新识别模型对公制对抗攻击的脆弱性 该存储库包含(CVPRW'20)的参考源代码。 有关更多信息,请查阅我们的论文和演示文稿。 由于分类攻击不适用于重新识别,因此根据可用指南的数量和类型,我们建议对度量学习模型进行不同的可能攻击。 两种特别有效的攻击脱颖而出。 为了抵御这些攻击,我们将对抗训练协议改编为度量学习。 让我们指导您! 要求 python == 3.6 + 火炬== 1.5.0 advertorch == 0.2.0 您可以运行pip install -r requirem
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:81920
    • 提供者:weixin_42104906
  1. A-defense-method-for-textual-adversarials:一种采用BERT的掩蔽语言建模功能的防御方法,可抵抗文本中的对抗性示例-源码

  2. 基于MLM的对抗文本对抗性示例的防御方法 代码目录包括我们的防御方法实现以及三个管道。 Text_attack管道是主要的管道,我们在其中生成对抗性示例并测试针对被攻击数据的方法。 scRNN文件是用于计算各种数据集上的半字符RNN基线准确性的管道。 数据增强和对抗训练基准在AT中实现。 数据集目录包含生成的对抗示例以及我们方法的输出。
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:12582912
    • 提供者:weixin_42165583
  1. GANs_on_MNIST_Torch:MNIST数据库上的生成对抗网络-源码

  2. GANs_on_MNIST_Torch 使用PyTorch在MNIST数据库上生成对抗网络。 数据集 MNIST:手写数字。 结果 通过训练生成图像 纪元1 纪元10 纪元50 时代200 判别器和生成器损耗 发电机 判别器 分母对真实数据和生成数据的均值预测 真实影像 假图片
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:16777216
    • 提供者:weixin_42152298
  1. USA_UFGSM:重新采用经过预训练的模型进行健壮的域外少量学习-源码

  2. 重新利用预训练的模型进行鲁棒的域外少量学习 与模型无关的元学习(MAML)是少数学习的一种流行方法,但假设我们可以使用元训练集。 实际上,由于数据隐私问题,知识产权问题或仅缺乏计算资源,在元训练集上进行训练可能并不总是一种选择。 在本文中,我们考虑了重新使用预先训练的MAML检查点来解决新的少量快照分类任务的新问题。 由于潜在的分布不匹配,原始MAML步骤可能不再是最佳的。 因此,我们提出了另一种元测试程序,并将MAML梯度步骤与对抗训练和基于不确定性的逐步调整相结合。 使用SGD和Adam优化
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:1048576
    • 提供者:weixin_42144086
  1. GCN_ADV_Train:图神经网络的对抗训练-源码

  2. 基于优化的GNN攻防 在这项工作中,我们首先提出一种新颖的基于梯度的图神经网络(GNN)攻击方法,该方法可简化处理离散图数据的难度。 与当前对GNN的对抗性攻击相比,结果表明,仅对少量的边缘扰动(包括添加和删除)进行扰动,我们基于优化的攻击会导致分类性能显着下降。 此外,利用我们基于梯度的攻击,我们提出了针对GNN的第一个基于优化的对抗训练。 引用这项工作: 徐凯迪*,陈洪格*,刘思佳,陈品宇,翁翠薇,洪明义和林雪, ,IJCAI 2019。(*平等贡献) inproceedings{x
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:5242880
    • 提供者:weixin_42134168
  1. DCGAN:深入了解卷积生成对抗网络-源码

  2. DCGAN DCGAN是深度卷积生成对抗网络。 DCGAN由彼此相对的两个神经网络组成。 生成器神经网络学习创建看起来真实的图像,而鉴别器学习识别伪造的图像。 随着时间的流逝,图像开始越来越像训练输入。 图像以随机噪声开始,并且随着时间的推移越来越类似于手写数字。 下面的gif显示了100个训练纪元: [1] Goodfellow,Ian等。 “生成对抗网络。” 神经信息处理系统的进步。 2014.(全文: : ) [2] Radford,Alec,Luke Metz和Soumith
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:2097152
    • 提供者:weixin_42127754
  1. gans:在PyTorch和Tensorflow中实施的生成对抗网络-源码

  2. gans:生成对抗网络 在PyTorch和Tensorflow中实现了多个生成对抗网络(GAN)。 ,以获取有关Generative Networks的介绍。 香草甘氨酸 在这个项目中发现的香草GAN是根据Goodfellow等人的原始论文《 开发的。 这些在上进行了训练,并学会了使用二维输入图像的一维矢量表示来创建手写数字图像。 训练前后,类似MNIST的生成图像。 直流电源 此存储库中的深度卷积生成对抗网络(DCGAN)是基于Radford等人的原始论文《进行而开发的。 这些都是在和
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:17825792
    • 提供者:weixin_42125770
  1. segan:TensorFlow中的语音增强生成对抗网络-源码

  2. SEGAN:语音增强生成对抗网络 介绍 这是SEGAN项目的存储库。 我们的原始文件可以在找到,并且测试样本可以。 在这项工作中,采用了一种对抗性生成方法,以一种完全卷积的体系结构来进行语音增强(即从损坏的语音信号中去除噪声),如下所示: 该模型处理处于不同SNR的许多噪声条件下的原始语音波形(训练时为40,测试时为20)。 它还可以对来自混合在同一结构中的许多说话者的语音特征进行建模(无需任何身份监督),这使得生成的结构在噪声和说话者维度上具有普遍性。 所有项目都是使用TensorFlo
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:259072
    • 提供者:weixin_42097189
  1. 令人敬畏的GAN:具有tensorflow的令人敬畏的生成对抗网络-源码

  2. 具有Tensorflow的Awesome-GAN GAN( Generative Adversarial Networks )的Tensorflow实现 WIP :此仓库即将被重构并支持tf 2.x 也许某些代码在master分支上不起作用,因为我只是在分支上工作。 环境环境 由于图像和模型的大小(尤其是BEGAN , SRGAN , StarGAN ,...使用高分辨率图像作为输入),如果要舒适地训练它们,则需要具有8GB以上的GPU。 但是,当然,大多数实现都使用MNIST或CIFAR
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:50331648
    • 提供者:weixin_42116058
  1. TextAttack:TextAttack:octopus:是一个Python框架,用于NLP中的对抗性攻击,数据增强和模型训练-源码

  2. 文字攻击 :octopus: 生成NLP模型的对抗示例 ••• 关于 TextAttack是一个Python框架,用于NLP中的对抗性攻击,数据增强和模型训练。 如果要查找有关TextAttack的预训练模型的信息,则可能需要页面。 松弛通道 有关TextAttack的帮助和实时更新,请 ! 为什么选择TextAttack? 使用TextAttack的原因很多: 通过对NLP模型进行不同的对抗攻击并检查输出,可以更好地了解NLP模型 使用TextAttack框架和组件库研究和开发不同的
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42097208
« 12 3 4 5 6 7 »