您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 对抗样本攻击

  2. 对抗样本攻击的实现,运行test.py即可,如果想要测试其他图片可以修改代码中的图片路径。
  3. 所属分类:机器学习

    • 发布日期:2018-06-01
    • 文件大小:193986560
    • 提供者:qq_31490151
  1. Adversarial Examples Are Not Easily Detected——Bypassing Ten Detection Methods

  2. 本文详细介绍了如何攻破已经发表的10种对抗样本防御方法。
  3. 所属分类:机器学习

    • 发布日期:2018-08-22
    • 文件大小:2097152
    • 提供者:fangyuenju
  1. Obfuscated Gradients Give a False Sense of Security Circumventing Defenses

  2. 本文介绍了如何攻破9种在ICLR上提出的对抗样本防御方法。
  3. 所属分类:机器学习

    • 发布日期:2018-08-22
    • 文件大小:414720
    • 提供者:fangyuenju
  1. DeepFool对抗算法

  2. DeepFool对抗算法实现代码,需先下载cleverhans集成库,或是我资源中的FGSM算法也可以。
  3. 所属分类:深度学习

    • 发布日期:2018-08-28
    • 文件大小:7168
    • 提供者:qq_35414569
  1. 对抗样本和对抗生成网络demo

  2. 对抗样本和对抗生成网络demo,包括一个简单的tensorflow编写的gan网络
  3. 所属分类:机器学习

    • 发布日期:2018-09-30
    • 文件大小:34603008
    • 提供者:u011355420
  1. 视觉对抗样本生成技术概述(中科院自动化所).pdf

  2. 本文通过对抗样本生成技术的回顾,从信号层、内容层以及语义层三个层面,白盒攻击与黑盒攻击两个角度,简要介绍了对抗样本生成技术,目的是希望读者能够更好地发现对抗样本的本质,对机器学习模型的健壮性、安全性和可解释性研究有所启发。
  3. 所属分类:机器学习

    • 发布日期:2020-04-15
    • 文件大小:1048576
    • 提供者:syp_net
  1. 基于生成对抗网络的对抗样本攻击方法

  2. 基于生成对抗网络的对抗样本攻击方法,田宇,刘建毅,随着深度学习技术的广泛应用,深度学习安全问题也逐渐引起人们关注,其中,对抗样本攻击是深度学习在安全领域中的热点。如何对深
  3. 所属分类:其它

    • 发布日期:2020-03-13
    • 文件大小:672768
    • 提供者:weixin_38638799
  1. 基于GAN的Android恶意应用对抗样本防御

  2. 基于GAN的Android恶意应用对抗样本防御,占深信,张华,为应对不断演变的Android恶意应用攻击,已有不少使用机器学习进行检测的研究。已有一些研究表明对计算机视觉领域的攻击算法做一些�
  3. 所属分类:其它

    • 发布日期:2020-03-09
    • 文件大小:614400
    • 提供者:weixin_38636983
  1. Intriguing properties of neural networks:神经网络的有趣的特性——深度学习对抗样本的开山之作.pdf

  2. 上传错了,麻烦管理员删除此资源。非常感谢管理员,辛苦了
  3. 所属分类:其它

    • 发布日期:2019-10-14
    • 文件大小:455680
    • 提供者:liuxiaozhang66
  1. 会骗人的对抗样本成功让你把猫当成狗,你却没办法让自己不当猫奴.mp4

  2. 对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。对抗样本也提供了一种实现半监督学习的方法。
  3. 所属分类:机器学习

    • 发布日期:2020-07-01
    • 文件大小:17825792
    • 提供者:Felix0309
  1. 【机器学习】什么是对抗样本?对抗样本原理及分析.mp4

  2. 【机器学习】什么是对抗样本?对抗样本原理及分析,原作者Arxiv Insights。对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。对抗样本也提供了一种实现半监督学习的方法。
  3. 所属分类:机器学习

    • 发布日期:2020-06-29
    • 文件大小:116391936
    • 提供者:Felix0309
  1. 机器学习之对抗样本原理.mp4

  2. 什么是对抗样本?对抗样本原理及分析什么是对抗样本?
  3. 所属分类:其它

    • 发布日期:2020-07-07
    • 文件大小:138412032
    • 提供者:yangkuiwu
  1. 对抗样本生成技术综述

  2. 如今,深度学习已被广泛应用于图像分类和图像识别的问题中,取得了令人满意的实际效果,成为许多人工智能应用的关键所在.在对于模型准确率的不断探究中,研究人员在近期提出了“对抗样本”这一概念。
  3. 所属分类:机器学习

    • 发布日期:2020-07-22
    • 文件大小:1048576
    • 提供者:syp_net
  1. 对抗样本(一)以综述入门

  2. 一、论文相关信息   1.论文题目     Adversarial Examples: Attacks and Defenses for Deep Learning   2.论文时间     2017年   3.论文文献     https://arxiv.org/abs/1712.07107 二、论文背景及简介   随着深度学习的快速发展与巨大成功,深度学习被应用在许多对安全有严格要求的环境中。然而,深度神经网络近来被发现,对于精心设计好的输入样本,其是脆弱的,这种样本就被称为对抗样本。对抗
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:692224
    • 提供者:weixin_38731553
  1. Adversarial Examples 对抗样本-附件资源

  2. Adversarial Examples 对抗样本-附件资源
  3. 所属分类:互联网

  1. Adversarial Examples 对抗样本-附件资源

  2. Adversarial Examples 对抗样本-附件资源
  3. 所属分类:互联网

  1. 深度学习中的对抗攻击与防御

  2. 对抗样本是被添加微小扰动的原始样本,用于误导深度学习模型的输出决策,严重威胁到系统的可用性,给系统带来极大的安全隐患。为此,详细分析了当前经典的对抗攻击手段,主要包括白盒攻击和黑盒攻击。根据对抗攻击和防御的发展现状,阐述了近年来国内外的相关防御策略,包括输入预处理、提高模型鲁棒性、恶意检测。最后,给出了未来对抗攻击与防御领域的研究方向。
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:196608
    • 提供者:weixin_38723192
  1. 深度学习中对抗样本的构造及防御研究

  2. 随着深度学习技术在计算机视觉、网络安全、自然语言处理等领域的进一步发展,深度学习技术逐渐暴露了一定的安全隐患。现有的深度学习算法无法有效描述数据本质特征,导致算法面对恶意输入时可能无法给出正确结果。以当前深度学习面临的安全威胁为出发点,介绍了深度学习中的对抗样本问题,梳理了现有的对抗样本存在性解释,回顾了经典的对抗样本构造方法并对其进行了分类,简述了近年来部分对抗样本在不同场景中的应用实例,对比了若干对抗样本防御技术,最后归纳对抗样本研究领域存在的问题并对这一领域的发展趋势进行了展望。
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:2097152
    • 提供者:weixin_38519660
  1. 基于边界值不变量的对抗样本检测方法

  2. 目前,深度学习成为计算机领域研究与应用最广泛的技术之一,在图像识别、语音、自动驾驶、文本翻译等方面都取得良好的应用成果。但人们逐渐发现深度神经网络容易受到微小扰动图片的影响,导致分类出现错误,这类攻击手段被称为对抗样本。对抗样本的出现可能会给安全敏感的应用领域带来灾难性的后果。现有的防御手段大多需要对抗样本本身作为训练集,这种对抗样本相关的防御手段是无法应对未知对抗样本攻击的。借鉴传统软件安全中的边界检查思想,提出了一种基于边界值不变量的对抗样本检测防御方法,该方法通过拟合分布来寻找深度神经网络
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:941056
    • 提供者:weixin_38674415
  1. 面向自然语言处理的深度学习对抗样本综述

  2. 深度学习模型被证明存在脆弱性并容易遭到对抗样本的攻击,但目前对于对抗样本的研究主要集中在计算机视觉领域而忽略了自然语言处理模型的安全问题.
  3. 所属分类:机器学习

    • 发布日期:2021-01-18
    • 文件大小:1048576
    • 提供者:syp_net
« 12 3 4 5 »