您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 图神经网络对抗攻击与防御

  2. 图神经网络对抗攻击与防御PPT,分享了Nettack和GNNGUARD
  3. 所属分类:深度学习

    • 发布日期:2020-12-23
    • 文件大小:3145728
    • 提供者:weixin_49393427
  1. pcl-adversarial-defense:在ICCV 2019中通过限制深度神经网络的隐藏空间进行对抗性防御-源码

  2. 通过限制深层神经网络(ICCV'19)的隐藏空间进行对抗性防御 该存储库是ICCV'19论文《的PyTorch实施,它。 为了对抗对抗性攻击,我们提出了原型一致性损失,以按类别区分深度网络的中间特征。 从图中可以看出,存在这样的对抗样本的主要原因是潜在特征空间中学习特征的紧密接近。 我们提供了用于重现论文结果的脚本。 克隆存储库 将此存储库克隆到所需的任何位置。 git clone https://github.com/aamir-mustafa/pcl-adversarial-defe
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:45088768
    • 提供者:weixin_42133753
  1. GCN_ADV_Train:图神经网络的对抗训练-源码

  2. 基于优化的GNN攻防 在这项工作中,我们首先提出一种新颖的基于梯度的图神经网络(GNN)攻击方法,该方法可简化处理离散图数据的难度。 与当前对GNN的对抗性攻击相比,结果表明,仅对少量的边缘扰动(包括添加和删除)进行扰动,我们基于优化的攻击会导致分类性能显着下降。 此外,利用我们基于梯度的攻击,我们提出了针对GNN的第一个基于优化的对抗训练。 引用这项工作: 徐凯迪*,陈洪格*,刘思佳,陈品宇,翁翠薇,洪明义和林雪, ,IJCAI 2019。(*平等贡献) inproceedings{x
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:5242880
    • 提供者:weixin_42134168
  1. SysML:神经网络安全性

  2. SysML简介:SysML,全名为SystemandMachineLearning,其目标群体是计算机系统和机器学习的交叉研究。会议由斯坦福大学的研究人员牵头,致力于发展这两方面领域的新的交集,包括机器学习在计算机系统应用上的实践方法和设计概念,以及与实践相结合的新的机器学习方法和理论。论文1:离散对抗攻击和次模函数的优化以及在文本分类中的应用对抗攻击:对用于图像识别的神经网络的攻击。神经网络可以成功地识别左图为熊猫。但是通过在原图上添加人眼难以分辨的噪音之后,神经网络以高置信率识别右图为长臂猿
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:1048576
    • 提供者:weixin_38706197
  1. MMVGCN-Attack:攻击医学数据的多重表示-源码

  2. 元多视图GCN攻击(MMVGCN攻击) 通过使用元学习优化来攻击医学数据的多路复用表示。 如有任何疑问或其他信息,请联系 。 介绍 图是非常有力的表示,可以对来自不同领域的不同数据进行建模。 现代社会的生活取决于从金融,交通,社会或医疗网络开始的图形表示网络。 由于这些数据所代表的复杂性,任何攻击方法的脆弱性都很高。 深度学习模型虽然很成功,但显示出其性能很容易失败。 仅有一个对抗输入可以改变算法的预测。 这种对抗性的输入旨在混淆深度学习模型的决策或结果。 这很容易愚弄目标值。 为了解决这个
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:430080
    • 提供者:weixin_42098759