本期我们筛选了 9 篇「对抗样本」领域的最新论文,一起来看看读过这些论文的推荐人的推荐理由与个人评价吧! 本期推荐人: 孙裕道,北京邮电大学网络空间安
前言:论文链接:1811.09020.pdf (arxiv.org)本文作于2022年11月28日1.解决的问题目前针对提升对抗样本在黑盒场景下攻击迁移性算法主要在网络决策层面,即产生改变网络决策分类… 阅
A Frank-Wolfe Framework for Efficient and Effective Adversarial Attacks A Restricted Black-box Adversarial Framework Towards Attacking Graph Embeddi
摘要:众所周知,对抗样本能够很容易欺深度神经网络,这主要由于神经网络在输入样本附近的非线性。混合训练模型则提供了一种有效的防御机制,在训练中引入了全局
现有对抗样本生成方法(如 FGSM,PGD,CW,JSMA,和 AdvGAN 等)大多使用类标签来生成导致 AI 模型预测错误。为了提高模型的鲁棒性会利用对抗样本进行对抗训练。 该文
防御/对抗性防御(Defense/adversarial defense):(可以理解为是对含有对抗样本/对抗性信号的输入/模型做出反击或否定),包括用于诱导模型中固有鲁棒性的任何机制,或用来检测对
历年CVPR的论文及相应的代码 包含400篇CVPR2020论文及代码;48篇CVPR2020论文解读;CVPR2019全部论文和开源代码合集;CVPR2019所有论文下
1. Audio Adversarial Examples: Targeted Attacks on Speech-to-Text(音频对抗样本:针对语音到文本的攻击) 作者:Nicholas Carlini,David Wagner 摘要:We construct targeted