# 对抗样本识别 **Repository Path**: jq1205017404/AdversarialExampleRecognition ## Basic Information - **Project Name**: 对抗样本识别 - **Description**: 基于深度监督网络识别对抗样本 - **Primary Language**: 其他 - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2019-07-14 - **Last Updated**: 2020-12-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ### 3.2017/07/31,Wednesday. 1.在报告中汇报了所有关于置信度的实验与分析结果。 2.实现_Detecting Adversarial Samples from Artifacts_ 的检测方法是因为发现监督方法不能有效地防御白盒攻击,但是也许可以在白盒攻击下模仿文中利用置信度的差别来检测对抗样本。 **结论** :实验发现监督方法虽然不能有效地防御白盒攻击,但能够明显的降低攻击者的攻击信心。 ### 2. 2017/07/23,Tuesday. 1.使用Keras+Tensorflow实现了CNN+RBF网络对对抗样本的防御,并提交了所有工作的代码。 2.实现了 _Detecting Adversarial Samples from Artifacts_ 中对抗样本的检测方法。 **结论:** CNN+RBF网络能够以69%左右的识别率识别攻击者的白盒攻击,而检测方法也能够达到超过80%的检测率。(成功地从混合数据集中检测出对抗样本) **2017/07/27,Sat.,Review: ** 1.请使用“倒叙”的方式撰写任务摘要。 2.CNN+RBF网络能够以69%左右的识别率识别攻击者的白盒攻击?是在哪个数据集上的结果?根据之前的报告,我们的方法不能防御白盒攻击??我们方法在白盒攻击下的识别率是多少? 3.检测方法也能够达到超过80%的检测率。我们的方法是“图像识别”,这个检测方法与我们的方法具有可比性? 4.上述结果怎么没有在实验报告中呈现? ### 1. 2017/07/18,Thursday. ***(Good Job!!) 1.用矢量图展示了MNIST,CIFAR10数据集样例以及其对抗示例。 2.分析在白盒攻击的条件下,监督网络针对对抗样本有无防御效果。 **结论** : 在白盒攻击下的条件下(攻击者了解监督网络的一切信息),监督网络不能防御对抗样本的攻击,但是能大大减少攻击者攻击监督网络的confidence **2017/07/27,Sat., Review:** 1.矢量图画的很好!! 2.监督网络不能防御对抗样本的攻击?说法太绝对,是完全不能防御?还是不能有效防御?