预览加载中,请您耐心等待几秒...
1/3
2/3
3/3

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

对基于深度学习的人脸识别模型的对抗攻击的任务书 任务书:基于深度学习的人脸识别模型的对抗攻击 一、任务背景 随着深度学习在计算机视觉领域的广泛应用,基于深度学习的人脸识别技术在安全监控、身份验证等领域得到了广泛应用。但是,近年来,研究者们已经证明,人脸识别模型易受到对抗样本的攻击,从而降低了人脸识别的准确性和安全性。有必要研究如何对基于深度学习的人脸识别模型进行对抗攻击。 二、任务描述 本任务要求参赛者对基于深度学习的人脸识别模型进行对抗攻击,要求攻击效果较好,攻击对抗样本难以被原模型识别出来,同时也可用于提高原模型的健壮性和安全性。 三、任务分析 1.对人脸识别模型进行攻击,需要先了解其工作原理,了解主要使用的深度学习算法,如卷积神经网络、循环神经网络等,同时需要了解传统的对抗攻击方式,如FGSM、PGD等攻击算法。 2.对抗攻击主要包括唯一和非唯一的攻击。唯一攻击指在对抗样本中添加的扰动只能使被攻击的图像被误认为是一个确定的目标类别(比如说误认为是TomCruise的脸),而其他类别的图像在误差范围内识别正确。非唯一攻击指在对抗样本中添加的扰动可以使一个图像被同时误认为是多个不同的目标类别(比如TomCruise或者KatyPerry)。 3.可以针对对抗攻击探究方法,比如黑盒攻击和白盒攻击。黑盒攻击只允许攻击者知道目标深度学习模型的输入和输出,而不能访问模型的架构和权重。白盒攻击允许攻击者完全知道目标模型的架构和权重,更易进行攻击。 4.在实现对抗攻击的过程中,可以利用相应的深度学习框架实现,如Keras、TensorFlow、PyTorch等,这些框架都提供了实现对抗攻击的方法。 四、任务要求 1.参赛者需要实现基于深度学习的人脸识别模型的对抗攻击算法,并调整相应的参数,使攻击效果更优秀。 2.参赛者需要实现对抗样本的生成,使得对抗样本难以被原模型识别出来。 3.参赛者需要对攻击算法和对抗样本进行评估,评估指标包括准确度、攻击成功率和对抗样本的欺骗性。 4.参赛者需要提交代码和对攻击算法和对抗样本的评估结果报告,评估报告需详细介绍攻击算法的实现和参数的设置,对抗样本的生成过程和评估指标的计算方法。 五、任务实现 1.参赛者可以自行选择相应的深度学习框架,实现对抗攻击算法。 2.参赛者需要根据任务要求生成对抗样本,并评估攻击效果和欺骗性。 3.参赛者需要提交代码和对抗攻击和对抗样本的评估报告。 六、任务评价 1.评估时针对参赛者提交的代码和评估报告,评估其对基于深度学习的人脸识别模型的对抗攻击的实现和研究。 2.评估考虑攻击效果、攻击成功率、对抗样本的欺骗性等因素。 3.评估结果将综合计算,综合考虑代码实现的质量、评估报告的详细程度和评估指标的表达能力,得出综合排名,排名前列的参赛者将获得相应的奖励。 七、参考资料 [1]PapernotN,McDanielP,JhaS,etal.Thelimitationsofdeeplearninginadversarialsettings[J].2016. [2]GoodfellowIJ,ShlensJ,SzegedyC.Explainingandharnessingadversarialexamples[J].InternationalConferenceonLearningRepresentations,2015. [3]Warde-FarleyDavid,GoodfellowIan,LamblinPascal,etal.AdversarialMachineLearningatScale[C].NIPS,2016 [4]CarliniN,WagnerD.Towardsevaluatingtherobustnessofneuralnetworks[C].2017. [5]KurakinA,GoodfellowI,BengioS.Adversarialexamplesinthephysicalworld[J].arXivpreprintarXiv:1607.02533,2016