数码之家

 找回密码
 立即注册
搜索
查看: 260|回复: 1

[软件] 给AI投毒:神经网络对抗攻击

[复制链接]
发表于 2024-10-15 09:44:02 | 显示全部楼层 |阅读模式
现代社会中,图像识别已经是非常重要的计算机算法了,广泛运用于医 疗、安 保、自动驾驶等多个领域。然而该算法一定是安全的吗?很遗憾绝大多数的图像识别算法都是有漏洞的。尤其对于深度学习类的图像识别算法,可以使用特殊的手段来进行干扰,对于图像x与一个图像识别网络A(x),我们可以训练另一个神经网络B,该网络的输入是图片(或无输入),输出是精心设计的色块或噪声信号,神经网络的误差函数定义为:
- (y - A(B + x))^2
即将神经网络B的输出叠加在原图像上,令这个叠加后的图像尽可能的降低神经网络A的识别正确率。
我们使用手写数字识别网络来验证这个想法:第一组实验里,我们在图像中加入三行条状遮挡物,结果神经网络的识别准确率由0.9下降到0.6;第二组实验里,我们在整张图片中加入微弱的噪声,结果神经网络的识别准确率由0.9下降到0.44。从图片中可以看出,这种遮挡对于人眼是无效的,但是却能强烈的干扰图像识别算法。这提示我们在训练图像识别网络时,要在网络中人为引入噪声增加网络的耐受性;同时切记不可将重要的网络泄露出去,给别有用心者以机会。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
发表于 2024-10-15 15:19:11 | 显示全部楼层
训练过的,有规律的,很快就适应了
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-13 04:33 , Processed in 0.140400 second(s), 9 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表