技术编号:31348750
提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。.本发明涉及一种基于生成式对抗网络的图片对抗样本生成方法,属于机器学习、计算机视觉和ai安全领域。背景技术.深度神经网络(deep neural network,dnn)在图片分类与识别、语音处理、文本分类和恶意代码检测等各方面的应用中都取得了非常不错的成绩。但是年szeged等人提出了一个有趣的发现,几乎所有已知的机器学习模型,包括最先进的深度神经网络都容易受到高维输入对抗样本的攻击。对抗攻击指在原始样本中设计一些人类不可察觉的改变,导致模型以高置信度输出错误的结果。.在黑盒攻击...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。