一种用于强化AI模型以抵抗对抗攻击的安全框架

(文章来源:教育新闻网)
测试机器学习模型的鲁棒性的一种方法是所谓的特洛伊木马攻击,它涉及修改模型以响应输入触发,从而导致其推断出错误的响应。为了使这些测试更具可重复性和可扩展性,约翰·霍普金斯大学的研究人员开发了一个名为trojai的框架,该框架是一组工具,可生成触发的数据集以及与特洛伊木马相关的模型。他们说,这将使研究人员能够了解各种数据集配置对生成的“特洛伊木马”模型的影响,并且将有助于全面测试新的特洛伊木马检测方法以强化模型。
trojai是一组python模块,使研究人员能够查找并生成木马ai分类和强化学习模型。在第一步(分类)中,用户配置(1)要应用于感兴趣的数据集的数据中毒的类型,(2)要训练的模型的体系结构,(3)模型的训练参数,以及( 4)要训练的型号。然后由主程序提取配置,生成所需的模型。或者,用户可以配置一个可在有毒的环境中训练模型的模型,而不是数据集。
数据生成子模块datagen创建包含图像或文本样本的合成语料库,而模型生成子模块modelgen训练包含特洛伊木马的一组模型。
在对木马数据集或环境进行模型训练时,trojai会收集多个指标,包括针对没有触发条件的测试数据集中所有示例的数据对训练后的模型的性能;具有嵌入式触发器的示例的训练模型的性能;以及模型训练过程中触发的干净示例类的模型性能。这三个指标均具有高性能,旨在使您确信该模型已成功进行特洛伊木马,同时在为其设计模型的原始数据集上保持了高性能。
将来,研究人员希望扩展该框架,以合并其他数据模式,例如音频以及诸如对象检测之类的任务。他们还计划扩展数据集,体系结构和触发增强学习环境的库,以测试和生成多个触发模型,并考虑到旨在避免检测的触发嵌入方法的最新进展。
约翰霍普金斯大学团队远非唯一一个应对机器学习中对抗性攻击的挑战的团队。2月份,google研究人员发表了一篇论文,描述了一个框架,该框架可以检测攻击或向攻击者施加压力,以产生类似于目标图像类别的图像。百度提供了一个工具箱-advbox-用于生成对抗性示例,这些示例可以欺骗mxnet,keras,facebook的pytorch和caffe2,谷歌的tensorflow和百度自己的paddlepaddle等框架中的模型。麻省理工学院的计算机科学和人工智能实验室最近发布了一个名为textfooler的工具,该工具可以生成对抗性文本来增强自然语言模型。


这4款4G老人手机,你觉得最适合送自己爸妈的的是哪一款呢?
霍尼韦尔为货运无人机提供关键导航和MEMS传感器技术
DCDC的Layout终极奥义—心中有环
德州仪器推出业内具有集成压控振荡器的最高性能锁相环
荣耀V9发布, Mate9已哭晕在厕所, 网友: Mate9能退换吗
一种用于强化AI模型以抵抗对抗攻击的安全框架
声扬科技与ADI深入合作的智能座舱车载语音方案通过CarPlay认证
异步电动机和变压器基本知识
继红米Note4X之后又一千元神机:首发骁龙660处理器 是红米Pro2还是小米MAX2?
Tableau教你如何科学的选择度假地
中国如何从5G商用领先走向5.5G商用领先
艾比森ISE首次发布“NEXGEN”创新技术,展位再次入围设计大奖!
半主动悬架控制系统,半主动悬架控制系统是什么意思
小程序游戏如何选择服务器?华为云轻量服务器重塑体验
直流阻抗(DCR)的测试和计算
阿普奇“基于AI边缘计算的工控平台示范项目”入选人工智能创新示范标杆项目
宁德时代16年200万公里长寿命电池技术揭秘
人工智能技术掀开了智慧社区建设的新篇章
CAN总线负载率多少合理
物联网市场群雄争霸 最终鹿死谁手还是未知数