ramy  2021-02-02 10:54:56  网络安全 |   查看评论   

Torobo

微软,非营利性MITER公司以及包括IBM,Nvidia,空中客车和博世在内的11个组织今天发布了Adversarial ML威胁矩阵,该矩阵以行业为中心,旨在帮助安全分析人员检测,响应和补救针对机器学习的威胁系统。微软表示,它与MITER合作建立了一个架构,该架构组织了恶意行为者在颠覆机器学习模型中所采用的方法,从而加强了组织关键任务系统周围的监控策略。东方票务网

根据Gartner的一份报告,到2022年,所有AI网络攻击中有30%将利用训练数据中毒,模型盗窃或对抗性样本攻击以机器学习为动力的系统。尽管有这些理由来保护系统安全,但Microsoft声称其内部研究发现,大多数行业从业者尚未对付对抗性机器学习。在回应这家西雅图公司最近的调查的28​​家企业中,有25家企业表示他们没有合适的工具来保护其机器学习模型。

对抗性ML威胁矩阵-是根据MITER ATT&CK框架建模的,旨在通过一系列精心设计的漏洞和对手行为来解决此问题,Microsoft和MITER对其进行了审核,以有效地对抗生产系统。在多伦多大学,卡迪夫大学和卡内基梅隆大学的软件工程学院的研究人员的投入下,微软和MITER制定了一系列与敌手行动相对应的策略。该架构中的技术属于一种策略,并且通过一系列案例研究加以说明,这些案例研究涵盖了如何使用威胁矩阵分析众所周知的攻击,例如Microsoft Tay中毒,Proofpoint规避攻击以及其他攻击。东方票务网

“对抗性机器学习威胁矩阵将……帮助安全分析师进行整体思考。虽然学术界正在着手研究特定漏洞,但仍在进行出色的工作,但重要的是要考虑这些因素之间的关系,”负责MITRE决策科学研究计划的Mikel Rodriguez在一份声明中说。“此外,通过提供不同漏洞的通用语言或分类法,威胁矩阵将促进组织之间更好的沟通和协作。”

微软和MITER表示,他们将通过GitHub征求社区的意见,GitHub现已推出Adversarial ML威胁矩阵。研究人员可以提交研究报告,详细说明破坏在Amazon Web Services,Microsoft Azure,Google Cloud AI或IBM Watson上运行或嵌入在客户端或边缘设备中的机器学习系统的机密性,完整性或可用性的漏洞。微软说,那些提交研究的人将保留共享和重新发表他们的工作的许可。东方票务网

“我们认为保护机器学习系统是一个信息安全问题,” Microsoft Azure工程师Ram Shankar Siva Kumar和公司副总裁Ann Johnson在博客中写道。“对抗性ML威胁矩阵的目的是在安全分析人员可以将自己定位于这些新的和即将到来的威胁的框架中,将对机器学习系统的攻击定位...针对安全分析人员和更广泛的安全社区:矩阵和案例研究旨在帮助制定保护和检测策略;该框架引发了对机器学习系统的攻击,因此他们可以在组织中认真进行类似的练习并验证监视策略。”

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自Microsoft和MITER发布框架可帮助抵御对抗性AI攻击-东方票务网

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]