在 NCSA 和纳斯达克网络安全峰会上,三位网络安全专家解释了如何利用人工智能和机器学习来规避网络安全防御,并使攻击更快、更高效。
国家网络安全联盟执行董事 Kelvin Coleman 于 10 月 6 日星期二主持了这次对话,作为可用安全:影响和衡量人类行为变化的一部分。
美国国家标准与技术研究所信息技术实验室主任 Elham Tabassi 是“网络安全的人工智能和机器学习:好的、坏的和丑陋的”会议的小组成员之一。
塔巴西说:“攻击者可以使用人工智能来逃避检测,隐藏在无法被发现的地方,并自动适应反措施。”
Digital Guardian 首席信息安全官蒂姆·班多斯 (Tim Bandos) 表示,网络安全始终需要人类的智慧来建立强大的防御并阻止攻击。
“人工智能是助手,安全分析师和威胁猎手是超级英雄,”他说。
以下是人工智能和机器学习在网络安全攻击中使用的三种方式。
数据中毒
塔巴西表示,不良行为者有时会针对用于训练机器学习模型的数据。 数据中毒旨在操纵训练数据集来控制训练模型的预测行为,从而诱骗模型执行错误,例如将垃圾邮件标记为安全内容。
数据中毒有两种类型:针对机器学习算法可用性的攻击和针对其完整性的攻击。 研究表明,3% 的训练数据集中毒会导致准确率下降 11%。
通过后门攻击,入侵者可以向模型设计者不知道的算法添加输入。 攻击者使用该后门让机器学习系统在某个字符串可能携带不良数据时将其错误分类为良性。
塔巴西说,毒害数据的技术可以从一种模型转移到另一种模型。
“数据是机器学习的血液和燃料,我们应该像关注模型一样关注我们用来训练模型的数据,”她说。 “用户信任度受到模型、训练质量以及训练数据的影响。”
Tabassi 表示,行业需要标准和指南来确保数据质量,NIST 正在制定可信赖人工智能的国家指南,包括解决准确性、安全性、偏见、隐私和可解释性的高级指南和技术要求。
生成对抗网络
生成对抗网络(GAN)基本上是两个相互竞争的人工智能系统——一个模拟原始内容,另一个发现其错误。 通过相互竞争,他们共同创造出足以令人信服的内容,足以被视为原创。
正如 Stephanie Condon 在 ZDNet 上解释的那样,Nvidia 研究人员训练了一种独特的 AI 模型,只需观察几个小时的游戏时间即可重新创建 PAC-MAN,无需使用游戏引擎。
Bandos 表示,攻击者正在使用 GAN 来模仿正常的流量模式,转移人们对攻击的注意力,并快速查找和泄露敏感数据。
“凭借这些功能,他们可以在 30-40 分钟内进出,”他说。 “一旦攻击者开始利用人工智能和机器学习,他们就可以自动化这些任务。”
GAN 还可以用于密码破解、逃避恶意软件检测和欺骗面部识别,正如 Thomas Klimek 在论文《生成对抗网络:它们是什么以及我们为什么应该害怕》中所描述的那样。 由机器学习研究人员构建的 PassGAN 系统接受了行业标准密码列表的训练,最终能够比在同一数据集上训练的其他几个工具猜测更多的密码。 除了生成数据之外,GAN 还可以创建可以逃避基于机器学习的检测系统的恶意软件。
班多斯表示,网络安全中使用的人工智能算法必须经常重新训练,以识别新的攻击方法。
“随着对手的发展,我们也必须发展,”他说。
他以混淆为例,例如恶意软件大部分是用合法代码构建的。 机器学习算法必须能够识别其中的恶意代码。
操纵机器人
小组成员、VMware Carbon Black 高级网络安全策略师 Greg Foss 表示,如果人工智能算法正在做出决策,它们可能会被操纵做出错误的决定。
“如果攻击者了解这些模型,他们就可以滥用这些模型,”他说。
福斯描述了最近对机器人运行的加密货币交易系统的攻击。
“攻击者进入并弄清楚机器人如何进行交易,然后他们使用机器人来欺骗算法,”他说。 “这可以应用于其他实现。”
福斯补充说,这项技术并不新鲜,但现在这些算法正在做出更明智的决策,这增加了做出错误决策的风险。