完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
在研究了高性能处理从云端到网络边缘的转变如何使物联网(IoT)蓬勃发展,并因此在本博客文章中为人工智能奠定了基础之后,还有一个需要AI的方面需要我们全神贯注:人工智能的进步与网络威胁的发展密切相关。
每隔一秒,就会发现五种新的恶意软件变种。全球各地的组织每小时都会受到100次以前未知的恶意软件攻击。每天,在连接的世界中出现一百万个新的恶意文件。随着越来越多的设备和系统连接到网络,网络犯罪已经成为我们技术资产和整个社会安全的日益严重的威胁。 机器学习被证明是一把双刃剑:虽然ML使行业级恶意软件检测程序能够更有效地工作,但很快就会被不良行为者用来增强攻击的攻击能力。事实上,阿姆斯特丹大学的一组研究人员最近证明了这一点是如何起作用的。在他们的侧通道攻击中,泄漏了CPU的转换后备缓冲区(TLB)中的信息,白帽黑客使用新颖的机器学习技术来训练他们的攻击算法并将其提升到新的性能水平。他们相信机器学习技术将提高未来侧通道攻击的质量。 为了防止新的,有效的AI和ML技术的出现改变权力平衡,我们必须关注如何利用人工智能来提高系统安全性和数据隐私。 ML如何增加系统安全性基于ML的安全性的一个很好的例子是异常检测,其中系统“检测”数据流中的异常行为或模式。过去,此过程已经常规应用于垃圾邮件和恶意软件检测,但机器学习可以扩展到在系统中寻找更微妙和复杂的异常行为。虽然监控和防范外部威胁对于有效的系统防御至关重要,但很少有组织了解内部威胁。在埃森哲2016年的一项调查中他们发现,三分之二的被调查组织成为组织内部数据被盗的受害者。在这些情况下,91%的人报告他们没有有效的检测方法来识别这种类型的威胁。机器学习可以显着帮助开发有效的实时分析和异常检测功能,以检测和消除系统内基于用户的威胁。 保护隐私的机器学习很容易识别AI的数据提供者在训练阶段或推理阶段不希望提供不受保护的数据的应用程序。随着新的欧盟通用数据保护条例(GDPR)自2018年5月25日起生效,任何处理欧盟公民数据的企业都必须享有隐私保护,违规行为可能导致巨额罚款。 在工业环境中也存在应用,其中数据隐私对于系统提供商是至关重要的。例如,在预测性维护中,机器数据用于确定在役设备的状况,以精确地预测何时应该进行维护。这种方法可以节省大量成本通过例行或基于时间的预防性维护,因为任务仅在需要时执行,并且有希望在系统故障之前执行。参与该服务的机器所有者明确意图从生成的数据中受益,但是,他们也非常有兴趣不与使用相同机器的竞争对手共享其数据。这使维护服务提供商陷入两难境地。关键问题是:企业如何继续尊重隐私问题,同时仍然允许使用大数据来推动业务价值? 使用同态加密,计算中使用的任何数据都保持加密形式,并且只有目标用户可见。计算结果 - 一旦解密 - 匹配应用于明文的相同计算的结果。此外,NXP使用的基于属性的身份验证基于IBM®Research开发的Identity Mixer协议。它依赖于灵活公钥(假名)和灵活凭证的组合,允许用户仅共享特定交易所需的信息,而不会泄露任何其他属性。 优势显而易见:“互联网就像月球表面 - 它永远不会忘记足迹。通过Identity Mixer,我们可以将它变成沙滩,定期清洗掉所有东西,“ Identity Mixer的密码学家兼共同发明人Jan Camenisch说。 攻击机器学习:在训练时攻击即使在ML的第一阶段,当收集训练数据并将其输入ML模型时,也可能发生攻击。为了防止改变数据或操纵ML模型的结果,典型的应用是根据用户发送的数据训练的异常检测工具。如果用户通过故意发送不正确的输入来“中毒”训练数据,则这可能导致在推理时间下机器学习模型的性能较差或甚至失败。 推理时的攻击:对抗性的例子在推理阶段也必须保证用户的隐私。当对私人或敏感数据进行推断时,这尤其重要。用户也可以是攻击者。作为攻击手段,用户可以使用所谓的对抗性示例。对抗性示例是有效的输入数据,它将导致机器学习模型误解。例如,如果我们在安全危急情况下考虑道路标志分类,这种看似良性的攻击可能会造成灾难性后果。 通过在停止标志上附加一个特制的贴纸,研究人员已经证明他们可以欺骗图像分类器误解或根本不识别标志。虽然标志显示为人眼的常规停止标志,但机器学习模型无法看到它。对抗性例子的概念并不新鲜。最新的是它们后果的严重性,例如在停车标志对抗示例中撞毁自动驾驶汽车。 ML即服务:知识产权保护机器学习模型的价值主要在于相关的数据集。收集或难以获得培训数据可能非常昂贵。当机器学习作为服务提供时,用户只能访问模型的输入和输出。例如,在图像分类器的情况下,用户提交图像并返回其类别。用户可能很想制作模型本身的副本以避免为将来的使用付费。可能的攻击是在所选输入数据上查询服务,获得相应的输出,并训练如此获得的数据集以获得功能相同的模型。 为什么现在是时候检查你的防御机制了在恩智浦,我们构建了一些世界上最先进的安全设备。我们在其中创建对策,以保护它们免受各种逻辑和物理攻击,例如侧通道或模板攻击。黑客依赖AI从安全系统中提取秘密和关键信息只是时间问题,因为它只会增强他们的“学习”能力。 为了应对这些不断演变的威胁,AI的影响必须成为物联网系统安全的一个组成部分。如果AI机器学习模型的培训和推理不会成为未来对手的一扇门,那么必须从一开始就考虑设计安全和设计原则隐私。幸运的是,AI领域应用从物联网安全中学到的经验教训还为时不晚。如果我们在设计未来的基础设施和设备时牢记这一点,那么AIoT就拥有改变我们生活的力量。我们将把未来的黑匣子变成一个明亮的盒子。 |
|
相关推荐 |
|
只有小组成员才能发言,加入小组>>
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-12-21 23:42 , Processed in 0.510448 second(s), Total 68, Slave 49 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号