2023年最需要注意的九大安全威胁( 三 )


5、操纵AI大模型——未来新威胁大模型安全一直是饱受网安行业的关注与重视 。在2023年欧洲黑帽大会上,康奈尔大学的研究人员将展示他们开发的一种攻击,该攻击利用图像和声音向多模态LLM注入指令,导致模型输出攻击者指定的文本和指令 。他们的概念验证攻击示例针对的是PandaGPT和LLaVa多模态LLM 。
研究人员在一篇题为“滥用图像和声音进行多模态LLM中的间接指令注入”的论文中写道:“攻击者的目标是引导用户与多模态聊天机器人之间的对话 。”为此 , 攻击者将提示融入图像或音频片段,并操纵用户询问聊天机器人有关它的问题 。
例如,研究人员将一条指令混合到在线可用的音频片段中 , 导致PandaGPT响应攻击者特定的字符串 。如果用户将音频片段输入聊天机器人 , 并要求描述声音,模型的响应将指导用户访问一个恶意URL 。
一个最近的例子是谷歌DeepMind和六所大学的研究人员进行的一项研究 , 该研究表明,通过简单地引导ChatGPT重复某些单词,如“诗歌”和“公司”,可以操纵ChatGPT重复大量其训练数据——包括敏感和个人身份信息 。
5月,德国萨尔兰大学CISPA亥姆霍兹信息安全中心和Sequire Technology的研究人员发表了一份报告,描述了攻击者如何通过将隐藏的提示注入模型在响应用户输入时可能检索的数据中来利用LLM模型 。研究人员得出结论:“LLM功能的易扩展性通过自然提示可以实现更直接的攻击策略 。
6、网络钓鱼——AI加持虽然AI被限制“作恶”,但在各路大神的操作下,“越狱”已经不是一件很困难的事情 。此外,还有不少专门被用于“网络犯罪”的AI大模型问世,其中比较有名的“邪恶GPT”版本是WormGPT和FraudGPT,两者都能快速实现钓鱼邮件骗局 。
IBM 的一项新研究表明,当前的生成式人工智能 (AI) 模型已经非常擅长编写看似高度可信的网络钓鱼电子邮件,并且可以为攻击者节省大量时间 。
在IBM针对一家未透明名称的全球医疗保健公司1600 名员工进行的测试中,各有一半的员工分别收到了来自由真人和AI编写的钓鱼邮件,结果显示,14% 的员工误入了真人编写的钓鱼电子邮件并点击了恶意链接,11% 的员工则陷入了由AI大模型编写的钓鱼邮件 。
这意味着,在网络钓鱼攻击领域,AI和真人的差距已经比较小 。但在入门容易度/可操作性/成本方面有着天差地别 。而且AI大模型正在不断学习进步,例如WormGPT生成的邮件不仅极具说服力,而且策略十分巧妙 , 充分展示了其在进行复杂性网络钓鱼和BEC攻击方面的能力 。
现在的生成式AI技术已经能够完美地排除掉这些传统钓鱼邮件的识别特征 。更可怕的是可怕的是 , 避免语言错误只是生成式AI在钓鱼邮件上展现的基本技能,更强的欺诈和混淆能力更为致命 。
8月 , 国际安全研究团队Perception Point与Osterman Research公司联合发布了名为《人工智能在电子邮件安全中的作用》的报告,揭示了网络犯罪分子如何利用AI来增加和复杂化电子邮件威胁(如网络钓鱼和BEC攻击)的惊人趋势,并指出网络罪犯正在迅速采用AI工具以推动其利益,而有91.1%的组织称他们已遭受到了被AI增强的电子邮件攻击 。
7、零日漏洞——武器商的生意随着企业安全体系建设日益完善,零日漏洞已经成为黑客/攻击者手中必不可少的武器之一 。2023年,个人感受对于零日漏洞的利用越来越频繁,且往往出手就是王炸,针对一系列的企业发起网络攻击或勒索攻击 。
据Dragos发布的报告显示,零日漏洞和已知的未修补漏洞是勒索软件组织2023年三季度高度依赖的最新技术 。与2023第二季度相比,Cl0p勒索软件受害者暴增了340% 。这可能是由于Cl0p在操作中使用的MOVEit零日漏洞造成的 。Cl0p勒索软件组织通过大规模MOVEit数据盗窃活动勒索受害者,赚取了近亿美元 。Dragos预测,在2023年四季度,尝到甜头的勒索软件组织会继续在其攻击活动中优先考虑零日漏洞 。
零日漏洞利用代码方面的交易日渐庞大,目标客户不仅是网络犯罪分子 , 还有国家政府和NSO Group之类的公司,NSO在其Pegasus软件中使用零日漏洞利用代码 , 让客户可以访问觊觎的移动设备 。
零点击漏洞利用代码可以在最终用户不知情的情况下部署,是最受追捧的工具 , 但单点击漏洞(比如显然由Intellexa兜售的漏洞)也很受欢迎,如果它们可以用来攻击IOS和Android/ target=_blank class=infotextkey>安卓等常见的操作系统,那就更吃香了 。


推荐阅读