7月15日的报道指出,随着生成式人工智能技术的广泛应用,其潜在的安全问题也愈发受到公众的关注。微软在2023年进行的一项研究揭示了一个令人担忧的趋势:黑客开始利用诸如微软Copilot和OpenAI ChatGPT等人工智能工具对毫无防范的用户实施网络钓鱼攻击。攻击者通过人工智能生成恶意软件来绕过微软Defender防护系统如今,网络攻击者变得愈发狡猾,不断推陈出新设计方案以规避复杂的安全系统,从而获取未经授权的敏感数据。最近几周,一些用户尝试诱导ChatGPT降低其安全限制,试图生成有效的Windows 10激活密钥作为骗局的一部分。尽管Windows用户熟悉微软Defender这一安全平台,它专门用于抵御各类网络攻击,但据Dark Reading报道,一家名为Outflank的安全研究机构计划在今年8月举行的“黑帽2025”网络安全大会上发布一种新型人工智能恶意软件。据悉,这款恶意软件能够绕过微软Defender for Endpoint所提供的防护功能。
Outflank首席进攻研发负责人凯尔・艾弗里透露,他花费约三个月时间开发了此人工智能恶意软件,同时投入1500至1600美元用于训练Qwen 2.5大型语言模型,使其具备绕过微软Defender防护系统的能力。此外,通过对OpenAI GPT模型及其最新旗舰推理模型o1的研究,他指出虽然GPT-4较GPT-3.5有显著提升,但o1模型在编程及数学复杂度方面表现尤为优异。
进一步分析表明,艾弗里采用了强化学习方法,将这一技术应用于提升人工智能模型在编程等多领域的能力。这一理论直接助力了恶意软件开发过程,使其得以绕过微软Defender防护的限制。然而,他也坦言由于大型语言模型主要依赖互联网数据进行训练,传统恶意软件样本非常稀缺,因此强化学习在此过程中发挥了关键作用。
艾弗里基于沙盒环境对Qwen 2.5 LLM进行了训练,让模型与安装了微软Defender for Endpoint的系统交互,并通过程序来评估人工智能生成规避工具的效能。他指出开发这类恶意工具并非轻而易举。初期阶段,模型成功生成有效恶意软件的概率极低,大约是千分之一。然而,通过持续迭代及奖励机制,模型逐渐稳定地生成能够运行且具规避能力的软件,而这些成果并不是借助展示具体样例达成的。为了进一步优化技术,他接入了一个API,使人工智能模型能够查询并检索由微软Defender生成的误报警示信息,从而更有效地开发出不会引发警报的规避型恶意软件。
最终,该团队取得预期成果,在生成能够有效绕过微软Defender高级防护方案的恶意软件时,成功率达到约8%。相比之下,Anthropic的Claude人工智能在类似测试中的成功率不到1%,而DeepSeek研发团队的R1模型则仅实现1.1%的成功率。随着人工智能技术带来的安全威胁日益增大,黑客手段愈发复杂化,这无疑对包括微软在内的企业构成重大考验。未来,他们极有可能强化现有安全解决方案,以应对这一不断演变的挑战。在当前这种紧张局势下,加大应对措施似乎成为唯一选择。
未经允许不得转载:模版窝 » 黑客正在利用人工智能生成恶意软件,这些恶意程序可以成功绕过微软 Defender 的安全防护系统。