Anthropic对Claude Mythos Preview AI系统限制访问权限,早期测试发现大量安全漏洞
在对其最新AI系统Claude Mythos Preview的初步测试中,Anthropic公司发现该系统能够识别出数千个关键安全漏洞,覆盖了广泛使用的软件环境,随后该公司决定限制对这一系统的访问。
长期未修复的漏洞被曝光
测试结果表明,该模型在主流操作系统中发现了数十年的安全缺陷,涉及加密协议和网络应用等多个领域,其中大多数漏洞至今仍未得到修复。这款旨在通用目的的AI模型成功识别出了跨越主流操作系统和网页浏览器的关键漏洞,这引发了对此类能力在规模化应用时如何进行安全管理的紧迫问题。
Anthropic在一份声明中指出:“随着AI技术的快速发展,这类能力将迅速普及,甚至可能扩散到那些并未承诺安全部署的机构手中。”行业数据显示,预计到2025年,基于AI的网络攻击将增长72%,全球87%的组织都遭遇过AI驱动的安全事件。现在的担忧已从“这些工具是否会被用于攻击”转变为“它们以多快的速度突破受控环境”。
历史遗留问题令人震惊
内部研究发现,问题的严重程度超出了预期。Mythos Preview标记的许多漏洞多年来未被察觉,其中一些甚至可以追溯到数十年前。最引人注目的发现包括:在专注于安全性的OpenBSD操作系统中存在了27年的漏洞(现已修复),FFmpeg中潜伏了16年的缺陷,FreeBSD中长达17年的远程代码执行漏洞,以及Linux内核中的多个问题。
除了操作系统外,该模型还检测到TLS、AES GCM、SSH等广泛使用的加密标准中的薄弱环节。网络应用中发现了跨站脚本攻击、SQL注入、跨站请求伪造等多种漏洞类型,这些常被用于钓鱼攻击。
“已发现的漏洞中99%尚未修补,过早披露细节是不负责任的。”公司强调过早披露可能带来的风险。
双刃剑效应日益凸显
这种大规模检测零日漏洞的能力可能会改变软件安全领域的格局。过去发现此类问题需要专业知识和大量时间,而AI系统能够以更快的速度扫描大型代码库,加速漏洞的发现与响应。但若该技术落入不当使用者手中,滥用风险依然存在。
“保护全球网络基础设施的工作可能需要数年时间。”Anthropic表示,“从长远来看,我们预期防御能力将占据主导地位:世界将变得更加安全,软件防护更加坚固,这在很大程度上将得益于这些模型生成的代码。但过渡阶段必将充满挑战。”
目前,Mythos Preview的访问权限仍然受到严格控制,公司正重点与合作伙伴共同解决现有漏洞,以降低广泛部署可能带来的风险。
佳佳币资讯站