← 回總覽

AI 智能体凭证与不可信代码共存于同一环境:两种新架构揭示了爆炸半径的真正边界。

📅 2026-04-11 06:26 Louis Columbus 人工智能 2 分鐘 1347 字 評分: 88
AI 智能体 零信任 网络安全 Anthropic Nvidia
📌 一句话摘要 本文分析了单体 AI 智能体架构的安全风险,并评估了两种新兴的零信任方案——Anthropic 的 Managed Agents 和 Nvidia 的 NemoClaw,重点探讨了凭证隔离、可观测性和爆炸半径缓解机制。 📝 详细摘要 随着 AI 智能体的部署速度超过安全治理能力,行业正面临“单体智能体问题”,即推理、代码执行和凭证共享同一个脆弱的环境。本文研究了旨在解决该问题的两种新架构:Anthropic 的 Managed Agents,它通过结构化解耦“大脑”与“手”(执行端),将凭证隔离在外部保险库中;以及 Nvidia 的 NemoClaw,它采用了多层内核级沙箱

📌 一句话摘要

本文分析了单体 AI 智能体架构的安全风险,并评估了两种新兴的零信任方案——Anthropic 的 Managed Agents 和 Nvidia 的 NemoClaw,重点探讨了凭证隔离、可观测性和爆炸半径缓解机制。

📝 详细摘要

随着 AI 智能体的部署速度超过安全治理能力,行业正面临“单体智能体问题”,即推理、代码执行和凭证共享同一个脆弱的环境。本文研究了旨在解决该问题的两种新架构:Anthropic 的 Managed Agents,它通过结构化解耦“大脑”与“手”(执行端),将凭证隔离在外部保险库中;以及 Nvidia 的 NemoClaw,它采用了多层内核级沙箱和意图验证机制。作者强调,虽然两者都比现状有显著改进,但在处理凭证邻近性和状态持久性方面存在根本差异。文章最后为安全团队提供了一个评估智能体部署的实用审计框架,强调凭证隔离和会话恢复是生产级 AI 系统的关键因素。

💡 主要观点

- 单体智能体模式是一个重大的安全隐患。 标准的智能体容器将推理、工具执行和敏感凭证放在一起。单次提示词注入攻击就可能导致整个容器被攻破、凭证泄露以及横向移动。

Anthropic 的 Managed Agents 优先考虑结构化的凭证隔离。 通过将“大脑”与执行端的“手”分离,并使用外部保险库存储凭证,Anthropic 确保了即使沙箱被攻破,攻击者也无法获取可重用的令牌。
Nvidia 的 NemoClaw 专注于运行时可见性和基于策略的强制执行。 NemoClaw 使用内核级沙箱和意图验证来监控智能体行为。虽然它提供了卓越的可审计性,但需要更高的运维成本,且凭证比 Anthropic 模型更靠近执行环境。
间接提示词注入仍然是一个重大的、未解决的威胁。 这两种架构都无法完全缓解间接提示词注入攻击,即从工具返回的恶意数据在与执行环境相同的上下文中驻留时,会影响智能体的推理链。

💬 文章金句

- 这不仅仅是关于一次性身份验证然后让智能体自由运行的问题。而是要持续验证和审查智能体试图采取的每一个动作。

  • 将指令与执行分离是软件领域最古老的模式之一。微服务、无服务器函数和消息队列皆是如此。
  • Anthropic 将凭证完全从爆炸半径中移除。NemoClaw 则限制了爆炸半径并监控其中的每一个动作。
  • 部署速度与安全审批之间 65 点的差距,正是下一类安全漏洞的爆发点。

📊 文章信息

AI 评分:88

来源:VentureBeat

作者:Louis Columbus

分类:人工智能

语言:英文

阅读时间:7 分钟

字数:1749

标签: AI 智能体, 零信任, 网络安全, Anthropic, Nvidia

阅读完整文章

查看原文 → 發佈: 2026-04-11 06:26:54 收錄: 2026-04-11 08:00:31

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。