Pinterest 通过构建包含领域专用服务器、中心注册表及人工审批机制的生产级 MCP 生态系统,实现了 AI 智能体对内部工具的安全集成,每月节省约 7000 工时。
📝 详细摘要
本文详细介绍了 Pinterest 如何在生产环境中落地模型上下文协议(MCP)。该架构弃用了单体服务,转而采用面向 Presto、Spark 等特定领域的云托管 MCP 服务器,以减少上下文膨胀并增强隔离性。核心组件包括一个中心注册表,用于服务发现与治理。为了平衡自动化与安全,Pinterest 引入了双层授权模型及针对敏感操作的人工审批流程。截至 2025 年初,该系统已显著提升研发效率,月调用量突破 6.6 万次,为企业级 AI 自动化提供了可规模化的落地范例。
💡 主要观点
- 采用领域专用 MCP 服务器架构而非单体服务。 通过为 Presto、Spark 或 Airflow 等特定领域构建独立服务器,有效抑制了 LLM 的上下文膨胀,实现了工具隔离并支持细粒度的访问控制。
💬 文章金句
- 我们采用内部云托管、通过中心注册表连接多个领域专有 MCP 服务器,构建了一个灵活且安全的 AI 智能体底层架构。
- 这种面向特定领域的设计能够有效抑制上下文膨胀,实现工具隔离,并支持细粒度的访问控制。
- 截至 2025 年 1 月,MCP 服务器月调用量达 66000 次,覆盖 844 名活跃用户,每月可节省约 7000 工时。
📊 文章信息
AI 评分:87
来源:InfoQ 中文
作者:InfoQ 中文
分类:人工智能
语言:中文
阅读时间:7 分钟
字数:1513
标签: MCP, AI Agent, 系统架构, 研发效能, 生产级部署