GitHub 正在引入 AI 驱动的安全检测功能,以补充 CodeQL,将漏洞覆盖范围扩展至 Shell、Docker 和 Terraform 等语言,并集成在拉取请求(Pull Request)工作流中。
📝 详细摘要
GitHub 宣布通过将 AI 驱动的检测功能集成到 GitHub Code Security 中,扩展其应用安全能力。虽然 CodeQL 仍然是核心语言深度语义分析的标准,但这种新的混合模型利用 AI 来发现传统静态分析难以覆盖的生态系统中的漏洞,例如 Shell/Bash、Dockerfile、Terraform (HCL) 和 PHP。该系统直接集成到拉取请求中,并与 Copilot Autofix 配对以建议修复方案,将平均修复时间从 1.29 小时显著缩短至 0.66 小时。这一举措是 GitHub 更广泛的智能体检测平台的一部分,旨在代码合并前强制执行安全成果。
💡 主要观点
- 混合检测结合了 CodeQL 的精确性和 AI 的灵活性。 通过将传统静态分析与 AI 相结合,GitHub 现在可以检测到基础设施即代码(IaC)和脚本语言中以前难以进行语义分析的漏洞。
💬 文章金句
- 这种混合检测模型有助于在拉取请求工作流中直接向开发人员呈现漏洞及其建议的修复方案。
- 早期结果显示,通过 AI 驱动的检测功能,新支持的生态系统(包括 Shell/Bash、Dockerfile、Terraform 配置 (HCL) 和 PHP)获得了强大的覆盖能力。
- 它在 2025 年修复了超过 46 万个安全警报,平均解决时间达到 0.66 小时,而没有使用 Autofix 时为 1.29 小时。
📊 文章信息
AI 评分:87
来源:The GitHub Blog
作者:Marcelo Oliveira
分类:人工智能
语言:英文
阅读时间:3 分钟
字数:620
标签: GitHub, 应用安全, AI 驱动检测, CodeQL, Copilot Autofix