开发者平台GitLab今天宣布了一项新的 AI 驱动的安全功能,该功能使用大型语言模型向开发人员解释潜在的漏洞,并计划在未来扩展它以使用 AI 自动解决这些漏洞。
本月早些时候,该公司宣布了一个新的实验性工具,可以向开发人员解释代码——类似于 GitLab 宣布的新安全功能——以及一个新的实验性功能,可以自动总结问题评论。在这种情况下,还值得注意的是,GitLab 已经推出了一个代码完成工具,现在可供GitLab Ultimate 和 Premium 用户使用,并且去年还推出了基于 ML 的建议审阅者功能。
新的“解释此漏洞”功能将尝试帮助团队找到在代码库上下文中修复漏洞的最佳方法。正是这种背景使这里有所不同,因为该工具能够将有关漏洞的基本信息与来自用户代码的特定见解结合起来。这应该可以更轻松、更快速地修复这些问题。
该公司将其添加 AI 功能背后的总体理念称为“带护栏的速度”,即由公司的全栈 DevSecOps 平台支持的 AI 代码和测试生成的组合,以确保 AI 生成的任何内容都可以安全部署。
GitLab 还强调,其所有 AI 功能都是在考虑隐私的情况下构建的。“如果我们 要 触及我们的 知识产权 , 即 代码 ,我们只会将其发送到GitLabs或GitLab云架构中的模型,” GitLab CPO David DeSanto告诉我。“这对我们很重要的原因——这可以追溯到企业DevSecOps——是我们的客户 受到 严格 监管。 我们的 客户通常 非常 注重安全性和合规性,我们知道我们无法构建需要 我们将其发送给第三方AI的代码建议解决方案。” 他还指出,GitLab 不会使用其客户的私人数据来训练其模型。
DeSanto 强调,GitLab 的 AI 计划的总体目标是将效率提高 10 倍——不仅是单个开发人员的效率,而且是整个开发生命周期的效率。正如他正确指出的那样,即使您可以将开发人员的工作效率提高 100 倍,但下游审查代码并将其投入生产的低效率很容易抵消这一点。
“如果 开发 占 生命周期的20% ,即使我们提高了50 %的效率,您也不会真正感受到它,”DeSanto 说。“现在,如果我们让安全团队、运营团队和合规团队也更有效率,那么作为一个组织,你就会看到它。”
领取专属 10元无门槛券
私享最新 技术干货