在编程领域,同行反馈对于及早发现漏洞、维护代码库一致性和提升整体软件质量至关重要。
"氛围编程"的兴起改变了开发者的工作方式——这种方式使用AI工具,接受自然语言指令并快速生成大量代码。尽管这些工具加速了开发进程,但也带来了新的漏洞、安全风险和难以理解的代码。
Anthropic的解决方案是一款AI审查员,旨在在漏洞进入软件代码库之前将其识别出来。这款名为Code Review的新产品于周一在Claude Code中推出。
"我们看到Claude Code的大幅增长,特别是在企业领域,企业领导者不断向我们提出的问题是:既然Claude Code产生了大量拉取请求,我如何确保这些请求得到高效审查?"Anthropic产品负责人Cat Wu告诉TechCrunch。
拉取请求是开发者在代码变更进入软件之前提交代码更改以供审查的机制。Wu表示,Claude Code显著增加了代码输出,这增加了拉取请求审查的工作量,造成了代码发布的瓶颈。
"Code Review就是我们对这个问题的答案,"Wu说。
Anthropic推出Code Review——首先面向Claude for Teams和Claude for Enterprise客户的研究预览版——正值公司的关键时刻。
周一,Anthropic针对国防部将其指定为供应链风险向该机构提起了两项诉讼。这场争议可能会让Anthropic更加依赖其蓬勃发展的企业业务,该业务的订阅量自年初以来增长了四倍。据公司称,Claude Code的运行收入率自推出以来已超过25亿美元。
"这款产品非常针对我们的大型企业用户,比如优步、Salesforce、埃森哲等已经使用Claude Code的公司,现在需要帮助处理它产生的大量拉取请求,"Wu说。
她补充说,开发主管可以开启Code Review,让它默认为团队中的每个工程师运行。启用后,它与GitHub集成,自动分析拉取请求,直接在代码上留言,解释潜在问题并建议修复方法。
Wu表示,重点是修复逻辑错误而不是风格问题。
"这非常重要,因为许多开发者之前见过AI自动反馈,当反馈不能立即采取行动时他们会感到困扰,"Wu说。"我们决定纯粹关注逻辑错误。这样我们就能捕捉到最高优先级的修复内容。"
AI会逐步解释其推理过程,概述它认为的问题、为什么可能有问题以及如何潜在地修复。系统将使用颜色标记问题的严重程度:红色表示最高严重程度,黄色表示值得审查的潜在问题,紫色表示与预先存在的代码或历史漏洞相关的问题。
Wu表示,通过依赖并行工作的多个智能体来快速高效地完成这项工作,每个智能体从不同的角度或维度检查代码库。最终的智能体汇总并排序发现的问题,去除重复并优先处理最重要的内容。
该工具提供轻量级安全分析,工程负责人可以根据内部最佳实践自定义额外检查。Wu表示,Anthropic最近推出的Claude Code Security提供了更深入的安全分析。
多智能体架构意味着这可能是一个资源密集型产品,Wu说。与其他AI服务类似,定价基于Token,成本因代码复杂性而异——尽管Wu估计每次审查平均成本为15到25美元。她补充说,这是一种高端体验,随着AI工具生成越来越多的代码,这种体验是必要的。
"Code Review来自市场的巨大需求,"Wu说。"当工程师使用Claude Code开发时,他们看到创建新功能的摩擦减少了,对代码审查的需求大大增加。所以我们希望通过这个工具,能够让企业比以往任何时候都更快地构建,并且比以往任何时候都有更少的漏洞。"
Q&A
Q1:Code Review是什么?它能做什么?
A:Code Review是Anthropic推出的AI代码审查工具,它能在代码进入软件库之前自动识别漏洞。该工具与GitHub集成,自动分析拉取请求,直接在代码上留言解释潜在问题并建议修复方法,重点关注逻辑错误而非风格问题。
Q2:Code Review如何工作的?
A:Code Review依赖多个智能体并行工作,每个智能体从不同角度检查代码库。最终的智能体汇总并排序发现的问题,去除重复并优先处理重要内容。系统用颜色标记问题严重程度:红色为最高严重程度,黄色为潜在问题,紫色为历史漏洞相关问题。
Q3:使用Code Review需要什么条件?成本如何?
A:Code Review首先面向Claude for Teams和Claude for Enterprise客户提供研究预览版,特别针对大型企业用户如优步、Salesforce等。定价基于Token,成本因代码复杂性而异,平均每次审查成本估计为15到25美元。