当前位置:首页 > 攻略秘籍 > Ai2发布了一批开源的AI开发代理工具,能够适配各类代码库

Ai2发布了一批开源的AI开发代理工具,能够适配各类代码库

文章来源:潮游速递网作者:admin发布时间:2026-02-15 21:45:13

人工智能的发展势头迅猛,正悄然改变着开发者的创作模式。代码的迭代流转速度日益加快,源源不断地汇入GitHub之类的代码库中,如今机器智能已能与人类展开协同合作。

根据艾伦人工智能研究所的观点,编码代理面临一个核心问题:多数为封闭性质,训练耗费高,且难以对其展开研究或适配私有代码库。为这一难题,该公司今日推出了Ai2开放编码代理,这是一套能让构建与训练自定义编码代理变得简便易行的工具。

该系列首次推出的版本名为SERA,全称是软验证高效代码库代理,它可以解决SWE-Bench验证问题中超过55%的任务,这一基准表现优于此前同等规模的开源模型。

SERA的各个组件均为开放性质,涵盖模型、代码以及与Anthropic PBC的Claude Code的集成部分。此外,它仅需一行代码即可启动运行。用户无需具备任何大型语言模型的训练经验。

在内部,SERA包含两个版本,分别是SERA-32B与SERA-8B。其中,SERA-32B是参数规模达320亿的模型,具备出色的SWE-bench验证性能表现:在标准配置下,它能解决约55%的相关问题,不仅优于Qwen3-Coder等多数开源模型,也超过了Mistral3的Devstral Small 2这类封闭模型。而SERA-8B作为拥有80亿参数的模型,在匹配的推理环境中,解决了29.4%的SWE-Bench验证问题,相比之下,强化学习基线的解决率仅为9.4%;以具体模型为例,采用Qwen 3 8B模型的SkyRL-Agent-8B-v0解决率为9.4%,SERA-8B则取得了更高的分数。

Ai2采用专门的模型,为每个代码库训练了8000条合成轨迹,其性能不仅持续与GLM-4.5-Air相当,还常常超越后者——而GLM-4.5-Air是一款参数规模超千亿、被用作教师模型的产品。

Ai2指出,一个尤其值得期待的成果是,规模更小的全开放模型能够复刻乃至超越更强大的“教师”编码代理的表现。凭借在特定代码库上实现的优势专业化,以及在320亿参数量级上的微调优化,SERA虽体积仅为部分千亿级通用模型的三分之一,却能在性能上超越它们。这在部署层面意味着更小的内存占用与更低的计算成本,从而在不损失质量的前提下显著降低了开销。

Ai2在普通云硬件上重现主要结果的总成本约为400美元,比市场上许多现有方法便宜约100倍。

公司方面解释道,此次发布涵盖了开发者与研究人员所需的全部内容,旨在帮助他们快速着手进行SERA的重现、测试与构建工作。具体包含基于两行代码的轻量级部署方案,可用于启动、部署和推理操作;此外还有配套的设置脚本以及推理优化机制,能让SERA与Claude Code协同运行。

Ai2方面表示,他们计划采用相同的方法来持续改进技术,并将其扩展至更大型的骨干网络。不过他们也强调,目前的流程已经具备成本低廉且易于实施的特点,任何人都能够对其进行运行、定制以及迭代优化。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之用,如有内容图片侵权或者其他问题,请联系本站作侵删。
  • 最新文章