新闻资讯
花400美元训练自己的编程AI,开源方案改写巨头规则
过去一年,AI编码智能体彻底改写了软件开发的游戏规则——当针对Django和SymPy等大型开源项目进行专业化训练后,仅用8,000个样本、1,300美元成本微调的SERA-32B,竟然在多项任务上超越了其老师,拥有1100亿参数的GLM-4.5-Air。
开源代码训练自己的编程助手
上一年,AI编程工具使开发者效率显著提高,然而,最厉害的编码智能体全被科技巨头紧紧把控。训练一个顶尖编程模型动不动就要上百万美元,普通公司以及开发者根本承担不起。更棘手的是,这些闭源模型不能适配企业的私有代码库,数据安全问题也令许多公司不敢涉足。
2026年4月,艾伦人工智能研究院也就是AI2,发布了OpenSERA项目,这一发布使得局面被彻底改变,他们将全系列模型开源,这些模型参数从8B到32B,并且开源了完整的训练方法,当下,任何开发者只需两行代码,就能启动推理服务器,从而在自己电脑上去运行编程智能体。
数百美元就能达到顶尖水平
依据AI2所公布的测试数据,运用OpenSERA的方法去训练一个编程智能体,其最低仅仅需要大约400美元的计算成本。要是想达成与32B参数顶级模型相类似的性能,其最高也仅仅需要12000美元,这等同于40个GPU日的训练量。这便意味着用一个GPU去跑40天,或者是用两个GPU去跑20天。
于标准的SWE - Bench编码测试里,OpenSERA的32B模型于64K上下文长度时达成了54.2%的解决率,此成绩超越了所有同规模的开源模型,证实了低成本训练产生的模型性能并非不佳。
小模型在特定任务上超越大模型
更让人意想不到的是,等到OpenSERA针对特定代码库开展专业化训练之后,小模型居然能够战胜大模型。研究团队运用8000个训练样本以及1300美元的成本,对一个32B参数的SERA模型进行了微调。在Django和SymPy等大型开源项目的多项任务方面,这个模型超过了拥有1100亿参数的GLM-4.5-Air模型。
首先,这个结果把很多人觉得参数越大便越好这样的认知给颠覆了。其次,模型规模可不是决定性能的唯一因素,对于高质量、并且有针对性的训练数据来讲,其能够让小模型在特定领域展现出出色表现。最后,企业不需要再去追逐千亿参数的巨无霸模型了。
软验证技术大幅降低训练成本
传统方法训练编程智能体成本高昂,原因在于要精确验证每个代码补丁精确与否,此过程计算量极大,成为大规模应用的阻碍,AI2团队发现,如同不同代码可达成同样功能,部分正确的代码补丁同样可为训练出强大的模型供能。
他们给出了软验证办法,不去谋求各个样本的全然正确性,而是捕获开发者的思维进程。团队借由系统实验证实,软验证数据跟完全验证数据于训练成效上具备类似规律,然而生成成本却显著降低。研究者能够将资源聚焦于增添数据量以及多样性上面。
模拟开发者工作流程生成数据
就具体操作而言,OpenSERA运用教师模型并结合错误指令集,于目标代码库之上自动生成两轮数据。其中第一轮是模拟开发者去引入错误,第二轮是模拟代码审查以及修复。该系统并非验证第二轮生成的补丁是不是绝对正确,而是借助计算新旧补丁的重叠度来对质量予以衡量。
采用这种方式所模拟的,是开发者从发现问题开始,进而分析问题,最终解决问题的一整个完整思维链,并非仅仅是记住正确的代码片段而已。SERA项目负责人宣称,软验证所捕捉到的,是开发者的思维过程,并非单纯的代码正确性。如此一来,便使得从任何私有代码库能够大规模、低成本地生成训练数据成为了可能。
企业可构建专属私有编程智能体
在消费级硬件下可运行的优化后的SERA,企业无需担忧数据泄漏至云端,有一个充分懂得特定代码库的小模型,完全能够战胜通用的巨无霸模型,企业仅需使用三分之一参数规模的模型,便可获取更好的编程成效,同时享有更少的内存占用以及更快的推理速度。
SERA所展露出的,是小模型与高质量数据相结合的技术路径,此路径降低了对极端算力资源的依赖程度。当下企业能够去构建理解自身代码库的智能体,而非致力于让通用模型去适配自身那种特定需求。犹如Linux开创了操作系统的开源时期,SERA有极大可能开创编码智能体的开源时期。最为强大的AI工具不应被封闭在科技巨头的服务器当中,而是该掌握在每一位开发者的手里。
你认为企业究竟是应当优先去挑选开源编程智能体进而自行开展训练呢,还是直接去购置闭源商业产品呢,会比较好?欢迎来到评论区去分享出你的看法点个赞,以便让更多的开发者能够看到这个低成本的方案。



