Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,370,463字

该文章投稿至Nemo社区   资讯  板块 复制链接


阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

发布于 2024/11/12 16:06 58浏览 0回复 763

IT之家 11 月 12 日消息,阿里通义千问今日开源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成为目前 SOTA 的开源代码模型,官方号称代码能力追平 GPT-4o。

Qwen2.5-Coder-32B-Instruct 作为本次开源的旗舰模型,在多个流行的代码生成基准(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了开源模型中的最佳表现,官方称达到和 GPT-4o 有竞争力的表现。

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 许可证,3B 模型使用 Research Only 许可。

IT之家附相关链接如下:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/809/989.htm]

本文标签
 {{tag}}
点了个评