IT之家 11 月 27 日消息,浪潮信息今日发布了“源 2.0”基础大模型,并宣布全面开源。源 2.0 基础大模型包括 1026 亿、518 亿、21 亿等三种参数规模的模型。
据介绍,源 2.0 通过使用中英文书籍、百科、论文等高质量中英文资料,降低了互联网语料内容占比。为了获取中文数学数据,浪潮信息清洗了从 2018 年至今约 10PB 的互联网数据,但仅获取到了约 10GB 的数学数据。
为了更高效地获得相对匮乏的高质量中文数学及代码数据集,源 2.0 采用了基于大模型的数据生产及过滤方法,在保证数据的多样性的同时也在每一个类别上提升数据质量。
算力方面,源 2.0 采用了非均匀流水并行的方法,综合运用流水线并行 + 优化器参数并行 + 数据并行的策略,让模型在流水并行各阶段的显存占用量分布更均衡,避免出现显存瓶颈导致的训练效率降低的问题。
源 2.0 在评测上进行了代码生成、数学问题求解、事实问答方面的能力测试,测试结果显示,源 2.0 整体表现处于中上水平。
源 2.0 采用全面开源策略,全系列模型参数和代码均可免费下载使用。IT之家附 GitHub 页面和论文链接:
代码开源链接:
https://github.com/IEIT-Yuan/Yuan-2.0
论文链接:
https://github.com/IEIT-Yuan/Yuan-2.0/blob/main/docs/Yuan2.0_paper.pdf
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/735/345.htm]