IT之家 9 月 25 日消息,阿里云今日宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型 Qwen-14B-Chat,免费可商用。
IT之家注:阿里云此前已经开源了 70 亿参数模型 Qwen-7B,一个多月下载量破 100 万。
通过阿里云给出的数据来看,Qwen-14B 在多个权威评测中超越同等规模模型,部分指标甚至接近 Llama2-70B。
据介绍,Qwen-14B 是一款支持多种语言的高性能开源模型,整体训练数据超过 3 万亿 Token,具备更强的推理、认知、规划和记忆能力,最大支持 8k 的上下文窗口长度。
相对的,Qwen-14B-Chat 则是在基座模型上经过精细 SFT 得到的对话模型,可带来更准确的内容,也更符合人类偏好,而且在内容创作的想象力和丰富度方面也有扩展。
今日起,用户可从阿里魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用 Qwen-14B 和 Qwen-14B-Chat。
阿里云 CTO 周靖人表示,阿里云将持续拥抱开源开放,推动中国大模型生态建设。阿里云笃信开源开放的力量,率先开源自研大模型,希望让大模型技术更快触达中小企业和个人开发者。
模型零代码创空间体验地址:
https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo
环境配置与安装
python 3.8 及以上版本
pytorch 1.12 及以上版本,推荐 2.0 及以上版本
建议使用 CUDA 11.4 及以上(GPU 用户需考虑此选项)
使用步骤
注:PAI-DSW 的环境配置下运行 (可单卡运行, 显存最低要求 11G)。
Qwen-14B-Chat 模型链接:
https://modelscope.cn/models/qwen/Qwen-14B-Chat
Qwen-14B 模型链接:
https://modelscope.cn/models/qwen/Qwen-14B
Qwen-14B-Chat-Int4 模型链接:
https://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4
社区支持直接下载模型的 repo:
from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/721/483.htm]