Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,670,307字

该文章投稿至Nemo社区   资讯  板块 复制链接


Meta 发布 Llama 3.1 开源大语言模型:128K 上下文长度,405B 版可与 GPT-4o 和 Claude 3.5 Sonnet 媲美

发布于 2024/07/23 23:39 115浏览 0回复 648

感谢IT之家网友 航空先生 的线索投递!

IT之家 7 月 23 日消息,Meta 今晚正式发布 Llama 3.1 开源大语言模型,提供 8B、70B 及 405B 参数版本。

主视觉

据介绍,Llama 3.1 系列改进了推理能力及多语言支持,上下文长度提升至 128K,首次推出 405B 参数的旗舰模型。

Llama 3.1-405B 测试

Meta 称 4050 亿参数的 Llama 3.1-405B 在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与 GPT-4、GPT-4o、Claude 3.5 Sonnet 等领先的闭源模型相媲美。

Llama 3.1 8B 与 70B 测试

此外,8B 与 70B 参数的 Llama 3.1 模型与其他参数量相似的闭源和开源模型相比,也同样具有竞争力。

IT之家注:Llama 3.1 现已于 Meta 官网Hugging Face 开放下载,包括 AWS、英伟达、戴尔、Azure 和 Google Cloud 在内的超过 25 个合作伙伴也已经准备就绪。

相关阅读:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/783/796.htm]

本文标签
 {{tag}}
点了个评