Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,928,335字

该文章投稿至Nemo社区   资讯  板块 复制链接


马斯克 xAI 推出 Grok-1.5 大语言模型:提升推理能力,可处理 128k 上下文

发布于 2024/03/29 10:54 158浏览 0回复 663

感谢IT之家网友 咩咩洋Diixx 的线索投递!

IT之家 3 月 29 日消息,马斯克旗下人工智能公司 xAI 今天在官方博客中宣布,正式推出 Grok-1.5 大语言模型。

Grok-1.5 具有改进的推理能力和 128k 的上下文长度,其中最显著的改进之一是其在编码和数学相关任务中的表现。Grok-1.5 将在未来几天内在 𝕏 平台上向早期测试人员和现有的 Grok 用户推出。

在官方测试中,Grok-1.5 在 MATH 基准上取得了 50.6% 的成绩,在 GSM8K 基准上取得了 90% 的成绩,这两个数学基准涵盖了广泛的小学到高中竞赛问题。此外,它在评估代码生成和解决问题能力的 HumanEval 基准测试中得分为 74.1%。IT之家附测试对比表如下:

长上下文理解方面,Grok-1.5 能够在其上下文窗口内处理多达 128k tokens 的长上下文。这使得 Grok 的内存容量增加到之前上下文长度的 16 倍,从而能够理解更长文档中的信息。

据介绍,Grok-1.5 构建在基于 JAX、Rust 和 Kubernetes 的自定义分布式训练框架之上。自定义训练协调器可确保自动检测到有问题的节点并将其从训练作业中剔除。xAI 还优化了检查点、数据加载和训练作业重新启动,以最大限度地减少发生故障时的停机时间。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/758/875.htm]

本文标签
 {{tag}}
点了个评