马斯克突发Grok 1.5!上下文长度至128k,推理能力大幅提升
3月27日,韩媒报道前Tara女团成员、韩国女星李雅凛凌晨在家中自杀,并留下类似遗书的信息。目前李雅凛已经在医院接受治疗,但尚未恢复意识。李雅凛的现任男友发声回应:谢谢雅凛粉丝们和相关人士的担心和鼓励,但请不要再进行其他不必要的奇怪联系了。
丰色 西风 发自 凹非寺
量子位 | 公众号 QbitAI
就在刚刚,马斯克Grok大模型宣布重大升级。
难怪之前突然开源了Grok-1,因为他有更强的Grok-1.5了,主打推理能力。
来自xAI的*推送啥也没说,直接甩链接。主打一个“字少事大”(旺柴)
新版本Grok有啥突破?
一是上下文长度飙升,从8192增长到128k,和GPT-4齐平。
二是推理性能大幅提升,数学能力直接涨点50%之多、HumanEval数据集上得分超过GPT-4。
消息一出,评论区立刻就躁起来了。
具体跑分结果如何,咱们立马来看。
Grok-1.5来了
首先,对于上下文窗口。
这次是一把直接提升到之前的16倍,来到128k量级。
这也就意味着Grok可以处理更长和更复杂的提示,同时保持其遵循指令的能力。
在“大海捞针”(NIAH)测试中,Grok-1.5在128K token的上下文中完美检索嵌入的文本。
整个图一水儿的蓝色(100%的检索深度):
其次,推理方面。
Grok-1.5处理编程和数学相关任务的能力大幅提升,全面超越Grok-1、Mistral Large、Claude 2。
数学方面,Grok-1.5在MATH基准测试上得分50.6%,超越中杯Claude 3 Sonnet;GSM8K上得分90%。
编程方面,Grok-1.5在HumanEval基准测试上得分74.1%,超越中杯Claude 3 Sonnet、Gemini Pro1.5、GPT-4,仅次于大杯Claude 3 Opus。
看起来,Grok这次的实力也是不可小觑。
Grok系列与其他大模型相比还有一个特色,不使用通用的Python语言+Pytorch框架。
据*介绍,Grok 1.5采用分布式训练架构,使用Rust、JAX、Kubernetes构建。
为了提高训练可靠性和维持正常运行时间,团队提出了自定义训练协调器,可自动检测到有问题的节点,然后剔除。
除此之外,他们还优化了checkpointing、数据加载和训练重启等流程,最大限度地减少故障停机时间。
这,才速速有了现在的Grok 1.5~
更多信息*也暂时还没有披露。
可以确定的是,新版本未来几天会先推送给早期测试者。并按照“老规矩”,很快将在平台上线。
有网友表示,Grok进步真的相当迅速。
有人甚至称马斯克这是发了另一个“GPT-4等效模型”,喊着:
OpenAI搞快点啊。
你期待新版本的Grok吗?