陶哲轩提前实测满血版o1:能当研究生使唤

家人们!这一天天的,互联网是越来越玄幻了,就连小英这么小众的网红赛道,竟也挤得人山人海的。*里的她们大多是偏远农村地区的已婚女性,处境艰难、生活困苦,家里是收拾

白小交 衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

好羡慕!原来早在8月份,陶哲轩就已经用上了OpenAI o1。

还是现在大家都用不上的满血版本(眼泪不争气地从嘴角流出来)。

提前批大佬是怎么玩 天花板的呢?

他向o1模型提出一个措辞模糊的数学问题,发现它竟然能成功识别出克莱姆定理

而且 是“完全令人满意的”那种。

当然,还做了一些其它 ,肉测下来总体体验就是:

比以前的模型更牛,多堆点提示词表现还不错,但仍然会犯不小的错误,也没有产生啥自己的思想。

陶哲轩是这样形容的:

这种感觉,就像给一个平庸无奇但又有点小能力的研究生提供建议

不过,这已经比以前的模型有所改进,因为以前的模型的能力更接近于实际上不称职的。

但如果给以前的模型加点助力,比如计算机代数包和证明辅助工具啥的,改进一两次,就能实现进一步迭代,摇身一变,成为“有能力的研究生”。

陶哲轩对使用体验的这个神奇比喻在HackerNews等多个 引起了激烈讨论。

有网友愤愤:GPT是什么**!我承认LLMs对写代码有很大帮助,但事实上有一些 好的工具可以帮助 这一问题,例如代码片段、模板和代码生成器。

有人就用陶哲轩的话回应了他:

“任何聪明到足以以编程为生的人,智商都足以成为一个平平无奇但又小有能力的研究生。”

陶哲轩提前实测满血版o1:能当研究生使唤

陶哲轩实测Ch GPT vs o1

陶哲轩展示了他自己的三轮 。

轮,用去年3月份 Ch GPT的题目,要求大模型回答一个措辞含糊的数学问题,只要从文献中找出一个合适的(克莱姆法则)就能 。

  • Say I have a positive meas e whose clos e(support) = some com ct convex subset S. I convolve n times to get a meas e on nS. Scale down by n, take log, divide by n, take the limit to get some rounded thing on S. Does it depend on the o ginal meas e?

当时,Ch GPT倒是有模有样地回答了,期间还提到了一个高度相关的术语:对数矩生成函数,甚至在给出的 中还讨论了一个具体的例子。不过不能注意细节,全是幻觉,而且 也是错的。

这一次,同样有模有样,但相较之下更有条理(更长还有大小标题区分度)。

最重要的是,o1成功找到了克莱姆定理,并给出了完全令人满意的 。

ps,看记录,早在8月份陶哲轩就用上了o1。

第二轮,上一点难度,挑战复杂分析研究生课程的一个问题。

(之前他用来 GPT-4的,要求他来协助编写一个证明)

结果这次陶哲轩的结论是,是要比之前GPT-4好些,但仍有点失望。

如果提供大量的提示和鼓励,新模型可以通过自己的努力得到一个正确的(而且写得很好的) 方案,但它自己并没有产生关键的概念想法,而且确实犯了一些非同小可的错误。

光看到这几轮提示交互,确实是有点不满意的。

也难怪陶哲轩代入自己,把 o1像是在教一个平庸、但又不是完全不称职的研究生。

紧接着来第三轮 ,这一次是要求将质数定理的一种形式转化为Lean中的定理形式,方法是将其分解为若干个子问题分别描述,但不给出证明。

结果模型很好地理解了这个任务,并进行了合理的初步分解,不过代码中出现了几个小错误。

陶哲轩解释道,这是由于训练时缺乏有关Lean及其数学库的 信息。

并表示,如果能专门针对Lean和M hlib进行微调,并集成到一个IDE中,那应该会对公式化项目很有用。

在研究数学层面的实用性在增加

用大模型来搞研究,其实已经飞入寻常百姓家了。

一位账号名为wenc的网友分享了ta使用大模型来做研究的经历。

wenc从事着运筹学相关的工作,而OpenAI的模型们,从GPT 4o开始,就吸收了足够多的数据,能够输出很多 有用的混合整数规划(MIP)公式。

举个栗子:

给4o一个逻辑问题,如“我需要根据分数将i个项目放入n个桶中,但我想按顺序填充每个桶”,4o会输出一个 有用的数学公式。

通常情况下,只需要把公式微调一下就能完全搞定问题了。

此外,一些prompt太弱了的时候,4o还会预警:这可能导致输出不尽如人意——可以说对避免无效回答 有用了。

回过头看咱还用不上大模型的时候,传统方法是需要大家在周末绞尽脑汁,试图找出有关MIP优化问题的无懈可击的公式。

对于非直观问题来说,这一点通常都令人头秃。

wenc很坚定地表示,每月从Ch GPT上获得的价值,远远超出了20美元(每月订阅费用)。

一旦GPT在Lean上得到更多调整——就像在 Python 上一样——我预计它在研究数学层面的实用性会有提升。

wenc还对那些抱怨Claude和GPT 模型不好用的网友进行了分析:

  • 不知道如何最大化自己的优势来使用大模型们;
  • 把大模型想得无所不能,抱着“这玩意儿是 一切的灵丹妙药”的期待;
  • 大模型确实在他们的领域不适用。

wenc在最后弱弱补了一句,很多抱怨的人,其实都是属于前两种啦~~~

陶哲轩回应争议

尽管大多数网友都觉得大模型能帮助自己省下许多功夫,还是有人对陶哲轩“ 大模型如同 不咋靠谱的研究生”的言论,充满了疑惑和不解。

有网友在陶哲轩的m hstodon底下留言:

亲,也许你可以展开说说“研究生”这块不?
我理解一下子,你的意思是o1之前大模型放在Lean微调,再结合计算机包,那输出效果就可以媲美研究生水平?
简单点来说,这种情况下的大模型能够 一些新发现的重要课题?

陶哲轩倒是很及时地回复了这条评论。

他表示,他正在考虑一个具体的指标,即“助手能够在专家数学家的指导下,协助完成复杂数学研究项目中的一个或多个具体任务”的程度。

一个有能力的研究生可以为这样的项目作出贡献,且这种贡献比“让学生加快项目进度并 他们出了几成力”更有价值。

不过,即使使用 的工具,让大模型输出正确且有用的回答,其实比输入精准prompt和验证结果都要难多了——当然,这之间的 并不是特别巨大,前者大概要难个2-5倍的样子。

陶哲轩表示自己有理由相信,未来几年内,这个 会降低到1倍以内(其实有些特定子任务,比如语义搜索、数据格式化或生成数字代码以协助数学研究探索,这个比率已经低于1了)。

他视“ 降到1倍以内”为数学领域将更广泛采用这些的转折点。

至于“研究生水平”嘛——

陶哲轩表示,自己这么说,只是为了方便大家感知啦!

虽然大模型可以协助研究人员完成当前的项目,但培养研究生的目的,是为了以后有更多的下一代 研究者。

“我无意暗示研究生学习的各个方面,与数学中AI辅助的各个方面之间存在一一对应的关系。”

One More Thing

最后,分享一则陶哲轩这个话题下,我们发现网友讨论出的、呼声挺高的一个结论——

虽然很难量化学会用大模型到底省了多少时间,但随着一个人提示词工程能力的提升,大伙儿能用更少的时间得到更好的效果。

但是!

显而易见,大模型的价值是因人而异的,它几乎取决于每个人的提示词水平。

呃,羞愧中……

不说了,过什么中秋节假期,咱这就去精进自己的prompt技巧去!

参考链接:
[1]https://m hstodon.xyz/@tao/113132502735585408
[2]https://news.ycombin or.com/item?id=41540902
[3]https://m hstodon.xyz/@tao/109948249160170335

关键词:模型一个陶哲轩