就在刚刚,谷歌DeepMind最新的数学模型捧得了IMO奥数银牌!它不仅以满分成绩做出了6道题中的4道,距离金牌只有1分之差,而且在第4题上只用了19秒,解题质量和速度惊呆了评分的人类评委。
就在刚刚,谷歌DeepMind宣布:今年国际数学奥林匹克竞赛的真题,被自家的AI系统做出来了。 其中,AI不仅成功完成了6道题中的4道,而且每道题都获得了满分,相当于是银牌的最高分——28分。
在正式比赛中,人类选手会分两次提交答案,每次限时4.5小时。
有趣的是,AI只用了几分钟便答出了其中一道,但剩下的问题却花了整整三天时间,可以说是严重超时了。
这次立下大功的,是两款AI系统——AlphaProof和AlphaGeometry 2。
划重点:2024 IMO并不在这两个AI的训练数据中。
其实,早在今年1月份,谷歌DeepMind的第一代AlphaGeometry就登上了Nature。当时,它做出了IMO 30个几何题中的25道。
AI工程师devin背后创始人之一Scott Wu(IOI三枚金牌得主)感慨道,「当我还是个孩子的时候,奥林匹克竞赛就是我的全部。从来没有想过,仅仅10年后,它们就被AI解决了」。 今年的IMO竞赛上,共有六道赛题,涉及代数、组合学、几何和数论。六道做出四道,让我们感受一下AI的水平——
我们都知道,以前的AI在解决数学问题上一直捉襟见肘,原因在于推理能力和训练数据的限制。
而今天携手登场的两位AI选手,则打破了这种限制。它们分别是——
– AlphaProof,基于强化学习的形式数学推理新系统 – AlphaGeometry 2,第二代几何解题系统
两位AI给出的答案,由著名数学家Timothy Gowers教授(IMO金牌得主和菲尔兹奖得主)和Joseph Myers博士(两次IMO金牌得主、IMO 2024问题选择委员会主席),根据规则进行评分。
最终,AlphaProof正确做出两个代数题和一个数论题,其中一个最难的问题,在今年IMO中只有5名人类参赛者做了出来;AlphaGeometry 2则做出了一道几何题。
Timothy Gowers教授在评分的过程中,也被深深地震撼了——
程序能够提出这样一个非显而易见的解法,实在令人印象深刻,远超出我对当前技术水平的预期。
AlphaProof是一个能够在形式化语言Lean中证明数学命题的系统。
它结合了预训练的大语言模型和AlphaZero强化学习算法,后者曾自学掌握了国际象棋、将棋和围棋。 形式化语言的一个关键优势,就是可以对涉及数学推理的证明进行形式化验证。然而,由于人类编写的相关数据量非常有限,它们在机器学习中的应用一直受到限制。 相比之下,基于自然语言的方法尽管可以访问大量数据,但却可能产生似是而非、但不正确的中间推理步骤和解决方案。
为了克服这一点,谷歌DeepMind研究者通过微调Gemini模型,将自然语言问题陈述自动翻译成形式化陈述,建立了一个包含不同难度的形式化问题的大型库,从而在两个互补领域之间架起桥梁。 解题时,AlphaProof会生成候选的解决方案,并通过在Lean中搜索可能的证明步骤,来证明或反驳它们。 每个被找到并验证的证明,都被用于强化AlphaProof的语言模型,让它可以在后续解决更难的问题。
为了训练AlphaProof,研究者证明或反驳了几百万个问题,涵盖了从比赛前几周到比赛期间广泛的难度和数学主题领域。
在比赛期间,他们还应用了训练循环,通过强化自生成的比赛问题变体的证明,直到找到完整的解决方案。
AlphaProof强化学习训练循环的流程信息图:大约一百万个非正式数学问题由形式化网络翻译成形式化数学语言;接着,求解网络通过搜索这些问题的证明或反驳,并利用AlphaZero算法逐步训练自己,以解决更具挑战性的问题 AlphaGeometry的升级版AlphaGeometry 2,是一个神经符号混合系统,基于Gemini的语言模型从头开始训练。 基于比上一代多了一个数量级的合成数据,它能够做出难度更高的几何问题,包括涉及物体运动、角度、比例和距离方程等等。
此外,它还采用了比前一代快两个数量级的符号引擎。当遇到新问题时,它会用一种新颖的知识共享机制,使不同搜索树的高级组合能够解决更复杂的问题。 在今年参赛IMO之前,AlphaGeometry 2已经战绩累累:它能做出过去25年IMO几何赛题中的83%,而第一代只能做出53%。
在这届IMO中,AlphaGeometry 2的神勇速度更是震惊了众人——在接收到形式化问题的19秒内,它就把问题4做出来了!
问题4要求证明∠KIL和∠XPY之和等于180°。AlphaGeometry 2建议在BI线上构造一个点E,使得∠AEB=90°。点E有助于确定AB的中点L,形成了许多类似的三角形对,如ABE ~ YBI和ALE ~ IPC,从而证明结论
值得一提的是,这些问题首先会被人工翻译成正式的数学语言,然后才会投给AI。
P1
一般来说,每届IMO试题中第一题(P1)相对来说,是比较容易的。
网友表示,「P1仅需要高中数学知识就够了,人类选手通常会在60分钟内完成」。
IMO 2024第一题主要考察了实数α的性质,并要求找出满足特定条件的实数α。
AI给出了正确答案——α是偶整数。那么,它具体是如何解答的呢?
解题第一步,AI先给出了一个定理,左右两边集合相等。
左边集合表示,所有满足条件的实数α,对于任何正整数n,n能整除从1到n的⌊i*α⌋;右边集合表示,存在一个整数k,k是偶数,实数α等于k。
然后,再证明左边集合,是右边集合的子集(困难方向)。
直到代码结束时,AI提出了一个关键等式⌊(n+1)*α⌋ = ⌊α⌋+2n(l-⌊α⌋),使用等式来证明α必须是偶数。 最后,DeepMind总结了AI在解题过程中,依赖的三个公理:propext、Classical.choice,以及Quot.sound。
以下是P1的完整解题过程:https://storage.Googleapis.com/deepmind-media/DeepMind.com/Blog/imo-2024-solutions/P1/index.html P2
第二题考察的是,正整数对(a,b)的关系,涉及到最大公约数的性质。
定理是对于满足特定条件的正整数对(a,b),其集合只能包含(1,1)。
AI在如下的解题过程中,采取的证明策略是,首先证明(1,1)满足给定条件,然后再证明这是唯一的解。
在这一过程中,AI使用了欧拉定理,以及模运算的性质进行推理。
如下是P2的完整解题过程:https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/imo-2024-solutions/P2/index.html
P4
P4是一道几何证明题,要求去证明一个特定的几何角度关系。
如上所述,这是由AlphaGeometry 2在19秒内完成答题,创新纪录。 根据所给的解决方案,与一代AlphaGeometry一样,所有解决方案中的辅助点都是由语言模型自动生成的。 证明中,所有的角度追踪都使用了高斯消元法(Gaussian elimination),d(AB)−d(CD)等于从AB到CD的有向角度(以π为模)。
解题过程中,AI会手动标注相似三角形和全等三角形对(以红色标注)。
接下来,就是AlphaGeometry的解题步骤了,采用了「反证法」去完成。
先用Lean完成需要证明命题的形式化,以及可视化几何构造。
完整解题过程参见下图:https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/imo-2024-solutions/P4/index.html
P6
IMO第六题便是「终极boss」,探讨了函数的性质,要求证明关于有理数的特定结论。
先来看定理声明是,定义了「Aquaesulian函数」的性质,并声明对于所有这样的函数,f(r)+f(-r)的取值集合最多有2个元素。
证明策略是,首先证明对于任何Aquaesulian函数,f(r)+f(-r)的取值集合最多有2个元素。然后构造一个具体的Aquaesulian函数,使得f(r)+f(-r)恰好有2个不同的值。
证明当f(0)=0时,f(x)+f(-x)最多取两个不同的值,并证明不可能存在f(0)≠0的Aquaesulian函数。
构造函数f(x)=-x+2⌈x⌉,并证明它是Aquaesulian函数。
最后,再去证明对于这个函数,f(-1)+f(1) =0和f(1/2)+f(-1/2)=2是两个不同的值。
以下是完整解题过程:https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/imo-2024-solutions/P6/index.html
斯坦福大学和红杉的研究员Andrew Gao肯定了这次AI突破的意义——
关键的是,最新IMO试题不包含训练集中。这一点很重要,说明AI能够处理全新的、未见过的问题。 而且,被AI成功解出的几何问题,由于涉及空间性质(需要直观思维和空间想象力),历来都被认为是极具挑战性的。
英伟达高级科学家Jim Fan则发长文表示,大模型是神秘的存在—— 它们既能在数学奥林匹克竞赛中获得银牌,又会在「9.11和9.9哪个数字更大」这样的问题上频频出错。
不仅是Gemini,就连GPT-4o、Claude-3.5、Llama-3都无法100%正确回答。 通过训练AI模型,我们正在探索超越自身智能的广阔领域。在这个过程中,我们发现了一个非常奇特的区域——一个看起来像地球,却充满诡异山谷的系外行星 这看起来很不合理,但我们可以用训练数据分布来解释:
AlphaProof和AlphaGeometry 2,是在形式化证明和特定领域的符号引擎上完成训练。在某种程度上,它们在解决专业的奥林匹克竞赛问题更出色,即使它们基于通用LLM构建的。而GPT-4o的训练集中,混杂了大量的GitHub代码数据,可能远远超过数学数据。在软件版本中,「v9.11 > v9.9」,可能严重扭曲了数据分布。因此,这个错误在某种程度上是可以理解的。
谷歌开发者负责人表示,能够解决困难的数学、物理问题的模型,是通向agi的关键路径,而今天我们在这条道路上又迈出了一步。