AI如何加速数学算法的发现
最近,人工智能在基础数学领域取得了一项引人注目的进展。DeepMind的研究团队利用AI,发现了一种更高效的矩阵乘法算法,打破了保持了五十多年的记录。然而,仅仅一周后,这项新纪录就被其他研究者改写了。这背后不仅是速度的竞赛,更展现了AI作为一种新工具,如何改变我们探索数学世界的方式。
矩阵乘法为何重要
矩阵乘法听起来很专业,但其实它无处不在。简单来说,它涉及将两个矩形的数字阵列相乘。这项运算是许多现代技术的核心,从智能手机的图像处理、语音识别,到生成复杂的计算机图形,都离不开它。图形处理器(GPU)尤其擅长处理大规模的矩阵乘法计算,因为它们可以同时进行海量的并行运算。
因此,任何能让矩阵乘法变得更快的方法,哪怕只是减少一点点计算步骤,都可能带来巨大的效率提升。考虑到全球的GPU每天要进行数万亿次这样的运算,微小的改进积累起来,就能让各种AI应用在现有硬件上运行得更快。
一项保持了五十年的纪录
在矩阵乘法的研究史上,有一个里程碑。1969年,德国数学家Volker Strassen发现了一种算法,可以用49次乘法完成两个4×4矩阵的相乘。而如果使用教科书里最传统的方法,则需要64次乘法。这项成果为高效计算奠定了基础,并且这个“49次”的纪录,在随后的半个多世纪里都未被撼动。
直到今年10月,DeepMind宣布他们的AI系统AlphaTensor发现了一种新算法,将所需的乘法次数从49次减少到了47次。虽然只减少了2步,但在该领域,这已经是一个显著的突破。
AI如何“玩”数学游戏
AlphaTensor并非凭空出现,它是DeepMind旗下著名AI系列(如击败围棋冠军的AlphaGo)的后代。但这次,它的任务不是下棋,而是解决数学问题。
DeepMind的研究人员将寻找高效矩阵乘法算法的问题,巧妙地设计成了一个“单人游戏”。在这个游戏里,“棋盘”是一个三维的数字阵列(张量),代表了当前算法与理想结果的差距。AI的目标是通过一系列“移动”(对应着算法的指令)来逐步修正这个张量,最终使其归零。当它成功时,就意味着找到了一种可证明正确的、且步骤更少的矩阵乘法算法。
研究人员使用强化学习来训练AlphaTensor玩这个游戏,让它像学习围棋一样,在不断尝试中自我进化。最终,它不仅重新发现了Strassen等数学家的经典成果,还找到了超越他们的新方法。
新纪录的快速更迭
DeepMind的突破很快激发了进一步的探索。就在其论文发表约一周后,奥地利约翰内斯·开普勒大学的两名研究人员发布论文,声称他们改进了AlphaTensor在5×5矩阵上的成果,将乘法次数从98次降到了97次,随后又进一步优化到了95次。
这个新纪录来得如此之快并非偶然。奥地利研究团队在论文中明确指出,他们的方案“是从DeepMind研究人员的方案中获得的”。这正体现了科学进步的累积性:一项突破性的工作,往往会为后续研究打开新的大门,加速整个领域的进程。
当AI成为科研的“加速器”
我的理解是,这次事件的意义不仅在于打破了某项具体纪录。它更像一个标志,展示了AI可以成为基础科学研究中一个强大的辅助工具。就像计算机辅助设计(CAD)彻底改变了工程领域一样,AI也开始帮助人类探索那些复杂、抽象的数学空间。
技术进步靠自己。随着人工智能介入寻找新算法,其他一些长期存在的数学记录,或许也将在不久的将来被刷新。这预示着,人机协作可能正在开启一个科学发现的新范式。