AI发展,数学研究会变吗?未来学术探索,AI能帮上什么忙?
AI领域为何陷入黑箱困境?
理论支撑不足导致成功难以复制
最近一位数学家在社交平台上的发言引发热议。他指出当前AI的发展很大程度上靠的是经验和算力,理论支撑不够。这种现象在大语言模型领域尤为明显,就像工业界用「大力出奇迹」的方式取得突破,而非建立在坚实的理论基础上。这种模式虽然带来了短期的成功,却让AI的未来充满不确定性。
黑箱、炼金术、大力出奇迹这些看似与严谨科学格格不入的词汇,却成了描述大语言模型最贴切的比喻。像GPT-4这样的模型虽然取得了惊人的成果,但其成功背后缺乏系统的理论解释。这种现象让许多研究者感到担忧,特别是那些长期关注AI理论发展的专家。
当前AI领域的许多突破,更像是工业界「大力出奇迹」式的成功,而并非理论先行的成果。虽然优化数学和数值线性代数这两个领域相对成熟,但用于解释AI优缺点的大多数理论数学框架仍处于早期发展阶段。这种理论基础的薄弱,直接导致了AI研究的现状。
目前的主要瓶颈并不完全是基础研究资金的缺乏,而是我们对这些数学本身的理解尚未达到我们所期望的程度。这使得AI领域的发展呈现出高度依赖经验主义和数据驱动的特点。这种模式虽然能带来短期的成功,但面对新的挑战时往往显得力不从心。
像GPT-4这样的模型之所以能取得惊人的效果,主要靠的是大量的试错、海量的数据和强大的算力。这种模式虽然有效,但缺乏严谨系统的理论支撑。这种现象在AI领域普遍存在,导致成功的案例往往难以复制,而真正前景光明的用途反而容易意外碰壁。
即便是被誉为「AI教父」的辛顿,对此也有深刻反思。他曾明确指出,深度学习系统没有任何解释能力,系统越强大越不透明。这种现象揭示了当前AI模型虽然能工作,但其内部「为什么这么做」我们却不知道。这种黑箱特性让AI的发展充满未知。
AI研究的现状是明显缺乏系统性的理论解释,而高度依赖经验主义和数据驱动的方式。这种模式虽然能带来短期的成功,但面对新的挑战时往往显得力不从心。这种现象在AI领域普遍存在,导致成功的案例往往难以复制,而真正前景光明的用途反而容易意外碰壁。
像GPT-4这样的模型之所以能取得惊人的效果,主要靠的是大量的试错、海量的数据和强大的算力。这种模式虽然有效,但缺乏严谨系统的理论支撑。这种现象在AI领域普遍存在,导致成功的案例往往难以复制,而真正前景光明的用途反而容易意外碰壁。
辛顿的反思揭示了当前AI模型的黑箱特性。这种特性让AI的发展充满未知,也让人们对其未来充满担忧。这种现象在AI领域普遍存在,导致成功的案例往往难以复制,而真正前景光明的用途反而容易意外碰壁。
陶哲轩将当前的AI研究现状与早期压缩感知领域的情况做了类比。压缩感知最初由数学家提出了极为严格的理论假设及证明框架,明确了特定条件下算法一定会有效的前提。然而,实际上早在这些理论出现之前,MRI、地震学、天文学等应用领域早已通过经验和实验摸索出了类似的方法。
这说明,尽管理论在事后给予了严谨的证明和统一的解释,但在实际应用上,却并非不可或缺。LLM的情况则更加极端:即使到目前为止,能准确解释其成功原因的理论框架仍然完全缺位。这种现象让许多研究者感到担忧,特别是那些长期关注AI理论发展的专家。
像GPT-4这样的模型之所以能取得惊人的效果,主要靠的是大量的试错、海量的数据和强大的算力。这种模式虽然有效,但缺乏严谨系统的理论支撑。这种现象在AI领域普遍存在,导致成功的案例往往难以复制,而真正前景光明的用途反而容易意外碰壁。
AI领域的著名研究员Ali Rahimi早在2017年就曾尖锐地批评过这一现状,称当前的机器学习研究如同「炼金术」,其本质是缺乏系统性的科学理论指导。Rahimi指出,我们的机器学习模型越来越强大,但我们却不清楚为何这些模型能如此有效,更无法准确预测其在未来任务上的表现。
著名计算机科学家、AI先驱Michael Jordan也持相似看法。他形象地指出,当前AI的进步就如同在没有任何桥梁工程理论的情况下盲目建桥,有些桥可能侥幸没有倒塌,但一些则不可避免地会失败。这种现象让许多研究者感到担忧,特别是那些长期关注AI理论发展的专家。
这种缺乏系统的理论支撑导致当前AI领域成功的偶然性大幅增加,真正的可持续进步变得困难。对于陶哲轩而言,压缩感知的早期历史提供了一些启示:理论虽非一切,但良好的理论能够对零散经验进行有效的统一,并提供跨领域的普适性标准。
用陶哲轩的话,就是数学定理(理论)为领域带来的是一种清晰性、洞察力、普遍性以及信任度,而这些并不是仅靠经验得出的结果本身所能提供的。简单说,就是虽然没有理论随便修桥可能会成功,但如果想要提前确保成功,你必须有坚实的理论基础。
陶哲轩还举了一个例子。像昂贵的MRI(核磁共振)设备制造商(西门子、通用电气、飞利浦等)之所以能取得成功,主要靠的是大量的试错、海量的数据和强大的算力。这种模式虽然有效,但缺乏严谨系统的理论支撑。这种现象在AI领域普遍存在,导致成功的案例往往难以复制,而真正前景光明的用途反而容易意外碰壁。
AI领域呢?
总之,AI领域迫切需要解决的并非单纯增加资金或数据规模,而是找到真正的理论根基。黑箱、炼金术与大力出奇迹的时代终究不是长久之计。我们需要更多严谨的理论探索,更少盲目的试错与幸运的赌博。只有如此,AI领域才能真正实现可持续的发展,成功的案例才能够广泛而稳定地复制,人类才能真正安全地将未来托付给AI。
幸运的是,目前已经有很多这方面的研究。像Anthropic CEO豪言LLM黑箱5年内必破!研究员爆料:AI有意识概率已达15%这样的案例,展示了理论探索的希望。这些研究为AI领域的发展提供了新的方向,也让人们看到了摆脱黑箱困境的可能。