近日,跨学科领域学者Gary Marcus,在神经科学与人工智能的交叉地带发声,对生成式人工智能(Generative AI)的未来做出了大胆预测:他断言,在接下来的一年里,围绕生成式人工智能的狂热泡沫将会破灭。Marcus指出,“生成式人工智能的核心问题在于其可靠性缺失”,系统常常产生幻觉,进而生成误导性的虚假信息。
Marcus近年来因其在神经科学与人工智能交叉领域的研究而声名鹊起,同时也是呼吁暂停训练比GPT-4更强大AI系统6个月的公开信签署者之一。他始终认为,当前的大语言模型(LLMs)仅仅是“语言使用的近似,而非真正的语言理解”。
这位兼具学者与创业者双重身份的专家,将支撑生成式AI的大语言模型比作“乘法表”:LLMs能熟练解答表内乘法,但对于表外的计算则只能碰运气,且往往因缺乏自我验证能力而犯错。Marcus认为,为避免幻觉导致的错误信息,开发LLMs的企业不得不构建更庞大的模型,填充更多数据,但这并未从根本上解决LLMs无法进行健全性自查的问题。
依托其在认知心理学、神经学与人工智能交叉领域的深厚背景,Marcus力推神经符号学人工智能(Neuro-symbolic AI)——一种将神经网络技术与逻辑学、计算机编程及传统AI中的符号方法相融合的新理论,视其为实现自主AI的可行路径之一。然而,Marcus也坦言,由于学术权威的压制及资本对创新风险的畏惧,神经符号学AI尚未成为主流。
令他欣慰的是,Google DeepMind的两款AI系统——AlphaProof与AlphaGeometry2,正逐步验证神经符号学AI的潜力。Marcus认为,Google的这一方向更接近于通用人工智能(AGI)的实现路径。
在《AlphaProof、AlphaGeometry、ChatGPT,为什么人工智能的未来是神经符号学?》一文中,Marcus详细阐述了其观点:
引言
生成式AI以ChatGPT为代表,虽已掀起全球热潮,但这一热潮或将退却。曾被视为边缘的“生成式AI终将无效”的观点,如今已逐渐成为主流预期。Marcus预测,未来一年内,生成式AI泡沫将破裂,原因包括技术瓶颈、缺乏杀手级应用、系统幻觉问题、低级错误频发、缺乏持久竞争优势及公众认知的转变。
尽管对生成式AI的过度炒作感到忧虑,Marcus也担心其衰退可能重蹈20世纪80年代“AI寒冬”的覆辙。但他坚信,AI领域的深厚利益基础将促使其在未来迎来复兴,以更高效的技术弥补现有不足。
大语言模型的有效与局限
尽管LLMs的代码可编写,但其内部机制却难以完全洞悉。LLMs的输出高度依赖于训练数据,且在处理新问题时往往力不从心,如同乘法表只能应对表内问题。统计学家Colin Fraser等人的研究表明,LLMs在处理细微变化的问题时极易出错,反映出其本质上的不可靠性。
Marcus指出,LLMs本质上是下一个词的预测器,缺乏内在的验证机制,导致其在算术、常识推理等方面频繁犯错。他认为,LLMs中的任何“推理”或“计划”都是偶然的,且极易受到训练数据细节的影响。
神经符号学人工智能的曙光
面对LLMs的局限,Marcus提出两种选择:放弃或将其融入更复杂的系统中,实现更高级的推理与规划。他倡导的神经符号学AI正是这一思路的体现,旨在结合神经网络的快速直觉与符号系统的严谨推理。
尽管面临学术权威与资本市场的双重阻力,Marcus仍对Google DeepMind的AlphaProof与AlphaGeometry2寄予厚望。这两款系统展现了神经符号学AI的潜力,通过结合神经网络与符号推理引擎,实现了对复杂问题的有效解决。Marcus认为,这一方向将引领AI走向更加智能与可靠的未来。