在这个 AI 技术浪潮席卷全球,几乎人人都在谈论大语言模型潜能无限的时代,一个根本性的问题摆在我们面前:既然 AI “读完”了整个互联网,为何仍未诞生下一个爱因斯坦?在原创性的科学发现上,这些大模型为什么仍如此“笨拙”?它们真的“理解”我们这个复杂而充满规律的物理世界吗?还是仅仅在进行一场规模空前的模式匹配游戏?
如果你也曾对这些问题感到困惑,那么图灵奖得主、Meta 首席 AI 科学家杨立昆(Yann LeCun)的这场深度对话,或许能为你拨开迷雾,提供一个清醒而富有洞察力的视角。本文编译自 YouTube 频道 Big Technology Podcast 的精彩访谈,杨立昆此次并非简单地唱衰当前 AI 的成就,而是以一位资深研究者的严谨和一位前瞻思想家的锐利,直指当前主流大模型(LLM)的“天花板”。
 | 点 击 图 片 看 原 图 |
他深入剖析了为何仅靠“记住”海量文本不足以催生真正的智能,为何当前的AI架构难以进行真正的抽象思考、推理和规划——这些恰恰是科学发现与理解物理世界的基石。对话中,你会听到他对“AI 能否提出好问题”这一核心议题的精辟分析,以及他对当前 AI 在推理能力上的局限性的不留情面的批判。
而对于当前全世界关注的「开源与闭源之争」,杨立昆则是引用了 DeepSeek 的例子,强调“没有人能垄断好点子”,“开源世界会发展的更快”。以下是杨立昆本次对话的金句提炼:
“DeepSeek 的例子表明,中国人并不需要我们。他们自己就能想出非常好的点子。我们都知道中国有非常非常优秀的科学家,但有一件事不太为人所知,那就是整个科学界被引用次数最多的单篇论文是 2015 年的一篇关于深度学习的论文,它来自北京。”
点击朱笔,直抒胸臆