首页
Preview

智泊-AGI大模型2407期-下载课

啃完这几篇论文,我终于理解了AGI与LLM的本质区别

获课:999it.top/15435/

去年这个时候,如果有人问我“AGI和LLM有什么区别”,我大概会支支吾吾地说:“AGI就是更聪明的AI吧,像人一样的那种;LLM就是ChatGPT这样的语言模型。”

听起来没错,但仔细一想,全是模糊的正确。

直到最近啃完几篇重量级论文,我才真正看清了这两个概念之间的那条“鸿沟”。今天把这趟“啃论文之旅”的心得分享给你,希望能帮你少走点弯路。

一、第一课:LLM的“智能”,可能只是个幻觉

最先让我产生怀疑的,是苹果公司的一篇研究 。

研究人员做了一个很聪明的实验:他们给大模型出了一堆小学数学题,但稍微改了一下题目的表述方式——把数字换成符号,把常见的问题形式变得“陌生”一点。结果呢?GPT-4这样的顶级模型,表现直接跳水。

这说明什么?说明这些模型可能根本不是在做“推理”,而是在做“模式匹配”。它们见过太多类似的题目,记住了套路,一旦套路变了,就懵了。

IBM的专家看完这篇论文后说了一句扎心的话:“这篇论文从本质上证明了LLM无法进行推理,它们只是在做模式匹配。

也就是说,我们现在天天聊的“智能”,很可能是一场精心编织的幻觉。模型像一只超级鹦鹉,把人类说过的话复述得惟妙惟肖,但它自己并不知道这些“话”是什么意思。

二、第二课:AGI到底长什么样?

既然LLM不等于AGI,那AGI到底是什么?

图灵奖得主Yoshua Bengio联合多位学者,在2025年10月发表了一篇论文,给AGI下了一个“权威定义” :

“在认知多样性与熟练度上,媲美或超过受过良好教育的成年人的AI。”

翻译成人话:AGI不是只会聊天,而是像人一样,能处理各种不同类型的任务——能推理、能记忆、能感知、能学习,而且每样都做得不差。

他们还提出了一个量化框架,把通用智能拆成10个核心能力:通用知识、读写能力、数学能力、即时推理、工作记忆、长期记忆存储、长期记忆检索、视觉处理、听觉处理、处理速度 。

然后他们拿这个框架去测了GPT-4和GPT-5,结果让人大跌眼镜:

  • GPT-4的AGI得分:27%
  • GPT-5的AGI得分:57%

更扎心的是,在“长期记忆存储”这个维度上,GPT-5的得分是 0% 。这意味着什么?意味着这些模型每次和你聊天,都是“第一次见面”——它们记不住上一轮聊了什么,只能靠你每次把上下文重新喂给它。

这不叫“通用智能”,这叫“金鱼记忆”。

三、第三课:LLM和AGI之间,隔着三条鸿沟

把这几篇论文串起来,我发现LLM和AGI之间,至少隔着三条跨不过去的鸿沟:

第一条鸿沟:模式匹配 vs. 真正推理

苹果的研究已经证明,LLM本质上是“统计大师”,不是“逻辑大师”。它们擅长从海量数据里找出规律,但遇到没见过的规律,就抓瞎了 。

而AGI必须能“即时推理”——面对一个全新的问题,不是翻记忆库找答案,而是现场想出来。Bengio的框架里,“即时推理能力”这一项,GPT-5的得分只有7% 。

第二条鸿沟:静态知识 vs. 持续学习

LLM的训练方式是“一锤子买卖”:学完就固定了,想更新知识得重新训练。而AGI需要像人一样,能持续学习、动态更新自己的认知。

有篇哲学论文把这个问题挖得很深:LLM的架构决定了它们只能支持“线性格式”的信息处理,而人类的认知依赖“非线性格式” 。这不是量的问题,是质的问题。

第三条鸿沟:语言能力 vs. 世界模型

LLM只学会了“语言”,没学会“世界”。它们知道“苹果”这个词经常和“甜的”“圆的”一起出现,但它们不知道苹果长在树上、咬一口会氧化、牛顿被苹果砸到会想到万有引力。

有研究者尖锐地指出:“LLMs are still not any close to AGI. They will never be.” 这话有点绝对,但它戳中了一个关键:只靠预测下一个词,永远学不会真正的世界模型。

四、一个意外的反转:UC圣地亚哥的“搅局”

就在我以为自己已经“懂了”的时候,又看到了一篇2026年2月的新论文,来自UC圣地亚哥的几位教授 。

他们提出一个大胆的观点:“按照合理的标准,当前的LLM已经算是AGI了。”

理由也很简单:人类也不是万能的。你会解微积分,但不一定懂相对论;你能推理,但也会犯认知偏差;你能记忆,但也会遗忘。既然人类的不完美不影响我们被称为“有通用智能”,那为什么要对AI那么苛刻?

他们还举了个例子:物理学家霍金几乎只能靠文字交流,但他的智能没人质疑。同样,LLM虽然“没有身体”,但也不该因此被剥夺“智能”的称号 。

这个观点让我陷入了沉思。也许AGI的定义本身,就是个“移动的靶子”——随着AI越来越强,我们也在不断抬高“智能”的门槛。

五、我自己的理解:LLM是“地图”,AGI是“探险家”

啃完这几篇论文,我自己总结了一个比喻,不一定对,但帮我理清了思路:

LLM是一张超精细的“地图”。它把人类已有的知识、语言、对话模式,全都压缩进了参数里。你想去什么地方,它能给你画出最像样的路线。但它自己没去过那些地方,不知道路上的风景,也不知道路况会不会变。

AGI是一个“探险家”。它手里也有一张地图(可能不如LLM的精细),但它能自己走路、自己判断、自己学习。遇到地图上没有的路,它能摸索着走;遇到路况变化,它能调整策略。

LLM是“知道”很多,AGI是“能做到”很多。知道和做到之间,隔着整个世界的复杂性。

写在最后

这场啃论文之旅下来,我最大的收获不是“懂了AGI和LLM的区别”,而是学会了对概念的警惕

“智能”这个词太宏大了,我们用它的时候,往往不知道自己在说什么。苹果的研究让我们看到,模型答对题不代表会思考;Bengio的框架让我们看到,会聊天不代表有通用能力;UC圣地亚哥的反转又提醒我们,定义本身也在演化。

也许真正的AGI,不是某一天突然出现的“奇迹时刻”,而是一个逐渐逼近的过程。在这个过程中,LLM是一块重要的里程碑,但它不是终点。

下一次你问ChatGPT一个问题,得到一段流畅的回答时,不妨多问一句:它是在“思考”,还是在“匹配”?

答案,可能比你以为的更复杂。


互动一下:你觉得LLM距离AGI还有多远?是差几个技术突破,还是差一条永远跨不过去的鸿沟?评论区聊聊你的看法。

版权声明:本文内容由TeHub注册用户自发贡献,版权归原作者所有,TeHub社区不拥有其著作权,亦不承担相应法律责任。 如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

点赞(0)
收藏(0)
中纪委
暂无描述

评论(0)

添加评论