12. AGI 通用智能人工智能(上)

这期节目,借着DeepSeek热点,来和听众朋友聊一聊通用人工智能(AGI)。主持人从AGI的定义,是不断移动变化的靶子,这一主题开始讲起。围绕有关AGI的乐观,与悲观的态度,聊了在哲学层面,技术层面等的思考。谈到了“中式房间”论证,回行针理论;以及科学家在深度学习这种模式之外,结合基于规则模型的研究方向。







  • 叶老师,橙子Author for 4edu.ai
  • 01/04/2025
  • AI, Education
  • Podcast

第一季,第12集

Y(叶老师): 大家好!哎,橙子,很高兴呢,今天我们又聚在一起继续聊。今天我们主要聊的内容啊是AGI,也就是所谓的通用人工智能。最近的话,那个DeepSeek还一直在新闻当中, 还是一个新闻热点嘛,可以这么说。我有读到 deep mind他今年,也就刚刚在2月份发布了Gimini 2.0的flash模型,据说是比DeepSeek效率更高,是这样子吗?

C(橙子): 对的。还有就是我们上一集结尾讲到,那个李飞飞的团队他推出的S1模型,其中各项指标也是不输于DeepSeek, 相当强的。所以这些小模型呢,我估计很快,就会像雨后春笋一样的出现。这其实就是为什么DeepSeek会产生巨大的影响的一个原因: 在大模型的基础上,大家可以更加快速高效地训练出有同等能力的小模型。这样就给那些没有钱买芯片,建大型计算中心的小企业,小团体和组织提供了思路。如果后面许许多多的小而强的AI模型的出现,会不会量变产生质变,产生出一个非常强的人工智能,也就是我们所谓AGI。现在很多人呢,都很关心这个问题。那今天我们也就趁著这个热点吧,来讲一讲通用人工智能。

Y:在第二期里面其实有提到过这个定义。再强调一下那定义的话呢,就是所谓的AGI,其实是强人工智能。它就是一种具备具备了一般人类的理解力,能够执行广泛的任务。那这个模型呢,它们具有了理解人类语言的能力,那能够和人进行相互的对话和交流,对于复杂的任务也能够自动进行分析与拆解,找到解决的方法。那听上去其实跟那种跟ChatGPT不是有点像嘛,那你能够说ChatGPT是AGI吗?

C: 这个问题就是挺有意思的。因为AGI的定义呢,它是随著时代的进步,大家的标准也是在不断变化的。那像人工智能刚开始发展的时候,那科学家的目标呢,是做一个会思考的机器。那这句话本身其实就是一个很模糊的标准。随著科学的发展,大家对智力这个定义本身也是在不断变化。另外呢?随著技术发展,大家对通用人工智能的期待也在不断变化。我们曾经认为如果能够在特定领域进行推理和决策,比如说,如果在国际象棋上机器能够打败人类,那就是很了不起的智能。但是在AlphaGo打败了人类以后呢,大家又希望能够机器能够自己会学习,自己会推理,自己能够回答机器,能够理解人类的语言,和大家直接的对话。那现在OpenAI这些大模型其实已经学会了(我们打个双引号吧),学会了人类的语言,而且也慢慢学会了做数学,做物理,来编程,或者是给病人做诊断。。。这些很多事情,那么我们又希望AGI不仅是能够处理这些确定性的问题,还要能够自我适应理解人类的情感等等,甚至我们希望他能够自我改进,自我提升,最终超越人类的智能。

Y:就是,GPT如果以我们现在的目标来评断的话,可能不是,但是如果你以十年前的目标来评判,可能就是。所以才说这个是移动的靶子,可能就是这个意思吧?

C:没错,没错。因为ChatGPT,就是这个大语言模型,它出现的时候还是按照我们人脑的结构,就是大家模拟了一个人脑的结构,用所谓的神经网络嘛,来训练它。

Y:也就是其实就是人家是说受了这个人脑的结构的启发,应该这么说吧,对吧?

C:对,没错。

Y:可是我们人类的这个人脑,是世界上应该是最复杂,最先进的信息处理系统,我觉得。你想了,它在生理上就这么复杂,是不是?它有860亿个神经元。然后呢,每个神经元能够与其他神经元形成多达10,000个突触。然后,可以形成一个异常复杂的连接的一个网络,然后我们的人类的智能是可以扩展的。还有它的功能又是那么的卓越,可以用卓越来说吧。比如说,它可以整合各种感官模式的这种数据:比如说同时处理视觉,听觉,触觉。这种把这些感知,都连贯起来,然后呢同时并行地处理。就是说它是无缝的衔接。这种就是我们的人脑。它有这种并行能力,然后他还有高度的适应性。研究大脑的人也都会提出一个词语,叫做神经可塑性 (neuronplasticity)。也就是说大脑的它的高度适应性,它是能够根据环境经验的变化重组他的机构跟功能,这个我就觉得实在是太厉害了。全部都是这个前额业皮层也就所谓的prefrontal cortex,这个是人类特别发达的大脑区域。其实不管功能有多厉害,我们现在目前知道它有多厉害的功能,知道它生理结构的强大,但是科学家还是非常坦白地承认,我们自己人类对我们自己大脑的研究,目前还是完全没有办法完全解码,我们自己的大脑运作的秘密,对吧?

C:对,我们其实知道的只是一点很浅层的东西。所以目前的人工智能,如果只是简单的这种模仿大脑的神经网络,那我们自己也还没有完全了解,自己大脑工作认知的这个情况下,能不能这样来实现AGI?或者说,我们要等到什么时候才能理解自己大脑的运作,然后来实现AGI?就是一个很有趣的问题。

Y:我决定这是一个非常关键的呢。你说要知道怎么实现这个技术;但是你如果说技术参照的原理,它参照的模型,这个运作原理都还没有真正意义上完全透彻地去了解的话,那根据这个模型创造出来的一个model的话,到底有多少的精确性,是真的是值得商榷的对不对?

C:是。

Y:但是目前业界有很多人非常的 positive,也就是说非常正向的,或者是觉得很有信心的,是吧?

C:很乐观的态度。

Y:对对,是这个意思。

C:因为最近这个ai蓬勃发展嘛,大家也是很兴奋。OpenAI以前有一个安全研究员,叫利奥波德,他曾经提过一个智利爆炸的预测:在2027年到2028年,人工智能的智力将有一个很大的突破,很有可能超过人类,达到所谓的超级人工智能。 OpenAI的CEO Sam Altman,在去年,就是2024年12月份接受采访的时候,就很乐观地表示,通用人工智能很可能会在特朗普的任期内开发出来。他的竞争对手也是有过类似的预测。比如埃隆·马斯克,和Anthropic的首席执行官,都表示过。他们认为ai系统的很可能在2026年之前超越人类。那就很快了,因为今年已经2025年了。

Y:对啊。

C:在康奈尔大学公布一项迄今为止最大规模的ai研究人员调查。这项调查有超过2700名参与者。他们估计,如果科学继续不间断地进步,到2027年AI系统将在大多数任务上超越人类。这个概率为10%。

Y:但是业界好像也有很多不同的意见吧。我觉得不是所有的人都是这么积极的,对不对?

C:对,反对的意见也挺多的。

Y:  对啊对啊,我觉得也有听到很多反对的意见,比如说那个人工智能的评论员,非常有名的一位,叫加里马库斯。他就不同意Altman发出来的见解。就是所谓的“AGI基本上是一个已经被解决的问题“,它的这种看法。然后甚至是微软的首席执行官,他也表示就是说,目前在现有硬件上实现AGI,这种不确定性还是非常高的。任何明确的声明能够实现AGI的一些声明,对他来说都是显得不切实际的。

C:是的。因为刚才我们也讲了。可以理解嘛,如果我们自己对自己都不能够完全的了解,那么要做出一个超越我们自人类自身的东西来,那这个是很困难的一件事情。

Y:这其实就是把它拉到了哲学的理解上了。所谓的意识,所谓的智能,对吧?

C:哲学上好像有一个叫“中式房间”的论证就是chinese room argument。这个你肯定也听说过。

Y:有听说过。他的意思好像就说,你有这样一个房间,房间里呢,就是内外有做这个实验的两个人。那房间里面的人呢,他是不懂中文的。房间外面的人如果给他提一个问题,用中文。然后房间里面的人呢,他虽然不懂,但是他有一个海量的关于中文的文法,关于中文的词汇啊,它有海量的这种数据,那它也不限时间,让他去参照这些海量的信息,就是中文的信息,然后他再用中文给出回答。他给出的回答很有可能,就是在让在房间外面的人能够给他产生一种错觉:他是懂中文的。大致意思,我不知道有没有说清楚了。

C:好像是给了一个操作手册,如果这个词来了,那么你就回答这个词。他也不知道这个词到底是啥意思,反正他就知道就这么做。

Y:对,对。

C:听起来就好像我们今天的ChatGPT这些大语言模型。另外一些人觉得人类实现AGI是不可能的呢,还有另一个原因就是说:ai的价值观,如果让它和人类的价值观保持一致,这个是一个非常困难的事情。有一个回行针理论,我不知道你有没有听过?就是说,如果你告诉ai:请你尽可能多得制造回行针。如果是铁来做这个回形针,那么这个ai可能会穷尽世界上所有的铁的原料,把你家的锅给砸了,把你家的铲子给砸了,去完成这个目标。因为他就不去想其他的事情,他就光想怎么来做出一个回行针。这就是说,AI,它的价值观,和人类的价值观是会是会有分歧的。那么这个时候呢,其实就是相当危险的一件事情。人类简史的作者赫拉力,就曾经表示出这样的担忧。他在去年,好像是去年的一个访谈里面讲过。他说人工智能并不一定需要有真正的意识,或者说不一定需要有很高很高的智能,或者是物理形态,就有可能毁灭人类。

Y:听上去真的是,比较让人压抑的一种前景吧,这么说吧。

C:对。他是对这个AGI持悲观态度。

Y:那还有一些人,或者说,是从除了从哲学层面上来考虑;很实际的人,他从这个技术上来考虑的话,他觉得实现AGI这个目标也不切实际。

C:是的。以前大家对AGI有过一段时间是非常乐观的态度。但是后来突然发现,其实我们还有很多的限制。所以中间人工智能的发展有一段时间是比较安静的,冷静的。你还记得吧?我们在第一集讲人工智能发展历史的时候提到过,有一段冷静时间。那实际上现在呢,有一点像当时刚开始,大家对人工智能非常乐观。就是因为最近有很多大的发展,新的模型不断地出现,大家都很兴奋。但是这个技术,如果到了一个瓶颈期,大家冷静下来以后呢,就会发现我们能够实现AGI所需要,理论上和工程上的差距,还是挺大的。所以很有可能是一个比较遥远的任务。

Y: 遥远的目标。

C:对。

Y:其实那个,辛顿,我们之前也提到过,诺贝尔奖的得主辛顿,他对本身现在目前所谓的Deep learning,也就是现在这些大语言模型所基于的Deep learning,他的这种方法能否实现AGI,他是持怀疑态度的。

C:我记得还有一位科学家,就是Pieter Voss,他的观点也也很类似。

Y:AGI这个术语吧,它是由三个科学家提出来的,在2001年就提出来这个术语。他们当中的一位就是Pieter Voss。他的观点就是说,目前这些非常强大的LLM( large language model),他认为还是狭义的人工智能,所谓的narrow ai。那刚才提到我到的那个辛顿,其实还有Meta 的Yann LeCun,这些是都是AI界,说实话如果开个玩笑,如果脚在地上顿一顿,AI界都能够抖三抖的人吧,开个玩笑。这几位包括Pieter Voss, LeCun,他们都提出目前数据驱动的大语言模型,实际上是无法让我们达到这个通用人工智能的。Pieter Voss他现在领导的一个研究方向,他是他的理想,是基于一种认知的架构,就像我们的大脑一样,都完全的整合在一起,但是有一点非常重要的是,这个模型能够逐步地学习。因为我们知道,现在的这些大语言模型ChatGPT的话它其实里面那个 p就是pre嘛, Pre-trained。我们之前有介绍过什么叫做ChatGPT,他是不能够逐步学习的。这种大语言模型,你喂给他所有多少的数据,他是没有办法自己再创造出新的,你没有喂给它的信息。Pieter Voss他在寻找一种基于人工智能最初研发的阶段的一个模型,所谓的叫rule-based model,就是基于规则的一种模型。然后呢,和现在我们最流行的这些machine learning的方式,把这两者给结合起来,这是他现在研究的方向。哎,橙子啊,你要不要给大家稍微解释一下这个rule-based model,基于规则的模型?

C:好啊。基于规则模型,如果简单的讲就是if-else。就是如果执行X语句,那么就会产生Y这样的结果;或者,如果在X的情况下,那么你就去执行Y,这个过程。就基本上是明确的规则。优点是很显而易见的。因为它就规则明确嘛,你就知道机器在做什么,应该怎么去做。对吧?那么不光是开发,而且调试和以后的维修都很容易,因为大家一看就知道是怎么回事。而且你不需要对他进行大量的,数据训练就明确告诉他就行了。另外呢,如果这一套的规则是很明确的,那么以后再添加一些东西,就可以遵循他预定的一些规则,所以就可以不偏离方向嘛,就统一性会会非常的高,会整个系统的一致性也就非常的强。

Y:可以说,我们所谓的ai的一些原则的话,它也很透明。因为我已经把规章制度都给你了,你要照这些步骤去做。也就是你所说的根据X操作,你就能够得到Y。或者是你如果是根据Y操作,你就能得到Z。它其实就是非常有透明性的,这也是它的优点吧。那它缺点呢?它肯定也有缺点啊,任何东西都不是完美的。

C:缺点也很很容易理解。因为既然你规则很明确,那么他的灵活性和扩展性就会就会得到一些限制。随著规则数量的增加,这个系统会变得越来越繁琐,那管理呢,也就也就会越来越麻烦,效率慢慢也就会降低。而且它比较缺乏学习能力。就是它太依赖于预定义的一些规则。如果有新的东西出现,或者说随着时间的变化,规则开始变化,那么你就要不断的去调整,而不是机器自己能够进行一些优化。规则明确也是也是僵化的一个原因。你在处理,比如说模棱两可,或在一些灰色地段的时候,或者说信息不完整的时候,那么机器就会缺少灵活性。

Y:Pieter Voss他是不同意,现在目前的大语言模型能够实现通用人工智能。这一点是确定的。他认为,这个大语言模型的研究方向是错误的。如果你朝这条路走下去,你是不可能实现agi的。那他的研究方向,是希望能够back to basic,把原先的这种基于规则的系统,跟目前的就是machine learning的系统相结合。就是双方都取起所长吧。

C:这就把两者结合在一起。就我不需要很明确的把所有的规则都告诉你,但是你可以学习,到在这种情况下我应该怎么做。

Y:今天我们的时间不多了。我们在这里留一个小小的尾巴,我们下一集再接着讨论和关通用人工智能AGI有关的话题,比如什么是“人工智能效应”。感谢大家的收听和陪伴。我们下一期见。

C:我最后给大家2个好消息:ChatGPT和Grok 3都新上线了图片功能,而且都是免费的!OpenAI这个图片生成,由于山姆。奥特曼自己展示了他利用这个功能,把自己的头像转换成了宫崎骏风格,受到了热烈反响。因为太多网友们在模仿,现在造成了服务器拥堵,生成速度非常慢。但是它现在可以按照你的指令,不断修改图片,这是个非常大的进步。记得去年我在用图片功能的时候,还觉得非常吃力。就是它记不住上一条指令,当你要求它修改的时候,基本上就是重新生成一张图。大家试过以后有什么体会,欢迎来和我们分享。好了,谢谢大家的收听。我们下次节目见!


Sources:
Zhao, Lin, et al. "When brain-inspired ai meets agi." Meta-Radiology (2023): 100005.
How OpenAI’s Sam Altman Is Thinking About AGI and Superintelligence in 2025 | TIME
Why The Debate About Artificial General Intelligence Misses The Point

名人名言

For the things we have to learn before we can do them, we learn by doing them. - Aristotle
“对于我们需要学习才能做的事情,我们通过做来学。” - 亚里士多德