从周围环境中获取生活经验的本事,某种意义上可以说是人类在AI面前的最后一块自留地,但现在,这块自留地似乎也有可能要失守了,最近,DeepMind的研究成果发现,一个从未使用过任何预先收集的人类数据的智能体,可以从零开始学习周遭的模拟环境,并习得人类行为。 AI对人类世界的学习能力,到目前为止仍然停留在语言层面。 喂给大模型语料——最初是维基百科和Reddit,后来扩展到音频、视觉图像甚至雷达和热图像——后者广义上说是换了种表达方式的语言。也因此有生成式AI的创业者认为,一个极度聪明的大语言模型就是那个通往AGI最终答案,多模态的研究道路只是目前对前者的底气不足。 我们对未知生命族群的想象力以此为限(如果硅基生命也算的话)。当谈起外星生命,冲进脑子里的第一个想法是外星语言,《三体》里三体人的第一次亮相也是关于语言。这是人类文明的操作系统,推己及人,语言也会是其他文明的操作系统。《人类简史》的作者尤瓦尔·赫拉利在今年5月公开表达了他对生成式AI的担忧,掌握了人类语言的AI,已经有能力黑进人类的整个文明背后。 但AI对人类语言资源的占领,也是人类目前对AI威胁性的想象极限。换句话说,无法抽象成语言被表达和记录的东西,AI学不会。而世界处处是秀才遇到兵的故事,读万卷书不如行万里路,从周围环境中获取生活经验的本事,是人类面对AI的灵魂拷问时最后的自留地。 直到DeepMind带着一篇新的论文出来,说这块最后的自留地咱说不定也守不住了。 DeepMind高级研究工程师,平时还顾着张罗一些非洲AI技术社群的Avishkar Bhoopchand,和在各种游戏公司做了5年然后去了DeepMind的Bethanie Brownfield领衔的一支18人研究团队,最近在《自然》杂志上发表了一篇新的研究成果。 简单来说,他们在一个3D模拟环境中,用神经网络结合强化学习训练出了一个智能体,这个智能体从未使用过任何预先收集的人类数据,但从零开始学习周遭的模拟环境,习得了人类行为。 在这场实验里,AI和“Culture(文化)”这个概念联系在一起,这好像是第一次。 文化传播是一种社会行为,它依赖整个群体实时以高保真度和高回忆率从彼此那里获取和使用信息,这最终导致了技能、工具和知识的积累和精炼,以及最终形成文明,在个体甚至代际间高度稳定发生的知识转移。而这整个过程并不是从一套经过设计的书籍或视频课开始的。 当AI研究者在担心喂给大模型的语料会在5年后枯竭,这首先建立在AI存在一个巨大的能力盲区的基础上,也就是直接从环境中将发散信息抽象化的能力。 DeepMind在智能体的训练中引入了GoalCycle3D——一个在 Unity 中构建的3D物理模拟任务空间。看这张图片可以知道,这个空间存在崎岖的地形和各种障碍物,而在障碍物和复杂地形之间有着各种颜色的球形目标,按特定循环顺序经过目标球体会获得积极奖励。 DeepMind在这个空间中设置了具有“上帝视角”,如何行动能够拿到奖励的红色方智能体,蓝色方智能体则是毫无游戏经验的“被训练方”。 拿到高分奖励即被视为一种“文化”。一个完全没有游戏背景的智能体所具有的文化传播(CT)值为0,一个完全依赖专家的智能体CT值设为0.75。一个在红色方在场时完美跟随,并在红色方离开后仍能继续获得高分的智能体的,CT值为1。 实验的结果是,在一个随机生成的虚构世界中,蓝色方智能体依靠强化学习完成对这种”得高分“文化的习得和超越,而这经历了4个不同的训练阶段。 第一阶段,蓝色方开始熟悉任务,学习表示、运动和探索,但在得分上没有太大改善。 第二阶段,蓝色方体有了足够的经验和失败尝试,学会了它的第一个技能:跟随红色方。它的CT值最终到达了0.75,表明了一种纯粹的跟随。 第三阶段,蓝色方记住了红色方在场时的有奖励循环,并在红色方不在场时能够继续解决任务。 最终的第四阶段,蓝色方能够独立于红色方智能体的引导,以自己的路线来取得更高分数。这表现在训练文化传播度量回落至0——也就是蓝色方不跟着红色方走了——但同时得分继续增加。更准确地说,蓝色方智能体在这个阶段显示出了一种“实验”行为,甚至开始使用假设检验来推断正确的循环,而不是参考机器人,也因此,蓝色方最终超越了红色方,更有效地得到了循环奖励。
|
新创华(SCLA)正式获东宝授权,成为哥斯拉
TEDx外滩2025年度大会 -- 胜利的半程路:中