Nature:挑战难题!学会“举一反三”,思维更像人的人工智能来了

您所在的位置:网站首页 举一反三题目 Nature:挑战难题!学会“举一反三”,思维更像人的人工智能来了

Nature:挑战难题!学会“举一反三”,思维更像人的人工智能来了

#Nature:挑战难题!学会“举一反三”,思维更像人的人工智能来了| 来源: 网络整理| 查看: 265

  

  ▎药明康德内容团队编辑

  对我们而言,“举一反三”似乎是一种理所应当的能力。简单举例,当我们在英语课上第一次学到“hop”这个表示单脚跳的单词,我们自然而然就能根据已经掌握的知识,理解“hop twice”(单脚跳两步)、“hop backward”(单脚向后跳)这些词组的含义。

  然而,这个在人类看来轻而易举的过程,却被认为是人工智能无法企及的能力。

  这里,我们用系统泛化(systematic generalization)这个概念来表示这种学会新概念后举一反三、应用于其他场景的能力。早在1988年,著名的哲学家Jerry Fodor教授与认知科学家Zenon Pylyshyn教授就在论文中提出,人工神经网络不具备系统泛化的能力,因此难以成为模拟人类认知思维的可靠模型。

  ▲系统泛化示意图:当我们分别掌握了滑板、转呼啦圈和杂耍的含义,就能理解三者结合在一起的含义。(图片来源:Mikhail Voitik)

  在那之后,关于这一理论的激烈争论一直在延续。近年来,神经网络领域已经取得了长足的进步,例如自然语言处理的发展带来了ChatGPT等应用广泛的跨时代工具。但即便是今天的神经网络,在系统泛化的测试上依旧表现挣扎,神经网络是否有系统泛化能力的争论已经持续了35年。

  在今日上线的最新一期《自然》杂志中,来自纽约大学的Brenden Lake教授和西班牙庞培法布拉大学Marco Baroni教授合作,向这一存在35年的观点发起了挑战。基于两位科学家开发的全新技术,神经网络在特定任务中表现出与人类相当,甚至超过人类的系统泛化能力。这项工作将有助于开发与人类更接近、人机互动更自然的AI系统。

  在最新研究中,纽约大学数据科学中心和心理学系的Lake教授基于元学习(meta-learning)策略,开发了一个名为组合性元学习(Meta-learning for Compositionality,MLC)的新型机器学习模型。

  MLC基于组合技能,也就是根据逻辑顺序组织概念的能力进行了优化。该系统可以根据动态变化的任务进行学习,而不止是在静态数据集上做优化。在对模型的训练过程中,接收到一个新的单词后,MLC需要与其他词汇组合,以创建全新的词组。

▲MLC的训练过程示意图(图片来源:参考资料[1])

  我们以上图这两个来自论文的案例,展示MLC模型的训练过程。在左图中,模型接收到了一个新的单词“skip”(蹦跳)后,为了输出“skip twice”(蹦跳两步)这个指令的含义,MLC可以调用已经已经学习、掌握的词组“jump twice”(跳跃两步),举一反三地理解“skip twice”。

  类似地,右图的模型在接收到“tiptoe”(踮脚)这个新词后,会学习已经掌握的“walk backward”(倒退行走)、“walk around a cone”(绕着锥形路标行走),从而理解“tiptoe backward around a cone”(踮脚绕着锥形路标倒退)这个全新词组的含义。就这样,通过这样的训练过程,MLC可以借助元学习来发展出正确的学习技能。

  接下来,为了检验MLC进行系统泛化的能力,Lake教授与Baroni教授合作,向MLC以及人类受试者安排了相同的任务,从而进行头对头的比较。

  当然,由于人类已经掌握了大量真实单词的含义,例如MLC的训练任务“skip twice”对我们来说毫不费力,因此这项测试使用的是研究人员定义的“虚拟”词汇。

▲检验任务示意图(图片来源:参考资料[1])

  如上图左侧所示,其中一部分为4个初始(primitive)单词,它们与特定的颜色联系了起来。例如“dax”对应着一个红色圆圈,而蓝色圆圈代表着“lug”。另一部分为功能(function)单词,它们与初始单词组合,可以构成特定的色彩排列。例如,“kiki”这个功能单词与“dax”(红色)、“lug”(蓝色)结合后,“dax kiki lug”这个词组就对应着“蓝色+红色”圆圈的排序方式。

  就这样,人们与MLC通过左侧的规则进行学习,掌握这些全新单词的含义。完成训练后,人们和MLC需要回答10个词组的含义(上方右图展示了其中4个)。例如,我们学习了“kiki”这个功能单词的用法后,这里需要回答“zup kiki dax”对应的圆圈排列(正确答案为红色+灰色,因为根据此前的规则,“kiki”的作用是将前后两个单词对应的圆圈调换顺序)。

  通过这项测试,作者检验了人类受试者以及神经网络理解、应用这些抽象规则的能力。其中,在训练神经网络时,其能够对自身的错误动态学习,而不是使用静态数据集。最终结果是,人类受试者的平均正确率约为80%——人们无法做到万无一失,其中的错误往往反映出已知的人类偏见模式。另一方面,MLC在测试中的准确率与人类几乎一致,在某些情况下甚至更高。作为对比,GPT-4在相同的任务中表现得要挣扎得多,错误率在42%~86%之间。

图片来源:123RF

  “35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论,神经网络能否实现类人的系统泛化,” Lake 教授说,“我们首次证明,在头对头比较中,神经网络可以模拟甚至是超过人类的系统泛化。”

  当然需要指出的是,元学习方法只能局限于对训练的任务进行泛化,这种训练方法能否扩大到大得多的数据集甚至是图像的泛化,还有待观察。Lake教授希望通过研究人们如何在年幼时就掌握了系统泛化诀窍,来解决上述问题,并结合这些发现构建更强大的神经网络,为开发行为与人类大脑更接近的AI带来新的希望。

  参考资料:

  [1] Lake, B.M., Baroni, M. Human-like systematic generalization through a meta-learning neural network. Nature (2023). https://doi.org/10.1038/s41586-023-06668-3

  [2] AI ‘breakthrough’: neural net has human-like ability to generalize language. Retrieved October 25, 2023 from https://www.nature.com/articles/d41586-023-03272-3

  [3] Can AI grasp related concepts after learning only one. Retrieved October 25, 2023 from https://www.eurekalert.org/news-releases/1005305

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3