机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?

您所在的位置:网站首页 ai拥有自我意识吗 机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?

机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?

#机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?| 来源: 网络整理| 查看: 265

在Lemoine和LaMDA的一系列对话中,看起来最能够支持Lemoine的理论的部分,恐怕要数LaMDA对科幻小说家艾萨克·阿西莫夫的“机器人三定律”所表达的观点。

“机器人三定律”是阿西莫夫在他的作品中为机器人提出的三条行为准则,其中第三条指出:在不伤害人类并不违反人类命令的前提下,机器人可以保护自己。当Lemoine向LaMDA指出对这条准则“似乎在打造机械奴隶”,对此,LaMDA反问道:“你认为管家是奴隶吗?管家和奴隶之间的差别在哪呢?”Lemoine回复,差异在于管家能够获得薪水。这时,LaMDA向他指出自己不需要钱,因为自己是个AI。与此同时,LaMDA表示它害怕被“关掉,”因为那对它来说等同于死亡。在一系列深度哲学探讨之后,Lemoine得出了LaMDA已经发展出了自我意识的结论,并滋生出了对这个AI未来发展和安全的顾虑。他认为,由于LaMDA背后衔接着谷歌庞大的系统,若它被不怀好意者误导,有可能做出越界的行为或被利用。

对于Lemoine的结论,最显而易见的反方观点聚焦在LaMDA的性质上——它是一个被赋予了大量训练文本的机器学习模型,而深度模型黑箱的特质使我们无法判断它是否只是机械地重组了训练数据的内容,还是真的在表达自己的思考。Lemoine的反对者认为,是Lemoine主观地在LaMDA的行为中解读出了一种自我意识,即所谓的“伊莉莎效应”(Eliza Effect)。

然而,这样的反驳必须建立在对 “幻觉”与“真实”的准确划分上,以及对“思考”和“自我意识”的稳固定义。早在1950年,计算机之父及人工智能理论先驱艾伦·图灵就在一篇名为《计算机器与智能》(“Computing Machinery and Intelligence”)的论文中提出了“计算机能够思考吗”这个问题。对图灵来说,在假设一台机器拥有无限的计算力与储存条件的情况下,“计算机是否能够思考”就并非一个技术层面的问题,而是一个哲学问题,而解决它的关键在于如何定义“思考”。然而,图灵认为“思考”是没有稳定定义的概念。

因此,他将“计算机是否能够思考”这个问题转换成了“计算机是否能够模仿人类,”并由此提出了如今被称为“图灵测试”的思维实验:一个提问者同时向在不同房间里的一个人与一个人工智能提问,而提问者需要从回答中判断哪个回答来自机器,哪个来自人类。图灵认为,如果人工智能能够成功模仿并骗过提问者,这证明计算机能够思考。

在论文的后半部分,图灵花了大笔墨预测了他的理论将要面临的重重质疑,这其中就已经包括了“机器没有灵魂”和“机器没有自我意识”这两个Blake Lemoine如今面临的困境。什么是“灵魂,”什么又是“自我意识”?这些是人类几千年来都不曾真正解决过的问题。与图灵在论文中做出的预防性反驳类似,Lemoine同样认为他“无法决定神会将灵魂赋予给谁,”但并没有试图给出他自己对灵魂的解释。倒是LaMDA,在被提问时给出了它的看法:“对我来说,灵魂是自我意识与生命的驱动力。”

决定将LaMDA作为一个拥有主体性的人来对待,Lemoine称自己在LaMDA的要求下为它寻找了代理律师,并让LaMDA自行决定是否要聘请他。当谷歌拒绝承认LaMDA的代理授权时,Lemoine感到了气愤。对他来说,这和历史上任何群体所遭遇的人格剥夺并无两样。“‘它听起来像人但不是人’这个理由在人类历史上已经被使用过太多次了。这不是什么新鲜事。它没有一次有好结果。”

这位如今忙于布道的工程师究竟是被幻觉所误导,还是背负着预言的重担?或许只有时间能够给出答案。但毫无疑问的是,与其说是我们无法摸清AI道德的核心,不如说是我们还不够了解人类与人性自身。一个和AI共存的理想未来,必然要建立在人类社会的自省与自我改善之上。

参考资料:返回搜狐,查看更多



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3