经典论文

您所在的位置:网站首页 人类是群体 经典论文

经典论文

2024-01-21 01:37| 来源: 网络整理| 查看: 265

主奴辩证法与相互承认:试论人工智能战胜人类的可能性

摘要:

人工智能战胜人类的可能性,会成为未来社会科学讨论的关键问题。奇点是西方学者用以描述人工智能超越人类的临界点。目前,人工智能的发展非常有可能超出人类控制的范围,而自学习就是人工智能最令人类生畏的地方。遗传算法可以帮助人类获得问题的最优解,但人类并不知道这一算法的运行逻辑及其背后的实现路径。自我意识可能会成为人类智能的最终屏障,然而,情感计算在帮助机器理解人类意图的同时,也会增加机器发现其主体间性的可能。在未来,机器与人的关系很有可能会上演又一次主奴辩证法的循环。尽管人类的初衷是功利性地使用机器,但人类对机器的依赖最终很有可能达成与机器相互承认。换言之,人工智能很有可能在与人类的斗争中,取得自己的主体地位,并实现黑格尔意义上的相互承认。

作者简介:

高奇琦,华东政法大学政治学研究院

李 欢,华东政法大学政治学研究院

文献来源:

《理论探讨》2017年第6期

注:标注系论文发表时作者所在单位

本文作者之一高奇琦

人工智能能否战胜人类? 这大概是人工智能领域最热的话题,也是目前人类最关心的问题。人类作为地球的主宰者已经有几千年的历史,在语言和生产工具等条件的帮助下,人类打败了地球上所有的大型动物,成为地球上最高级的统治群体。假如有一天人工智能战胜了人类,这将对人类的统治地位造成一种终极挑战。因此,这样一种可能性对于人类而言,具有颠覆性的影响。人工智能被发明出来本是为了服务人类,然而,人 工智能的未来发展却有可能战胜人类,这似乎是一种悖谬,同时也像是一种反讽。当奇点来临时,人类将何去 何从? 本文将对这一话题进行深入探讨。

一、奇点: 人工智能超过人类的临界点

奇点(Singularity) 在英文中有异常、奇特等释义。在数学概念中奇点表示不可定义的点,即分母为零的情况。在世人所熟知的天体物理学中,奇点被描述为宇宙起源时的状态。宇宙在大爆炸之前,是以奇点的形式存在的,它有一系列不可思议的性质,如密度无限大、体积无限小、时空无限弯曲等,以至于光都无法摆脱它的吸引。我们常说的“黑洞”,也是以奇点为中心。技术奇点的概念最早是由著名数学家、“计算机之父”冯·诺依曼( John von Neumann) 提出的。他认为: “技术正以其前 所未有的速度增长……我们将朝着某种类似奇点的方向发展,一旦超越了这个奇点,我们现在熟知的人类社 会将变得大不相同。”由此可以看出,冯·诺依曼将奇 点当作技术对社会产生重大变革的时刻。

而当今奇点概念的火热则与雷·库兹韦尔(Ray Kurzweil) 相关。世纪之交,奇点大学的创始人、美国最有名的发明家库兹韦尔在《奇点临近》一书中阐释了人 类与技术结合的观点,并把人工智能超过人类的那一时 刻叫作“奇点”。库兹韦尔用类似于救世主的口气,即圣经中说“上帝就要来临”的口气,描述了奇点就要来临的场景。这一带有未来预言味道的观点,在人类社会中产生广泛的影响和讨论。库兹韦尔不仅是奇点这一概 念的提出者,还是人工智能的一个重要的实践者。他创立了全球领先并且体制极为独特的奇点大学。通过这一大学,库兹韦尔将最前沿的科学家和爱好者聚合在一起,为未来这一时刻的来临做科学和技术上的准备。

许多人都对人工智能战胜人类或者在智力上超过 人类这一观点持赞同的态度,或者说绝大多数的科学家 都认为人工智能在智力上已经或者终将超过人类。这 一点在2016 年的 AlphaGO 和围棋冠军李世石的对战中 得到了进一步证明。人工智能曾在 1997 年战胜了国际象棋冠军,尽管这一新闻在当时引起了爆炸性的轰动,但很快人类就归于平静。因为国际象棋不是人类棋类中最困难的,而围棋则被视为人类智慧的最后一道屏障。在 2016 年的人机大战前夕,人类棋手还有十足的信心。例如,聂卫平等人都认为在围棋上,人工智能不可能战胜人类。但结果很残酷,人工智能完败人类棋手。而且在之后的一些对弈中,人类棋手无一例外地遭到惨败。这一点动摇了人类作为地球上最聪明生物的地 位。2017 年 5 月,目前人类最高水平的棋手柯洁以 0 比 3 的战绩完败于 AlphaGO,这点意味着在围棋上,人类战胜人工智能的可能性越来越低。这一事件也成为人工 智能发展史是一个重要的分水岭事件。

许多科技界的巨头都对人工智能超越人类抱有悲观的态度。例如,2015 年 1 月 12 日,一封由著名物理学家史蒂芬·霍金和企业家埃隆·马斯克参与签署的有关人工智能研究的公开信( Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter) 由生 命未来研究所( Future of Life Institute) 向全世界公开宣称,“彻底开发人工智能可能导致人类灭亡”“人工智能是超过核武器的对人类的最大威胁”等等。著名纪录片导演詹姆斯·巴拉特(James Barrat) 也悲观地认为: “我们走向了毁灭之路……机器并不憎恨我们,但随着 它们获得宇宙间最不可预测、我们自己都无法达到的高级力量,它们会做出意想不到的行为,而且这些行为很可能无法与我们的生存兼容。这股力量是这么地不稳 定而又神秘莫测,连大自然也只做到过一次。”至于何时人工智能将达到人类的水平,专家们意见不一。戈策尔等人曾在美国做过一个调查,少数人工智能专家认为,到 2020 年人工智能就有望达到人类的水平。但总 体而言,计算机科学家、机器人技术和神经科学领域的专业人士更为保守,他们认为,2028 年实现的概率略高于10%,2050 年的概率将会高于50%,到 21 世纪末的概率则为 90%。

然而,人类还有安慰自己的办法,因为机器终归还是人类的造物。也就是说,人类到目前为止还有一种选择,那就是拔掉电源,把这场人工智能的游戏停下来。但事实上,人类已经无法让这场游戏停下来,因为驱动 这场游戏背后的相关利益十分巨大。据CB Insights 今年发布的报告《人工智能状况》(The State of Artificial Intelligence) 显示,人工智能公司的股价在过去 5 年中上涨了 5 倍,而且相关投资也从 2012 年的 5.59 亿美元暴增 至 2016 年的 48.71 亿美元。不仅各大公司在进行人工智能产业的相关布局,国家之间也在积极发展人工智能,以免在这场人类历史上的第四次科技革命中落伍。例如,2012 年德国公布“工业 4.0”计划,将人工智能作为 未来的重要发展方向; 2016 年 12 月,英国政府发布 《人工智能: 未来决策制定的机遇与影响》的报告,阐述人工智能对其国力影响的重要意义; 2017 年 3 月, “人工智能”也被首次写入中国政府工作报告。因此,尽管人工智能是人类的造物,但人类现在已经无法停止它发展的脚步。

二、自学习: 人工智能让人生畏的地方

人工智能概念的初期释义,其实是指其自我学习的能力。凯文·凯利( Kevin Kelly) 在《必然》中提出“知化”(Cognifying) 的概念来阐述人工智能,即赋予事物以 认知和学习的能力,“把机敏的头脑置入普通事物之中才能带来真正的颠覆”。他举了一个例子,人工智能的科学家们让人工智能先玩人类在 20 世纪 80 年代的计算机小游戏。人工智能在两个小时内将这个游戏玩了几百遍,并找到其中的漏洞,甚至还自动编写出程序来 跳过这个漏洞。这是人类上百万玩家都没有发现的,这一点让人工智能的科学家们大吃一惊。另外,康奈尔大学计算合成实验室也曾开发出能从原始数据推导科学 规律的软件。计算机先是观察钟摆摆动,对钟摆运动方程做出猜测,再结合方程的精华部分,通过多代演算之后,就可以输出能量守恒等物理定律。

最近的一个研究发现,人工智能不仅可以自动运行游戏,还可以自己发明出智能机器人之间沟通的语言。这是一种被称为“遗传编程”( Genetic Programming) 的技术,“它通过机器学习的方式,并且运用自然力量,为一 些人类要花很长时间(甚至数年) 才能解决的问题寻找 答案。它也可以用来编写高功率的创新软件”。在 人们看来,机器的自学习能力已经达到匪夷所思的地 步。

人工智能的自学习能力对人类的影响突出表现在决策方面。例如,我们的驾车路线可能会依赖智能导航系统,医疗诊断会依赖大数据提供的概率,出行意愿会受到算法得出的天气预报影响等。在现实中,人工智能帮助人类决策的过程会产生如下两个问题: 第一,人工智能关于人的历史信息可能是片段的,具有不完整性。例如,人工智能会采集某个人半年的数据,或者几年的数据,但是,对他之前几十年的数据可能没办法采集,因为历史无法回溯。所以,就出现了一个局部历史和整体历史的问题,这将导致人工智能提供决策的不完整性。第二,人工智能可能会从历史的角度帮助人做决策,但是人的许多决策可能充满了偶然性,因为人并不是纯粹理性的动物。当人们在某一时间点上希望做出一件与历史上的他差异较大的决策时,人工智能仍只能把他向一个历史的路径牵引。举例来说,一个人一直是用自私自利的方式处理问题,突然有一天,他被一个禅宗的故事点醒,并决定利用新的方式解决问题,但此时人工智 能仍会建议他按照原来的方式行动。这样的建议无疑将干扰甚至代替他的决策。而这种干扰的本质,是以人工智能泯灭人的自由选择权利,甚至消解人的自由意志本身。

这样的危险在人工智能“自学习”的概念中变得更加现实。前文所提到的人工智能的例子只不过是一种 “初级的人工智能”或者称为“通用性人工智能”。而通过自学习能力的加强,将导致一种截然不同的技术转变。这一技术的转变表现为通用性人工智能摆脱单一终端的决策系统,进而演化为一种集体智能( Collective Intelligence) 。我们目前的决策系统是将个体提供的输入值进行平均处理,不允许个体间的相互影响,因此,容易导致群体性偏差。而群体智能(Swarm or Collective Intelligence) 则是“一群大脑的大脑”。其决策方式更类似 于人类脑中的神经元,通过输入大量的可执行单元,它们同步运行,能够整合噪声、权衡替代方案,最终以一种“足够激励量”(Sufficient Quorum of Excitation) 的方式确 定并最后形成特定的决策。随着技术的不断进步,从 中长期来看,人工智能将进化为“抽象人工智能”,可以 理解用户感情,甚至改变用户的行为和生活习惯。在未来,人工智能将全面超越人类,演变为“超级人工智能”, 在人们行为之前进行预测,进而达到“限定”人们决策的结果。

在现实生活中,人工智能令人生畏的影响可能更为复杂。如果人工智能真的取代了数以百万计的出租车司机、卡车司机、医生、律师等,那么,这些愤怒的人一定会组织起来进行抗议,并对整个社会秩序形成挑战和威 胁。同时,绝大多数的社会资源很可能掌握在那些拥有超级人工智能的超级大公司手里; 或者说,少数的精英和人工智能可能会控制整个人类社会的财富以及相关 的选择。这种情况显然会挑战人类社会的理想秩序和基本原则。

传统上,人们做出判断都要依赖于自己的直觉。但是,伴随着人工智能的发展,在人工智能不断挫败人类对智力的理解之后,绝大多数的人会在日常的生活和工 作中高度依赖人工智能。这样实际上就是把自己选择的权利交给了人工智能,而那些控制了超级人工智能的大公司以及控制人工智能的技术精英就可能获得了控制整个世界的超级权力。同时,这种超级权力极有可能是不受制约的,因为这些技术精英会用人工智能和算法来论证选择的合理性。这里可以设想一下未来很可能发生的一种图景来对这一问题加以解释。例如,在美国 2030 年的一次选举中,美国的公民可能会在投票时,向 为自己生活和工作提供过所有智能指导的算法询问其 投票倾向,然后在人工智能的投票指引基础上做出判断。由于人们已经对人工智能形成一定的依赖,或者说绝大多数人已经无法抗拒或推翻人工智能的选择,所以,每一个公民的投票实际上都是在超级大公司的人工智能指引下完成的。从另一个角度来说,最后的投票结果并不是公民的意愿,而是在投票之前就已经为人工智能的意愿所决定。

未来的人工智能的功能会越来越强大,而人的自由选择的空间会越来越小,所以,这一问题将变得愈加突出。这种情况的结果就不仅仅是福柯所讲的“知识序列 的崩溃”导致哲学意义上的“人将被抹去”,而是现实意义上的人的消亡。人工智能而非“知识的组合”,将会成为一种确保自我认同的思想系统。在此基础上,某种新的极权主义将可能会重新崛起。

三、情感计算与自我意识的产生

人类引以为傲的还有一个重要的内容,即自我意识。尽管人工智能可以在围棋上战胜人类,但这种战胜本身不过是人类编程的结果,机器不可能拥有自我意识。流传甚广的“中文屋论证”( Chinese Room Argument) 的思想实验也是在说明这样一个道理: 假设把一个母语是英语、不懂中文的人关在一间满是汉字符号的房间(数据库) 里,房里还有一本操作汉字字符的指导手册( 程序) 。假设房间外面的人向房间里的人传入其他的汉字字符,这些字符其实是中文的问题(输入) 。再假 设房间里的人按照程序指令,能够传出汉字字符,而这 些字符又是问题的正确答案(输出) 。通过这个思想实验,约翰·塞尔(John Searle) 得出结论,和这个房间里的人一样,计算机永远不会真正地思考或者理解。研究人员充其量能够对大脑进行精致的模仿。著名的人工 智能先驱莫拉维克(Hans Moravec) 也持这样的观点,并提出“莫拉维克悖论”(Moravec’s Paradox) : 难的事情很容易,容易的事情却很难。他在《心智孩童》中解释道, 让计算机在智能测试或下象棋上表现出成人水平的绩效相对容易,但在感知和动机性上赋予他们 1 岁小孩的 技能却很困难,甚至根本不可能。人工智能并没有意到他在与人类战斗。他们认为,自我意识既是区别人 与人工智能的一个重要的特征,也是人类注定超越人工智能的特征。

但自我意识并不是人类独有的东西。最近的一些生物学研究表明,动物也有自我意识。尤瓦尔·赫拉利 ( Yuval Noah Harari) 在《未来简史》中,讲述了一个狒狒 的故事: 它可以躲在一个地方收集石头,用以攻击人类, 由此可以推断狒狒有一定的自我意识。既然自我意 识不是人类的专属,那么为什么机器不能拥有自我意识 呢? 库兹韦尔认为,机器并不能简单地被认为没有“思想”,在很多情况下,机器和人的决策方式是一样的。许 多专家提出,像“沃森”机器人这样的人工智能,靠的只是统计知识,而不是“真正的”理解。他们进一步阐释到,“沃森”只是根据单词序列收集统计数据,而人可以很轻松地把大脑皮层里的分布式神经递质浓度称为“统计信息”。但事实上,在解决歧义时,我们跟“沃森”所用的方法差不多,都是在考虑短语不同含义的可能概率。因此,对于机器是否能够获得自我意识的讨论还不能过于片面和武断。

那么,人工智能究竟能否获得自我意识? 我们可以通过分析两种找到自我意识的方法来讨论这一问题。一种是雅克·拉康(Jaques Lacan) 的镜像理论,人在镜子中看到自己的形状,通过与镜子中的我与自己的感觉 相互印证,从而确认自我。这种自我意识,实际上是 一种意识感,这种意识感的获得,通过自身传递信号到一个相关的映射物,再折射给自己来完成。这实际上是 一个信号传递的过程。在镜子被发明之前,人们可以通过河水等来认识自己。在现代社会我们有更多的方式,如照片、摄像头里面的景象以及对声音的捕捉等。人工 智能的机器在通过情感计算了解人类的过程中是否也 有可能通过类似于照镜子的这类活动找到自我? 这目前在科学上尚未被证实,但科学家们也无法否定这一可能性。另一种是查尔斯·泰勒( Charles Taylor) 的理论。他认为,“在认同的不同条件或赋予其生活以意义的不同条件之间,存在着密切的关联”,而这些关联是“人类主体活动的不可逃避的结构性要求”。也就是说,自我是在群体的活动和意识当中被发现的,个体上所谓的自我,更多是群体意识的反应。

拉康的理论和泰勒的理论有共同的地方,即自我不是孤立的存在,而是需要某种媒介。但二者有不同的倾向,拉康更加强调个体自我的自主性,镜子是为个体自我服务的,而泰勒更加强调一种主体间性。从这两种理论出发,人工智能都有产生自我意识的可能。人工智能可能通过类似照镜子的活动不断确认和感知自我,同时,人工智能似乎也在发展出某些主体间性的东西。例如,Open AI 机器人学会使用自创的口语进行沟通合作,这就是主体间性的表现。只是现在机器人的进化时间还比较短,它们进行主体间合作的次数也比较少, 所以人们对这样一种关系的意义还不能够清楚地认识。

情感计算也是人工智能未来发展的一个重要内容。情感计算是指机器通过人的面部表情或者体态来判断出人的情感。尽管情感计算是由机器来理解人,但同时 也为未来埋下一个重要的伏笔,即机器通过理解人或许 可以学会情感,或者说逐步具有自我意识。库兹韦尔曾 预言,机器必将因此而拥有自我意识: “当它们说出自己的感受时,人类会相信它们……当机器说出它们的感受 和感知经验,而我们相信它们所说的是真的时,它们就真正成了有意识的人。”随着自我意识的产生,美国著名人工智能科学家斯蒂芬·奥莫德罗( Stephen Omohundro) 预测: “(人工智能) 自我意识、自我改进系统将会发 展出类似人类生物动力的四种主要动力: 效率、自我保护、资源获取和创造力。”随着这些人类生物动力的获得,就会产生一个重要的问题,即人工智能是否有可能 奴役人类?

四、主奴辩证法的历史循环

主奴辩证法这一概念是由黑格尔提出的。主奴辩证法对马克思的学说有重要的启发意义,马克思关于工人阶级一定会战胜资产阶级的论断实际上受到了主 奴辩证法的影响。这一辩证法在人类历史上出现过几个循环,首先是在一些主权国家,奴隶获得地位,从而具有主人的身份。在此之后,工人阶级通过持续不断的抗争,也获得资产阶级的承认,并通过西方的代议制民主制度得到某种意义的主体地位。

然而,人类的许多活动仍然需要地位更低的人或动物或其他的物来完成,否则谁来做这些生产活动呢? 因此,当资本主义国家内部工人阶级和资产阶级的矛盾逐渐缓和,其内部的“奴隶制”实际上被消灭,那么该由谁来从事类似于奴隶地位的工作呢? 接替资本主义内部奴隶工作的是其他国家的人,资本主义体系通过对全球价值链中的高端价值的控制权,来取得对发展中国家人 民的奴役。另外,当发展中国家的民众流入这些发达国家时,在较长的时间内,大多数人都不可能拿到移入国的永久居住身份,因此,这就给予发达资本主义国家人 民“奴役”外来人群的机会。

这样的一种主奴辩证法仍然在不断循环,也就是说,当越来越多的发展中国家意识到发达国家对全球价值链的控制之后,就会通过一系列的抗争或者技术学习突破这种主人的统治。例如,在改革开放初期,中国先是主动地用几千万件衬衣换一架波音飞机的代价来做代工厂,但是随着制造业的发展,中国逐渐积累了资本和高素质的劳动力,从而成为制造业大国。而从世界范围来看,进入发达国家的那些外来移民也在逐步获得主人的地位。

在现代社会,人们通过持续不断的抗争,以及人权观念在世界范围内的传播和蔓延,人奴役人的情况变得越来越不可能。这就使得人不得不思考,谁将是下一个可以被支配或者奴役的物种? 于是,人类指向了机器人或人工智能。然而,一个无可辩驳的事实是,在人和机 器人互动的过程中仍然有可能出现主奴辩证法的历史 循环。AI 开发人员加里斯( Garis) 就说道: “人类不应阻挡更高进化形式的发展之路。这些机器如神祇一般,创造他们是人类的命运。”

随着技术的不断进步,人类沦为算法和人工智能的奴隶的可能性也越来越显著,DNA 测试就是一个很好的证明。DNA 测试是一个与人类医疗相关的重要领域。美国在这一领域的龙头企业是 23andMe,该企业由谷歌 联合创始人谢尔盖·布林( Sergey Brin) 的前妻安妮·沃 希基(Anne Wojcicki) 创办。这里的 23 指的是人类基因组的 23 对染色体。科学已经证明,人类的染色体与自 身有非常密切的关系,而人们通过基因测序可以了解关于自己的一些潜在的秘密。该公司目前提供了非常便 宜而方便的一种服务: 用户向该公司支付 99 美元,就会收到一个检测包,用户只需向检测包里面的试管吐口水再密封寄给该公司,23andMe 就会分析唾液中的 DNA 并 在线将结果发送给用户。检测结果会列出一系列由用户基因所反映出的身体特质,并判断未来可能出现的病 症风险。

人们在使用这些人工智能的数据服务时,实际上面临一种数据使用的困境。人类本身有一系列问题急需 这些人工智能帮助解决,例如,疾病的诊断、流感的预警等。但是,如果人们把大量的生物信息都告诉人工智 能,将导致一种结果,即人类将没有任何隐私可言。同 时,人工智能比人类自己更了解他们。或者说,每个人类的个体都需要借助于人工智能的算法来了解自己。这就产生一个严峻的问题: 人类的自主性在哪里? 人类的意义究竟是什么? 在几千年文明的历史中,人类一直引以为傲的便是对自己命运的主宰和对地球的掌控。然而,随着人类把越来越多的数据和对数据的控制权交给人工智能,这种权力的转移最终会导致决策的转移, 亦即当人类遇到一些重大事项时,往往并不是人类自己在决策,而是人工智能在决策。人类夸耀的自由意志, 将越来越变成一个空洞的概念。那么世界的主宰就会变成人工智能和算法,而人类也就变成算法的奴隶。人工智能对人类的威胁如此重大,以至于詹姆斯·巴拉特 (James Barrat) 宣称: “我们只有一次机会,与智能远在人类之上的物体建立积极的共存关系。”

五、人与机器相互承认

1965 年,欧文·古德( Irving Good) 发表的一篇著名的论文《对第一台超级智能机器的一些推测》写道: “让我们将超级智能机器定义为一台在一切智能活动上都远超人类———不管人有多聪明———的机器。由于涉及机器属于这类智能活动的范围,那么一台超级智能机器当然能够设计更为出色的机器; 那么毫无疑问会出现一场‘智能爆炸’,把人的智力远远抛在身后。因此,第一台超级智能机器也就成为人类最后的发明了。”这段话 经常被用来证明人工智能的可怕之处,但其实古德并非 悲观主义者,人们似乎是在刻意忽视其在文末的话: “机器会造成社会问题,但它们可能也具备能力解决这些问题,同时还解决那些人和微生物造成的问题。这种机器会叫人害怕,也会获得尊重甚至喜爱。“

机器人可以在意大利思想家吉奥乔·阿甘本(Giorgio Agamben) 的“赤裸生命”的概念中得到解释,因为机器人本身是没有地位与身份的,而这两点恰恰是赤裸生命概念的核心含义。机器人被创造的初始目的是为人类服务的,所以,人类实际上是把某种对奴隶的历史 作用的想象赋予机器人。一些个人助手在被设计时,就用了这样一种主人与奴隶的对话方式,许多个人助手称 用户为主人。然而,这只是故事的开始,因为人类的道德意识总是在不断地扩张。例如,在资本主义发展初期,妇女是没有政治地位的,妇女的受教育权、选举权等 都受到不同程度的限制。但是,人类道德观念的进步使 得一批先驱思想家开始思考这一问题,比如,自由主义 思想家穆勒。他们发表学说,向社会宣扬妇女权利,最后使得妇女获得了和男子相同的政治、经济、社会地位。与此类似的是,近代以来的黑人奴隶也经历相应 的历史变迁。

因此,机器人在未来很有可能发生同样的变化。即便人类在功利性地使用机器人时,也会慢慢地站在机器 人的角度去思考这一问题。当然,从黑格尔的主奴辩证法来看,机器人也会通过自己的行为去反抗或者提醒人 类关注它的处境。正如牛津大学哲学家尼克·博斯特罗姆( Nick Bostrom) 所言: “先进的机器智能是截然不同的一类东西。尽管人类发明了它,它会争取从人类手里获得自决和自由。”

机器人的反抗与人类对机器人的理解是相互促进的。除去那种实用主义的考虑,人类也确实需要赋予机器人某种法律或实体的地位,以帮助人类完成某种社会活动。例如,一个机器人到街上帮助它的所有者买咖啡,若它不具备民事法律主体地位,那么卖咖啡的人就 有权拒绝与它进行交易。因为交易后产生的法律责任, 可能会更多地归于卖咖啡的人,而非机器人。因此,这就会出现一种从赤裸生命到实体生命或者数据生命的一种转化。也就是说,未来机器人在与人类的互动中, 会逐渐获得生命的主体地位,以及与人类之间的社会网 络关系。

从传统而言,人们似乎很容易否定人工智能的主体 地位。但我们知道,在人工智能之前,我们已经赋予一些不具有具象人格的主体拥有某种主体地位,例如,公司和国家。公司在实践中被称为法人,也就是说它具有 某种独立的人格。因此,出现了公司作为主体的拟制犯罪说,即公司也会成为被告,并且要承担相应的法律责任。同样,国家也具有这样一种类似的独立的人格。赋予人工智能或算法以某种独立的人格,并非完全不可能的事情。欧盟关于人工智能电子人格的讨论以及相关规定,就是这一方面的尝试性突破。

2017 年 1 月 11 日,欧洲议会法律事务委员会在敦促起草一系列用以管理和使用机器人和人工智能的规定时,启用了“电子人格”的概念,以确定人工智能的权利和责任。为什么提出电子人格的问题? 基本原因就在于目前的许多实践已经面临困境。比方说,音乐学教授创造了一个可以作曲的人工智能系统,那么人工智能完成的音乐作品是否享有著作权? 谁将享有这些音 乐作品的著作权? 按照传统的法律,音乐学教授是不能拥有的,因为这并不是他的创造。与此类似的专利权的 问题则更加严重。另外,还出现了有关责任赔偿的问 题,如果机器人造成了损害,那么责任在谁? 进而言之, 机器人是否有权参与一些社会决策? 事实上,机器人已 经在广泛参与人类的决策了,比如,进行医疗诊断、判断案例,甚至有公司让机器人成为董事。那么,机器人是否有权进行民主投票或者参加陪审团? 这一系列问题都指向电子人格的概念。电子人格就是希望赋予人工智能某种人格,使其更加合理地实现其作用和功能。

人格概念的原意是指人的地位和状态,而这里的人 格更多属于法律意义而非哲学意义。人格意味着主体地位的获得,在法律上只有自然人和具有法人资格的主体具有权利、受到保护、拥有特权以及责任。所谓电子人格即是赋予电子产品以主体地位,尤其是对于人工智能产品、机器人等。这在法律上就等于明确了机器人或者人工智能的民事能力和民事责任。

为机器人或者人工智能设定电子人格的一个根本原因在于,原来由人履行的功能正在为机器人所替代。在这种情况下,为机器人设定人格尤其是法律上的法人 资格,是为了给机器人所造成的纠纷提供法律上的解决方式。目前,对于机器人法人资格的讨论存在一些争议。比如,在解决机器人引起的纠纷时,如何确定机器人生产者和机器人使用者之间的责任划分,以及随着智能化的提高,机器人是否会成为一个完全自主的主体, 我们将如何应对这一变化,等等。相信在不久的未来, 电子人格会从理念逐步进入实践。

但是,赋予机器人人格在很多学者看来是一件恐怖的事情,他们认为,这是铸成大错的肇始,主奴辩证法的历史循环将由此开启。这样的看法在很大程度上是狭隘的,因为赋予人格其实是对人工智能主体地位的承认。阿克塞尔·霍奈特(Axel Honneth) 认为,承认、蔑视和反抗,是社会承认的关系结构,“人必然承认,也必然 被承认”。可以想象到,当机器人的智能逐渐提高并 获得自我意识时,它们不可避免地会“为了承认而斗争”,这样的斗争将会对人类社会带来巨大的威胁。而 只有主动尊重和承认人工智能的主体地位,才能最终缓和人与机器之间的矛盾,正 如 玛 蒂 娜 · 罗 斯 布 拉 特 ( Martine Rothblatt) 所说: “当我们做到像尊重自己一样尊重他人( 即虚拟人) ,并将这一美德普及至世间各处时,我们就为明日世界做了最好的准备。

五、结语

人工智能是否会战胜人类? 这将成为未来几十年思想界讨论的核心问题。人工智能目前已经在多个领域挑战了人的智力。一个明显的例证就是最近的围棋 人机对战,围棋长期以来一直被认为是人类智力抵御人工智能的最后一道屏障,但已经被人工智能超越和突破。另外,在智能医疗领域,人工智能更是在诊断以及手术等方面逐渐超越人类。可以预见,在未来的几十年中这一主题将会不断被人类讨论。

从整体来看,人工智能的发展确实可能会超出人类的控制。因为人工智能所依赖的遗传算法就是靠机器的自我学习和自我强化来实现的,对于其中最核心的算法内容,人类并不知晓。换言之,人类可以利用人工智能达到最优的算法,但人类并不知道这些算法背后的逻辑,这是最让人类感到恐怖的地方。另外,传统上我们一直认为,人与机器的最大区别是人有感情而机器没有感情。然而,人工智能的进一步发展,以及人类社会对人工智能的进一步依赖,都会促使人工智能进一步拥有感情,这是让人类感到恐怖的第二项重要内容。

黑格尔的主奴辩证法反映了人类史上的一种悖谬: 获得主导地位的一部分群体希望通过奴役另一类群体 而获得较为优越的生活,然而,被奴役的群体总是因为其与生产工具的密切结合,战胜优势群体,并获得优势群体的最后承认。这样的逻辑反复地在人类历史中上演,其主体则包括女性群体、少数族裔群体和发展中国家等。伴随着人权观念的进一步发展,人类越来越发现以某一优势群体来奴役或者控制某一弱势群体的策略难以生效,不得不通过奴役或控制机器人群体来获得人类生活的优越境况。然而,与之前历史上的悖谬相同, 这种主奴辩证法的历史转换很有可能再次发生。逐渐获得强大学习能力和自我情感的人工智能可能会在某种类似于照镜子的活动中找到自我意识,也会在为人类服务的过程中逐步实现主体间性,而这些都将最终挑战人类的优越地位。因此,在未来几十年中,我们会看到一种场景,为了解决生活中的诸多问题,人类将不得不依赖人工智能和机器人。但这些人工智能和机器人在与人类的互动中以及在生产劳动中,可能会逐渐获得自我意识和自我情感,最终在与人类的合作性斗争中获得自己主体性地位,也就是黑格尔意义上的相互承认。

编辑 | 致远星

审核 | Anders

终审 | Mono

©Political理论志

前沿追踪/理论方法/专家评论

ID: ThePoliticalReview

原标题:《经典论文 | 高奇琦 李 欢:主奴辩证法与相互承认:试论人工智能战胜人类的可能性》

阅读原文



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3