情感劳动:人工智能劳动的限度及风险

您所在的位置:网站首页 人工智能的技术奇点 情感劳动:人工智能劳动的限度及风险

情感劳动:人工智能劳动的限度及风险

#情感劳动:人工智能劳动的限度及风险| 来源: 网络整理| 查看: 265

♦ 一、引言 ♦

人工智能的发展给人类带来了一系列挑战,生成式人工智能接连火爆刷屏,其功能之一是在技术上可以实现语言的情感分析,这无疑对人类情感劳动(emotional labor)的独特性造成了一定的冲击。情感劳动成为当前关注的焦点,主要基于三大理论的蓬勃发展:心理学理论、非物质生产劳动理论、劳动过程理论。霍赫希尔德(Arlie Hochschild)最早提出“情感劳动”这一核心概念,指以掩盖自己的真实感知为代价,为了取悦对方获取工作报酬所做出的劳动。哈特(Michael Hardt)与奈格里(Antonio Negri)在定义非物质劳动时强调人与人接触和互动的情感劳动。后续学者通过定性研究和定量研究对情感劳动理论进行了拓展,研究对象从传统服务业延伸到互联网行业,研究视角从女性主义到数字劳工。还有学者将人工情感与人类情感进行对比,但都尚未进一步关注到情感劳动与人工智能的结合。本文从个体能力和实践基础这两个角度,探讨当前的人工智能还不能实现人类替换的原因以及实现情感劳动的关键要素,并据此分析人工情感的可能风险。

♦ 二、人工智能是否具备真实情感 ♦

“情感是人对客观事物是否满足自己的需要而产生的态度体验”,这体现了情感的本质存在于人与外界的互动之中。人工智能要具备情感离不开情感感知,具身认知科学认为感知蕴含着理解,同时,情感“是否满足自己的需求”凸显了人的自我意识的存在,但人工智能主要以人类的需求为导向,因此不具有主体自我的情感感知能力。

(一)人工情感的真实性存疑

总体上看,人工智能的情感不具有真实性,主要基于两方面的原因。一方面,人工情感的设计基于统计模型和指令。人工智能的工作原理是模拟人,但模拟意味着有差异性的存在,做不到完全一模一样。另一方面,人工智能不具备人类专属的情感意向性。正是有了意向性,人才能建立与世界的关联,自主意识到被关联的事物。

(二)人工意识的主体性缺失

自我意识的深层逻辑是自由意志,两者都是马克思关于主体性思想的根本前提和特征。“深蓝”的案例表明人不可能纯粹是被决定的存在物,也意味着人有自己的自由意志。自由意志意味着决策不依赖于外界,自己拥有做决定的能力,譬如人有为善或者作恶的选择自主性,人工智能并不具备这样的自由度,因此不具备自由意志。在情感感知和情感表达环节面临着一系列无法解决的问题,例如,情感的整体性理解以及表达的非真实性问题。

(三)人工智能情感理解的困难

理解是重新体验他人的心理世界,正是人们心灵之间的相似性以及由之而来的可理解性,才构成了相互理解的基础。此外,从个体认知的角度来看,人类是第一人称视角,而人工智能是一个第三人称视角的外部观察者,因而很难产生与主体一致的个体信息。情感理解是情感劳动的一大前提条件,怜爱或厌恶、同情或无感等情感决定了理解的程度和关系的走向。

♦ 三、人工智能是否具有情感劳动实践的基础 ♦

情感离不开实践活动,情感劳动作为劳动的分支,也必须进入实践领域。人工智能是否能够替代人类情感劳动,具体表现为人机交互过程中是否具有情感劳动实践的基础,包括人工智能是否具备具身性、社会性和情感实践能力。

(一)情感劳动需要具身性

情感劳动实践的第一步需要身体器官感受和接收反馈信息,从而决定如何调节情感。所以说“我们的身体承载着我们的境遇,担负起平生拥有的各种经验,从而指示我们新的和更为复杂的步骤”。在情感传递过程中,表达者借助身体展现感染力,从而实现情感劳动的效果。

人类的真挚情感是身体在场时的自然流露,没有身体经验的感知、体会,难以产生情感的共振。人工智能不具备对“我”的身体性的感觉,它的所有硬件和软件都是可以替换的,因此并没有真正的“生活”。倘若没有身体的接触和反应,情感感知将失去完整性,缺少完整的感知则缺乏全面的理解,而理解是情感生成的基础。因此,如果人工智能不具备具身性,也就难以体验情感和实现情感劳动。

(二)情感劳动需要社会性

情感劳动的关键不在于情感本身,而在于特定场合对人际关系的正向调节。情感劳动不仅仅作为一种心理体验存在于私人领域,更重要的是会影响到他人,并延申到公共领域,实现其社会性生产功能。人作为主体的存在,不仅适应各种关系,还创造新的社会关系,如审美关系、劳动关系、契约关系、合作关系等,都是在实践中创造的新的关系,而当前的人工智能显然不具有这样的社会属性。

我们处在真实的关系之中,相较而言,人工智能处在虚拟的关系里,需要从巨量的人类语料中提取语言痕迹,从而构成它的整个世界。人的智能是在社会化的环境中习得的,人工智能只是人类创造的新的技术存在,可能无限类似人,但是不会形成人的社会性和主体性。

(三)情感劳动依赖共情实践

共情是指能够站在“他者”角度看待问题,理解对方的行为逻辑,这样才能达到情感体验的互换。情感机器本质上不是一种对等的情感分享,人与人之间共情性的交流要基于双方的经历、需要和特定情境才得以展开。如东方甄选直播间有粉丝连续四天都买一袋大米,理由是“主播由卖米衍生出的知识文化和人生感悟与其自身的经历形成了共鸣”。而人工智能没有相应文化背景的熏陶,缺乏“心有戚戚”的互动,就难以达到共情实践,也就难以实现情感劳动。

♦ 四、人工情感劳动的潜在风险 ♦

当技术介入人类情感时,人与技术之间的界限将愈发模糊。人工情感只是对人类表层情感形式的模仿,存在很多的不确定性,其潜在风险不可忽视。

第一,引发人的价值与伦理危机。如果复杂的情感都能被人工智能所习得,人的主体性地位似乎变得岌岌可危,人的情感甚至自身都会成为异化的产物,情感劳动也将因被替代而贬值。由此,人工情感也会引发伦理危机,伦理观念变革的“奇点”或许会比技术变革的“奇点”提前来临。

第二,消解人际关系。机器与人的陪伴是两种不同的模式,人工智能似乎提供了一个更令人心动的选择,于是人类呈现出靠近人工智能并远离真实人群的偏向。长此以往,在真实的人际关系中,每个人都自愿变成一座孤岛,最终成为大卫·里斯曼(David Riesman)所说的孤独人群的一部分。

第三,冲击人的情感认同。倘若依赖、沉迷于情感机器,将会使个体之间的相互关注和期待减少,也就类似于“群体性孤独”现象——我们似乎在一起,但实际上活在自己的“气泡”中。人与人之间的情感认同必然会受到重创,继而在更大范围内影响集体情感和家国情怀。因此,需要时刻关注人工智能所带来的情感孤立。

♦ 五、结语 ♦

总体而言,人工情感只是一种从功能上看具有人类情感劳动的形象,其目的是提供一种情感服务,并不是真正的情感劳动。这样的前提能够让人们清楚地意识到人类情感是人工情感无法替代的,也防止人类过度依赖人工情感而忽视人与人之间的交流。人类情感的动态性和复杂性决定了人工智能无法用纯粹的计算术语来描述。情感劳动不只是一种技能,更是在劳动过程中基于自我意识和理解的情感调节和付出。人工情感是否能恰如其分地表达也令人担忧,情感可能会干扰人工智能从事高度重复任务的优势,在消极情感的指引下其是否会说出极端的言语有着极大的不确定性,能否控制情感是人工情感的一大衍生问题。我们既要认识到人工情感的积极意义,也要重视人类情感劳动的独一无二性,同时还需要关注人工情感的潜在风险。儒家推崇中和之美,强调过犹不及,《礼记·中庸》中提到:“喜怒哀乐之未发,谓之中;发而皆中节,谓之和。”因此,应尽快落实人工智能治理责任,确保人工情感的合理开发,才能更好地服务人类生产生活和社会发展。

陈雯

崔中良,南京信息工程大学马克思主义学院副教授,主要研究方向:人工智能哲学、认知科学哲学。

陈雯,南京信息工程大学马克思主义理论专业2022级硕士研究生,研究方向为人工智能劳动、情感劳动。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3