对话陈昌凤、李凌(下):呼唤“算法向善”的伦理治理

您所在的位置:网站首页 如何看待算法推荐技术人员 对话陈昌凤、李凌(下):呼唤“算法向善”的伦理治理

对话陈昌凤、李凌(下):呼唤“算法向善”的伦理治理

2024-07-15 10:09| 来源: 网络整理| 查看: 265

随着大数据、人工智能等技术的快速发展,“数据主义”随之流行,算法推荐、排名算法等不同的形态催生并推动了不同领域的企业,这些企业及其产品在为公众提供便利的同时,也产生了不少新的问题。如何为冰冷的算法注入人文情怀,成为一个不得不面对的伦理问题和治理问题。不久前,有关部门联合发布的《互联网信息服务算法推荐管理规定》正式施行,依法对算法乱象进行监管整治。

日前,著名学者、清华大学新闻传播学院常务副院长陈昌凤教授与清华大学新闻传播学院博士后李凌联合主编出版了《算法人文主义:公众智能价值观与科技向善》。本期政邦茶座邀请到两位作者,为“算法”把把脉。

本期政邦茶座嘉宾:

陈昌凤:清华大学新闻传播学院常务副院长,出版《智能传播:理论、应用与治理》、《算法人文主义:公众智能价值观与科技向善》等。

李 凌:清华大学新闻传播学院博士后、中国伦理在线执行主编。

政邦茶座主持人:

高明勇:政邦智库理事长。

高明勇:今年两会上,有人提到“算法歧视”“算法统治”“消费者有权不被算法‘算计’”,也有人说“用算法给政策装上‘飞毛腿’”。对这类观点,您持何种看法?

陈昌凤:在两会参政议政平台上,人大代表、政协委员关注算法应用产生的价值和伦理问题,提出算法善治的相关提案议案,有利于提高政府高层、市场和社会公众对算法应用伦理风险的关注和重视,凝聚最广泛的价值共识推动算法伦理治理。你刚才提到的这些观点,既有正面的,比如用算法给政策执行装上“飞毛腿”,从“人找政策”转变为“政策找人”,实现精准定向施策,增强人民群众的获得感和幸福感,也有批评的,比如说消费者有权不被算法“算计”,充分体现了社会对算法应用的正向期盼。

《算法人文主义:公众智能价值观与科技向善》收录了一些互联网平台算法善用的案例,充分说明了算法善用在技术上的可行性和实现路径。

例如尽管人脸识别技术的商业化受到很多质疑,但是将人脸识别技术应用到社会公益领域,例如走失儿童找回、两岸寻亲等项目,却是充满正向价值的应用,不仅不会受到批评,反而会受到鼓励和支持。又例如,针对算法歧视问题,很多算法工程师探索研发了更具有公平性、透明性、可解释性和可审计的算法技术,甚至想方设法将公平的价值理念编码到算法中。

李凌:人大代表、政协委员围绕算法技术应用的呼吁,说明了算法技术发展路线的选择,应该是有所为、有所不为。

新兴技术成熟度曲线报告每年都会发布并分析新兴技术发展趋势,市场上每年都会涌现各种新兴技术解决方案,但并非所有技术都值得推崇和发展。我们建议,在算法技术发展路线的选择上,应当充分考虑技术在公共性和个体性、实用性和价值性等方面的取舍。

例如在公共性与个体性方面,信息技术发展的个体化趋势很明显,出于商业化的考虑,互联网企业更倾向于发展诸如个性化推荐算法等个体化技术,这样更有利于企业赢得用户、赚取利润,但是也在一定程度上导致信息茧房、群体极化等价值问题。

相对于个体化技术,我们更应该推动主流媒体在选择算法技术发展路线时,将技术的公共性、大众化和服务性放在首位,致力于通过媒体融合技术创新凝聚社会共识、增强公众共同行动能力。

高明勇:面对无处不在的算法,如何为其戴上“紧箍咒”?

陈昌凤:我们倡导算法善用,并不是要给算法戴上“紧箍咒”,限制它的发展壮大,而是恰恰相反,要通过倡导算法善用,构建算法善治的体制机制,进一步发挥算法技术的正向价值,使其更好地服务人类,扩展人们自由,增进人类社会整体福祉。因此毋宁说是要给算法插上一对价值的翅膀,使其飞得更稳更高更远。

算法善用的实现,应当是多元主体参与的算法伦理治理过程。今年年初,党中央国务院颁发《关于加强科技伦理治理的意见》,从“伦理先行、依法依规、敏捷治理、立足国情、开放合作”等五项治理要求,“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”等五项伦理原则,以及健全治理体制、强化治理制度保障、强化审查和监管、深入开展教育宣传等四方面重点任务,确立了我国科技伦理治理的指导思想和体制机制,应该说也为算法伦理治理提供了基本遵循。

具体到互联网企业层面,应当从价值理念、制度机制、技术路径等层面将算法善用的价值原则细化落实。

在价值理念层面,应当树立算法善用的价值追求,将尊重人的尊严和自主性、安全、公平、可持续发展等价值原则作为企业行为的底线,并且通过培训教育培育产品设计人员和技术开发人员的伦理自觉。

在制度机制层面,应当吸纳用户代表、人文社科学者的参与,设置算法伦理委员会,制定与算法善用有关的制度,建立价值把关、风险评估、责任追究和奖惩、培训教育等机制,将算法善用的正向价值融入技术产品研发和应用的整个生命周期。

在技术路径层面,通过价值敏感性设计、物质化道德等设计伦理方法,将人们优先支持和主张的价值理念进行编码设计,嵌入到算法系统之中。

李凌:刚才陈院长说到的价值敏感性设计的技术路径,已经成为部分互联网公司进行算法善用的重要路径。这项工作主要通过人文与科学对话、互联网企业与公众对话的合作机制来实现。人文社科研究者或者社会公众、用户提出价值诉求和价值澄清,产品经理、算法工程师则设法将价值编码,植入到智能算法系统中。

在这个过程中,对植入算法系统的价值观念的设想、甄别、评估和实现都至关重要,既需要充分地调查研究,对值得编码的价值观念提供经验数据支撑和论证,又需要适当的想象,充分考虑技术可能涉及的场景和利益相关者,进而综合推导出应该将哪些价值规范纳入技术体系。

高明勇:您提到:“算法人文主义倡导的‘以人为本’,只是从最底线意义而言的‘以人为本’”,在您的理想中,算法的“江湖”,应该有哪些“规矩”?

陈昌凤:我们将“以人为本”作为智能技术价值观的核心理念,强调在智能技术研发和应用的整个周期中要尊重人的生命、尊严、情感、意志、本能的意义、价值和权利,在“算法与人的关系”方面坚持“以人为本”,坚持智能技术发展的价值追求是促进人的自由全面发展和增进人类福祉。

围绕“以人为本”的核心理念,我们为算法善用提出了尊重人类尊严、尊重人类自主、公平、透明、保护个人信息、安全、责任和可持续发展等9项价值原则。

一是尊重人类尊严,确保算法系统为人类服务,符合人类的价值观和整体利益;而不应将人工智能用于控制人类行为、取代或者削弱人的地位,甚至对抗、伤害人类。

二是尊重人类自主,人应该始终作为目的而存在,意味着算法系统,特别是自动化决策算法不能干涉、破坏人的自主性,将人异化为工具和手段。

三是公平,算法的研发和应用,应当维护和促进程序公平、机会公平、互动公平以及结果公平。

四是透明,保证算法系统具有可追溯性、可访问性、可理解性。

五是保护个人信息,特别是个人生物识别信息、健康信息等隐私信息。

六是安全,保证算法系统不能侵犯人类身心健康和生命安全,不会危及和破坏人类生存安全。

七是责任,既包括对法律责任的履行,也包括对道德责任的担当。

八是真实,算法系统应当确保信息和程序的真实准确可靠。

九是可持续发展,算法系统的研发、设计和应用要协调好人与人、人与自然的关系,实现人与科技、社会、环境的协同发展,促进人类整体福祉。

我们倡导算法要以人为本,但也拒斥人类中心主义的思维方式。在人的现代性存在中,算法不是与人相对立的对象化、工具性力量,而是内置于人的主体性之中、与人的存在和发展休戚相关的存在方式,是人们延展身体尤其是智能的重要维度。

一方面,在现代社会,人们越来越需要通过算法的维度而存在着,人的存在已经算法化。另一方面,算法只是人类存在的数字化维度,而并不是全部所有,在与人的共存之中,算法应当有助于维护人的主体性,而不是寻求对人的替代、控制甚至毁灭。

李凌:智能算法的研发和应用,必须要有人的“在场”、“陪伴”和负责任的“操作”。人的“在场”和“陪伴”尤其重要,智能算法应用出现的很多问题,都在于人的缺位,而且不是被动的缺位,而是人们主动寻求以智能算法替代人、控制人。智能算法浮现的地方,人和人性都消失了。

智能算法寻求对人的替代和控制,在现行社会结构和技术条件下,并不是智能算法的自主行为,而体现的是掌控和研发智能算法背后的少数人,即政治家、资本家的自主性和自我意志。在资本主义的生产方式下,资本家积极主动地研发设计智能算法系统替代、引导人们的劳动实践,在一定程度上的确提升了人、解放了人,但其根本目标仍在于生产剩余价值,从而实现资本的最大化。

放任智能算法部分或者全部代替人类,就好像让脱缰公牛闯入瓷器店。人类驯化各种动物,并将之为人所用,但是在使用过程中,人们并不会放任他们的行动,而是通过缰绳、皮鞭进行引导规训。

同样的道理,人类创造了智能算法,将之应用到日常工作、学习和生活,就不能疏于照看和引导。特别是在算法自动化决策或运行中,在与公共产品分配有关的决策、管理和执法中,人必须在场和陪伴,照看或监督算法的运行。

高明勇:推动“算法向善”,在实践过程中会面临哪些障碍?如何克服?

陈昌凤:在数据和算法塑造的互联网社会结构之中,个体并不是如有些企业所宣称的那样自主和平等。在算法型塑的社会结构,隐藏着管理者、平台、数据贡献者与使用者等多元主体。数据源自哪里、由谁掌控、由谁过滤、由谁使用以及如何掌控、如何过滤、如何使用,都决定着算法权力的结构。

推动算法善用和善治,应当要在开放伦理的指导下,鼓励全社会共同参与,促进各主体的对话,将用户纳入算法研发、设计和使用过程当中,在价值原则的制定、伦理判断、伦理抉择以及信息公开等所有实施算法透明度的环节,都要考虑多元主体的认知、态度与需求,力图形成重叠的共识。

李凌:算法应用引发的价值和伦理争议,已经引起了公众和学者们对算法伦理的重视,但是相关讨论和改进仍然局限在一定的范式与有限的范围内,期待有更多元主体以更加开阔的视野参与进来。

一方面,对算法伦理风险的主流探讨,让人局限在数据主义框架之内,这尤其体现在算法科学家、工程师对算法伦理风险的解决思路,仍然以人和世界的可计算性作为前提,诸如负责任的创新和研究等理念,仍然是技术进路的解决思路,很难逃脱“按下葫芦浮起瓢”的困境。对算法应用的反思,亟待跳出就技术论技术的维度,而要站在人类生存与发展的高度和视野,有更佳深刻当然也要更有建设性、操作性的批判和思考。

另一方面,对算法伦理风险的批判和思考,需要政府、企业、专家和公众在对话、协商基础上形成价值共识并将这些共识制度化、法治化的过程。其中算法工程师的主导和参与尤其重要,作为算法的创造者和执行者,他们的价值观念和行动,最终决定了算法人文主义的价值理念能否成为现实。

高明勇:您注意到:为了跟踪人类行为的信息,企业和政府机构深入挖掘通过社交媒体和通信平台收集的大量元数据(meta data)。当众人天真地或无意地将他们的个人信息信任给了企业平台时,企业平台应该怎样做,才能“匹配”对它的信任?

陈昌凤:如今,从社交平台到搜索引擎和浏览器,从身份识别服务到数据服务器与云计算,从支付系统到应用程序商店,从电子邮件到即时消息,从视频共享网站到地图导航等等许多服务,都是由大型平台控制的,这些大型平台正在转变为必不可少的基础设施,并打造出一个全球的或区域的信息生态系统,它们通过为用户提供便利,来换取对用户数据的控制权。

用户处在一个交互的可编程结构之中。用户的点击、发布和互动的数据,连同其兴趣、偏好、朋友关系、地理位置、手机型号、网络状况,以及用户自愿贡献的生日、家庭、受教育程度等基本数据,都会被生成、存储、自动分析和处理。隐私于是演变成了“明私”,隐私在商品化机制下被营销。

互联网平台应当强化自身的社会责任,树立透明、公平、尊重的价值观,在使用个人数据做出决策时,要给予用户知晓权,保持应有的透明性、让用户知悉所做决策是基于什么做出的。在社会治理方面要重视数据时代的隐私保护,并通过适当的伦理与法律保护个人的隐私。

李凌:当下个人信息尤其是隐私保护技术的基本逻辑是“为利用而保护”“可用不可见”,隐私信息可用的工具价值被凸显,保护人格尊严等内在的价值反被忽视;隐私主体与隐私保护主体发生分离,因此并不能保证隐私安全,这是数字时代隐私保护技术发展的根本性困境。

我们需要发展的是诸如联邦学习算法、区块链等更具有切己性和具身化的技术,让隐私保护从离身转向具身,从积极控制转向消极防御,从中心化转向分布式。

只有当隐私主体能够对于隐私表达出“既可用又可见”的关切,而不是由作为第三方的互联网平台对隐私进行“可用而不可见”的保护时,我们才能对自身隐私进行具身化的有效保护。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3