什么是机器学习 (ML)

您所在的位置:网站首页 机器人的编程方法是什么 什么是机器学习 (ML)

什么是机器学习 (ML)

2024-07-11 19:23| 来源: 网络整理| 查看: 265

随着机器学习技术的发展,它确实让我们的生活变得更加轻松。然而,在企业中实施机器学习也引发一些有关 AI 技术的伦理问题。其中包括:

技术奇点

虽然这个话题引起了公众的广泛关注,但许多研究人员并不担心 AI 在不久的将来超越人类智能。技术奇点也称为强 AI 或超级智能。哲学家 Nick Bostrum 将超级智能定义为“几乎在每个领域都远远超过人类最优秀大脑的任何智力,包括科学创造力、一般智慧和社交技能。”尽管超级智能在社会中还不是迫在眉睫的事情,但在我们考虑使用自动驾驶汽车等自主系统时,这个概念提出了一些有趣的问题。认为无人驾驶汽车永远不会发生事故是不现实的,但在发生事故时,谁来承担责任呢?我们是否应该继续开发自动驾驶汽车,还是将这项技术限制在帮助人们安全驾驶的半自动驾驶汽车上?虽然目前还没有定论,但随着新的创新 AI 技术的发展,人们将对这些伦理问题展开激烈争论。

AI 对就业的影响

尽管公众对人工智能的看法大多集中在失业问题上,但或许应该重新审视这种担忧。随着每一项颠覆性的新技术出现,我们都会看到市场对特定工作角色的需求发生了变化。例如,当我们看向汽车行业时,许多制造商(如 GM)正在转向专注电动汽车生产以符合绿色倡议。能源行业不会消失,但能源来源正在从燃油经济性转向电力经济性。

同样,人工智能将工作需求转移到其他领域。需要有人帮助管理 AI 系统。仍然需要有人解决最可能受到工作需求变化影响的行业中的更复杂问题,例如客户服务。人工智能的最大挑战及其对就业市场的影响是,如何帮助人们过渡到所需的新角色。

隐私

隐私问题往往是在数据隐私、数据保护和数据安全背景下讨论的。正是对这些问题的担忧,促使政策制定者近年来在隐私保护方面取得了更多进展。例如,2016 年颁布了 GDPR 法规,旨在保护欧盟和欧洲经济区人民的个人数据,让个人更好地控制他们的数据。在美国,各个州正在制定政策,例如 2018 年推出的加州消费者隐私法案 (CCPA),该法案要求企业告知消费者收集其数据的情况。此类立法迫使公司重新考虑如何存储和使用个人身份信息 (PII)。因此,安全领域的投资已成为企业越来越优先考虑的问题,因为他们要设法消除任何漏洞以及受到监视、黑客攻击和网络攻击的可能性。

偏见和歧视

许多机器学习系统中的偏见和歧视引发了许多有关使用人工智能的伦理问题。如果训练数据本身可能由有偏见的人类过程生成的,我们如何防范偏见和歧视呢?尽管公司通常对自动化工作抱有良好的意愿,但路透社(ibm.com 外部链接)强调了将 AI 纳入招聘活动的一些不可预见的后果。在推动自动化和简化流程的过程中,Amazon 无意中对技术岗位的求职者造成了性别歧视,公司最终不得不放弃该项目。哈佛商业评论(ibm.com 外部链接)提出了其他在招聘活动中使用 AI 的尖锐问题,例如,在评估候选人是否适合某个职位时,您应该能够使用哪些数据。

偏见和歧视并不局限于人力资源职能;可以在许多应用场合中发现这种问题,包括面部识别软件和社交媒体算法。

随着企业越来越意识到 AI 的风险,他们也越来越积极地参与围绕 AI 伦理和价值观的讨论。例如,IBM 已停用了其通用面部识别和分析产品。IBM 首席执行官 Arvind Krishna 写道:“IBM 坚决反对并且不会容忍将任何技术(包括其他供应商提供的面部识别技术)用于大规模监视、种族定性、侵犯基本人权和自由或任何不符合我们的价值观以及信任和透明原则的用途。”

问责制

由于没有重要的立法规范 AI 实践,因此,没有真正的执行机制以确保 AI 符合道德规范。目前,对公司符合道德规范的激励是,不道德的 AI 系统将对利润造成负面影响。为了填补这一空白,作为伦理学家和研究人员合作的一部分,伦理框架应运而生,旨在管控在社会中构建和传播 AI 模型。然而,目前这些框架仅起到指导作用。一些研究(ibm.com 外部链接)表明,分散的责任加上对潜在后果缺乏预见性不利于防止对社会的危害。

阅读有关 IBM AI 伦理问题立场的更多信息



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3