人工智能的下一个挑战

您所在的位置:网站首页 人工智能的英语解释 人工智能的下一个挑战

人工智能的下一个挑战

2024-07-11 17:23| 来源: 网络整理| 查看: 265

“It’s not a human move. I’ve never seen a human play this move(这不是人类的下棋策略。我从来没见过任何人这样下棋。)”

2016年,谷歌AlphaGo挑战世界上最伟大的围棋选手之一,李世石,当AlphaGo最终击败世石,取得决定性胜利时,另一位围棋专家樊麾如此评论道。

樊麾的这句经典点评,恰恰反映了我们正在使用超精确的机器学习(ML)模型时所面临的问题。尽管这些模型展示了超越人类的能力,但我们尚不确定输入的数据中的哪些具体信息,使它们做出决定。深度学习模型通常包含深度嵌套的非线性结构,使其变得不那么透明。缺乏透明度, 对AlphaGo本身来说不是问题。然而,在可解释性(explainability)、可诠释性(interpretability)和透明度至关重要的领域(如医疗诊断、军事和战斗行动)中,模型的不透明性则大大阻碍了AI/ML的扩展。

在人工智能和机器学习中,可解释性(explainability)和可诠释性(interpretability)经常互换使用。然而,这两者之间有一个细微的区别。可解释性是关于理解为什么某些事情发生的机制,而可诠释性是关于如何用人类的术语很好地来说明白这些机制。可诠释性的研究目前发展迅速;但有很多还需要做。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3