人工智能的下一个挑战 |
您所在的位置:网站首页 › 人工智能的英语解释 › 人工智能的下一个挑战 |
“It’s not a human move. I’ve never seen a human play this move(这不是人类的下棋策略。我从来没见过任何人这样下棋。)” 2016年,谷歌AlphaGo挑战世界上最伟大的围棋选手之一,李世石,当AlphaGo最终击败世石,取得决定性胜利时,另一位围棋专家樊麾如此评论道。 樊麾的这句经典点评,恰恰反映了我们正在使用超精确的机器学习(ML)模型时所面临的问题。尽管这些模型展示了超越人类的能力,但我们尚不确定输入的数据中的哪些具体信息,使它们做出决定。深度学习模型通常包含深度嵌套的非线性结构,使其变得不那么透明。缺乏透明度, 对AlphaGo本身来说不是问题。然而,在可解释性(explainability)、可诠释性(interpretability)和透明度至关重要的领域(如医疗诊断、军事和战斗行动)中,模型的不透明性则大大阻碍了AI/ML的扩展。 在人工智能和机器学习中,可解释性(explainability)和可诠释性(interpretability)经常互换使用。然而,这两者之间有一个细微的区别。可解释性是关于理解为什么某些事情发生的机制,而可诠释性是关于如何用人类的术语很好地来说明白这些机制。可诠释性的研究目前发展迅速;但有很多还需要做。 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |