WAP手机版 RSS订阅 加入收藏  设为首页
太阳城申博
当前位置:首页 > 太阳城申博

太阳城申博:尚无法完整解释决策过程

时间:2020/3/26 11:15:41   作者:   来源:   阅读:0   评论:0
内容摘要:所有重大技术突破的出现,往往都伴随着相同的问题用户:如何确保技术的可靠。例如,在电子时代制造和使用电子产品时,人们可以通过技术资料了解所有的元件构成,从而得以信赖它们。又如,许多技术和生活场景中有检视清单的存在,它能指导我们如何合理完成一件任务。然而,到了人工智能时代,情况则不然...
所有重大技术突破的出现,往往都伴随着相同的问题用户:如何确保技术的可靠。例如,在电子时代制造和使用电子产品时,人们可以通过技术资料了解所有的元件构成,从而得以信赖它们。又如,许多技术和生活场景中有检视清单的存在,它能指导我们如何合理完成一件任务。然而,到了人工智能时代,情况则不然。

"如今,人工智能已经可以做决定,这是人工智能过程中非常重要的一步,但我们仍缺乏对人工智能所做决定的认知" .沈向洋告诉科技日报记者,从某种程度上来讲,你建立一个模型、算法,输入数据,之后人工智能会产生一个结果。一切看上去顺理成章,但是有一个问题——我们尚不能完整解释为何人工智能会得出这样而不是那样的结论。

沈向洋进一步解释,我们将这种只能看到数据导入和输出,而无法看到和解读其工作原理的模型比作'黑箱,而将可以知晓内部工作原理的模型称为'白箱。人们需要了解人工智能如何得出某个结论背后的原因,而不是仅仅接受一个在没有上下文或解释的情况下输出数据和信息的结果" .沈向洋指出。

显然,我们不能将明天交付给一个个无可解释的"黑箱" ."我们在学习的时候,经常说不仅要知其然,还要知其所以然" .沈向洋表示,人工智能的可解释性,指的是要"知其所以然",要了解背后的原因和逻辑,是能回答"为什么" .

"以决策场景下的模型可解释性为例,端到端的深度学习,一个广为诟病的问题是其不透明性或不可解释性,比如说识别一张照片中的物体,机器做出的判断是基于哪些有效特征,我们无从得知" .阿里安全图灵实验室负责人、资深专家奥创认为,人工智能系统必须具有可解释性,以便人类可以理解系统的行为。

相关评论

本类更新

本类推荐

本类排行

本站所有站内信息仅供娱乐参考,不作任何商业用途,不以营利为目的,专注分享快乐,欢迎收藏本站!
所有信息均来自:百度一下 (太阳城代理)
晋ICP备14004696号-1