深度解读《人工智能的可解释性》
可解释性人工智能的应用场景
人工智能的可解释性为使用它的人,使用它的产业,提供了一种信任的基础。有了这样的基础,AI才可以在更广的范围内发挥它更大的作用。那当不同的人工智能模型组成一个复杂的系统时,我们该如何体现整个系统的可解释性?
主讲嘉宾:Element AI 联合创始人、首席科学官 Nicolas Chapados博士
举个例子:
我们使用计算机视觉对图像进行学习和分析,来判断图像当中哪些是狼,哪些是哈士奇。在左下角的这幅图里,这个算法错误的把一只哈士奇当作了狼。这是因为我们在选择培训数据,也就是这些图片的时候,大部份狼的图片背景中是雪地。于是这个计算机视觉的人工智能算法一下就侦测到了这个非常明显的区别,将这个区别作为他判断是狼还是哈士奇的一个标准,而不是专注于狼和哈士奇面部的一些细微的区别。如果我们事前不知道培训数据里的这样的区别,仅仅基于这个计算机视觉所给我们的结果,我们非常难发现机器视觉是如何犯下这样的错误的。
不同的企业不同的公司,都会遇到类似的问题,那真的可以相信这个人工智能的系统吗?从整个社会的层面上看,大范围的使用人工智能的时候,它是否会造成一个我们都无法想象的结果?
正确的处理这些疑问和质疑的方式是,我们必须将人工智能的可解释性也涉及到这些系统和算法中去。
举个例子:
最新活动更多
-
12月12日火热报名中>>> STM32全球线上峰会
-
即日-12.18立即报名>>> 【在线会议】Automation1微纳精密运动控制系统
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26立即报名>>> 【在线会议】村田用于AR/VR设计开发解决方案
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
-
即日-1.14火热报名中>> OFweek2025中国智造CIO在线峰会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论