深度解读《人工智能的可解释性》
2020-07-28 09:21
物联网风向
关注
可解释性人工智能的应用场景
人工智能的可解释性为使用它的人,使用它的产业,提供了一种信任的基础。有了这样的基础,AI才可以在更广的范围内发挥它更大的作用。那当不同的人工智能模型组成一个复杂的系统时,我们该如何体现整个系统的可解释性?
主讲嘉宾:Element AI 联合创始人、首席科学官 Nicolas Chapados博士
举个例子:
我们使用计算机视觉对图像进行学习和分析,来判断图像当中哪些是狼,哪些是哈士奇。在左下角的这幅图里,这个算法错误的把一只哈士奇当作了狼。这是因为我们在选择培训数据,也就是这些图片的时候,大部份狼的图片背景中是雪地。于是这个计算机视觉的人工智能算法一下就侦测到了这个非常明显的区别,将这个区别作为他判断是狼还是哈士奇的一个标准,而不是专注于狼和哈士奇面部的一些细微的区别。如果我们事前不知道培训数据里的这样的区别,仅仅基于这个计算机视觉所给我们的结果,我们非常难发现机器视觉是如何犯下这样的错误的。
不同的企业不同的公司,都会遇到类似的问题,那真的可以相信这个人工智能的系统吗?从整个社会的层面上看,大范围的使用人工智能的时候,它是否会造成一个我们都无法想象的结果?
正确的处理这些疑问和质疑的方式是,我们必须将人工智能的可解释性也涉及到这些系统和算法中去。
举个例子:

声明:
本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
最新活动更多
-
3月27日立即报名>> 【工程师系列】汽车电子技术在线大会
-
即日-4.22立即报名>> 【在线会议】汽车腐蚀及防护的多物理场仿真
-
4月23日立即报名>> 【在线会议】研华嵌入式核心优势,以Edge AI驱动机器视觉升级
-
4月25日立即报名>> 【线下论坛】新唐科技2025新品发布会
-
在线会议观看回放>>> AI加速卡中村田的技术创新与趋势探讨
-
即日-5.15立即报名>>> 【在线会议】安森美Hyperlux™ ID系列引领iToF技术革新
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论