深度解读《人工智能的可解释性》
在Element AI 一项针对大型的零售商或者产品方使用的人工智能系统中,能够非常有效的找出市面上已经存在的山寨产品,但是这个系统的工作原理却是在一个黑匣子里面,它所做出的判断非常难建立法理上的依据,这让我们的使用方很难基于这套系统的结果对侵权的个人或企业采取法律行为。所以我们做的是,在这个人工智能系统的开发中,我们加入了一个热能成像的视图,去解释山寨产品是如何在使用的过程当中侵犯到正规品牌的。而这一个可解释性的设计,为我们的客户提供了一个可以对侵权个人或企业采取法律行动的依据。我们之所以可以在我们的系统中设计出这样的一个可解释性,是因为我们对系统、对用户、对使用场景,以及对监管部门的需求的深刻了解。
人工智能的系统中,它所有的参数和设置都是动态的,都是根据各种各样的反馈系统自我调试和演化的。而且在这个过程中,人工智能系统的使用者也在与人工智能系统产生着互动和影响,我们不仅仅需要能够解释基本人工智能模型的能力,我们而且需要能够解释复杂人工智能模型的能力。
总结:可解释性人工智能的挑战和未来
人工智能的可解释性依然面临巨大的挑战
1、人工智能的模型通常非常的复杂,非常的庞大;
2、人工智能的可解释性还是一个相当早期的领域,我们并没有非常成熟的,或是广为接受的标准去判断可解释性的好坏。这就造成我们无法判断我们是否在提高可解释性,我们也无法非常准确的判断解释方法方式的优劣;3、目前我们所开发的可解释性,对于大多数的使用者来说并不能用于指导他们的行为或者决策。
未来的可知解释性必然是完整的
1、我们可以把系统各个组成部分中的,可解释性集中在一起分析整理,从而得出通过一个培训过的机器识别模型,把微观层面上的可解释性,转化成为宏观层面上的可解释性,是我们觉得一个增加整体系统可解释性的有效方法;
2、在人工智能系统开发的早期,就邀请政策法规的制定机构或相关人员参与。这样我们在系统中可以更方便的加入可解释性,这个不但对之后的业务会有很大的帮助,也是一个非常有效的方式降低相关的风险;
3、通过为已经有的人工智能系统,添加一套可解释性的设计,可以大大提高用户对系统的理解程度。
有趣的问题探讨
在新冠疫情之下,急需在短时间内研发出药物那人工智能的可解释性还是必须的吗?
就拿传统的药物开发来说,一个新药的上市必须经过3个阶段的临床实验和数据的收集。有了这些数据,一个新药才能得到监管部门的备案,才能上市。在某种意义上说,这些流程和数据就是新药开发过程中所必须有的可解释性。因为我们将会在人身上使用这些新药,而人体是一个非常非常复杂的系统,我们必须能够充分地了解在各种情况下人体对新药的反应。
然而面对新冠疫情,我们急需疫苗和治疗方案,作为一个是整体,我们的社会或许可以在这个过程中权衡利弊,在数据尚未完备对情况下,在一定可承受的风险范围内,加速新药或者疫苗的上市。在人工智能的领域,可解释性在某些方面就好像一个风险控制的工具,根据具体的应用场景,有时候我们也需要权衡利弊,有时候承担多一些风险,能够更快或者更好的整体回报。
写在最后:
人工智能的可解释性,一定是现在也是未来一直热门探讨和研究的课题,我们将共同期待人工智能在整个社会结构和人类伦理中,得以更全面的发展。
如果你也感兴趣,欢迎跟我们探讨~
最新活动更多
-
12月12日火热报名中>>> STM32全球线上峰会
-
即日-12.18立即报名>>> 【在线会议】Automation1微纳精密运动控制系统
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26立即报名>>> 【在线会议】村田用于AR/VR设计开发解决方案
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
-
即日-1.14火热报名中>> OFweek2025中国智造CIO在线峰会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论