订阅
纠错
加入自媒体

深度解读《人工智能的可解释性》

2020-07-28 09:21
物联网风向
关注

在Element AI 一项针对大型的零售商或者产品方使用的人工智能系统中,能够非常有效的找出市面上已经存在的山寨产品,但是这个系统的工作原理却是在一个黑匣子里面,它所做出的判断非常难建立法理上的依据,这让我们的使用方很难基于这套系统的结果对侵权的个人或企业采取法律行为。所以我们做的是,在这个人工智能系统的开发中,我们加入了一个热能成像的视图,去解释山寨产品是如何在使用的过程当中侵犯到正规品牌的。而这一个可解释性的设计,为我们的客户提供了一个可以对侵权个人或企业采取法律行动的依据。我们之所以可以在我们的系统中设计出这样的一个可解释性,是因为我们对系统、对用户、对使用场景,以及对监管部门的需求的深刻了解。

人工智能的系统中,它所有的参数和设置都是动态的,都是根据各种各样的反馈系统自我调试和演化的。而且在这个过程中,人工智能系统的使用者也在与人工智能系统产生着互动和影响,我们不仅仅需要能够解释基本人工智能模型的能力,我们而且需要能够解释复杂人工智能模型的能力。

总结:可解释性人工智能的挑战和未来

人工智能的可解释性依然面临巨大的挑战

1、人工智能的模型通常非常的复杂,非常的庞大;

2、人工智能的可解释性还是一个相当早期的领域,我们并没有非常成熟的,或是广为接受的标准去判断可解释性的好坏。这就造成我们无法判断我们是否在提高可解释性,我们也无法非常准确的判断解释方法方式的优劣;3、目前我们所开发的可解释性,对于大多数的使用者来说并不能用于指导他们的行为或者决策。

未来的可知解释性必然是完整的

1、我们可以把系统各个组成部分中的,可解释性集中在一起分析整理,从而得出通过一个培训过的机器识别模型,把微观层面上的可解释性,转化成为宏观层面上的可解释性,是我们觉得一个增加整体系统可解释性的有效方法;

2、在人工智能系统开发的早期,就邀请政策法规的制定机构或相关人员参与。这样我们在系统中可以更方便的加入可解释性,这个不但对之后的业务会有很大的帮助,也是一个非常有效的方式降低相关的风险;

3、通过为已经有的人工智能系统,添加一套可解释性的设计,可以大大提高用户对系统的理解程度。

有趣的问题探讨

在新冠疫情之下,急需在短时间内研发出药物那人工智能的可解释性还是必须的吗?

就拿传统的药物开发来说,一个新药的上市必须经过3个阶段的临床实验和数据的收集。有了这些数据,一个新药才能得到监管部门的备案,才能上市。在某种意义上说,这些流程和数据就是新药开发过程中所必须有的可解释性。因为我们将会在人身上使用这些新药,而人体是一个非常非常复杂的系统,我们必须能够充分地了解在各种情况下人体对新药的反应。

然而面对新冠疫情,我们急需疫苗和治疗方案,作为一个是整体,我们的社会或许可以在这个过程中权衡利弊,在数据尚未完备对情况下,在一定可承受的风险范围内,加速新药或者疫苗的上市。在人工智能的领域,可解释性在某些方面就好像一个风险控制的工具,根据具体的应用场景,有时候我们也需要权衡利弊,有时候承担多一些风险,能够更快或者更好的整体回报。

写在最后:

人工智能的可解释性,一定是现在也是未来一直热门探讨和研究的课题,我们将共同期待人工智能在整个社会结构和人类伦理中,得以更全面的发展。

如果你也感兴趣,欢迎跟我们探讨~


<上一页  1  2  3  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号