订阅
纠错
加入自媒体

军事科技未来:AI和算法扮演重要角色

2019-03-07 10:05
来源: 猎云网

现任美国空军负责采购、技术和后勤的副部长为威尔·罗珀(WILL ROPER),他曾负责战略办公室(Strategic Capabilities Office)。战略能力办公室是一个秘密的军事机构,旨在研究如何应对未来的战争。在任期间,他协助设计了一些微型无人机,还协助创建了Project Maven(该项目旨在提高视频分析效率),同时,还尝试让国防部与视频游戏产业进行合作。现在,他的新工作是提高空军采购的效率,而这可能是个更大的挑战。

本次采访将会涉及他对于军事科技未来的展望,包括工智能、高超音速武器、太空军事科技等。

记者:你们马上就要上马一个用于和初创公司快速签订合同的系统,能和我们讲讲你们做这样一个系统的原因以及它的运行机制吗?

威尔·罗珀:我们需要和各行各业进行合作,但是我们要想签订一个合约,最快也得花上几个月。这对于初创公司来说,时间实在是太长了,它们需要及时回笼资金。因此,我们打算做这样一个系统,能够做到一天就可以完成放款。我们打算在纽约展示这个系统,为初创公司提供便利,吸引更多的初创公司和空军合作。

记者:也就是说,如果初创公司的产品通过了审查,双方同意合作,那么五角大楼立刻就可以放款?

威尔·罗珀:是的,如果你有PayPal账户,你就可以和空军合作。

记者:那转账有什么限制吗?

威尔·罗珀:暂时我们每一笔的转账额度为15.8万美元。去年,我们已经在纽约进行了一些试验,我们已经有能力在40小时之内处理104个合同。资金到付分三个阶段,每个阶段的付款额度都会提高。我们的做法与传统的政府合同不一样,传统做法是一次性预付,而我们是分期付款。这对于初创公司来说也是个好事,他们可以告诉投资者和股东们,他们拥有稳定的现金流。

记者:你们会和什么样的项目合作呢?

威尔·罗珀:和我们合作的公司里面,有人为我们提供基于AI、用于维护预测的技术。我们希望能够预测装备什么时候需要进行技术维护。我们已经在两种装备上开始运行这种技术,其中一个是大型运输机C5,运行有105个预测算法。另外一种是B-1轰炸机,运行有40个预测算法。举个例子,这些算法可以帮助我们在检查之前,就预测出来有问题的部位,比如起落架的齿轮和轮胎。我们对这种技术非常感兴趣,同时也希望能够有公司涉及房屋维护方面的技术,而不再仅仅关注装备方面。

记者:也就是说,比如,有一家公司是轮胎磨损方面的专家,那么他就可以通过分析起飞和降落的数据,来预测什么时候需要更换C-5的部分轮胎吗?

威尔·罗珀:他们甚至都不需要是专家。如果他们擅长数据分析和机器学习技术的话,他们还可以进入我们的数据库,对数据进行解析。

记者:如果没记错的话,第一个在维护预测领域使用AI技术的应该就是五角大楼吧?

威尔·罗珀:更具体来说,第一个使用该技术的是Project Maven。Project Maven在SCO集团展开,这个项目希望可以使用AI技术来识别视频中的目标,而不再需要人力来完成。我们与很多情报相关机构进行合作。我们和谷歌也有合作,当然你也知道,那是在别的领域。

记者:维护预测算是AI的初步应用,因为维护预测有很大的数据流,同时也是投资热点,而且风险相对较低,是不是与没有相关竞争也有联系呢?

威尔·罗珀:嗯,都对。我们有可用的数据,而且,各种日程维护也必不可少。维护相关的任务敏感性低,一般也不涉及机密,操作的风险也较低。

记者:Project Maven使用AI技术,是不是就是看中它在图像识别上的优秀表现呢?

威尔·罗珀:没错。由于商业上的应用,计算机视觉技术发展很快。很明显,智能手机已经拥有识别人脸和图片的功能,那这种技术自然也可以应用到我们的情报、监视和侦察任务中。我们打算让AI代替工作人员来进行目标的识别工作。我们并不是要裁员,而是想把这些工作人员派去做更高层次的工作。

记者:谷歌宣布将在合同结束时不再继续合作,这对你们来说算是个打击吗?

威尔·罗珀:只能说是有些惊讶吧,毕竟还有很多公司涉及计算机视觉技术,而且,我们已经习惯于和形形色色的公司打交道。不过,我们需要注意的是,我们应该尽可能为我们的合作者打开方便之门。

记者:我们再接着说Project Maven,这个项目将会把工作人员从识别海量视频中解放出来,让他们去做更高层次的工作。但是,如果当AI技术也具备处理更高层次任务的时候,那工作人员们怎么办呢?他们也会参与其中吗?

威尔·罗珀:我们现在的原则是,重要的事情还是人来做决定,而且我也认为这个原则未来一段时间之内不会改变。工作人员会一直存在,只是他们将会越来越少地参与低层次的工作。

比如说,你可以设想AI能够很好地识别房屋和汽车种类,从可以识别你的车到识别得的车的种类再到可以识别某一辆特定的车。但是,未来的重大决定还是会由人来决定。AI不能回答你为什么做一个决定,它的决定都是数据驱动的,而这对于大多数人来说,并不一定是合适的。我们需要对于做出的决定进行评估,而AI是不具备这种能力的。

记者:AI图像识别能力超过人类的时代已经不远了,我也能够理解,重要的事情还是需要人类做决定。但是,如果是导弹防御系统呢?当导弹来袭时,我们是让反应更快的AI去解决威胁还是让人类来处理呢?

威尔·罗珀:我觉得导弹来袭和之前说的不是一个问题。但是,和人有关的决定,做了以后都是有责任的。如果我们想把AI引入决策时,我们将不仅仅需要知道AI推荐的是什么,还要了解为什么推荐这个。空军第一步需要学习的就是如何巧妙地运用现有的AI技术。我们还需要对于AI技术进一步了解和应用。

记者:可解释性(explainability)现在是在AI技术的热门领域,已经有相当一群高智商的研究人员涉足此领域。他们也提到,所谓的可解释性,实际上有问题。如果你问一个人为什么做出某个决定,他可能会给你讲一个故事,而这个故事并一定是真正的原因。因此,如果向AI领域引入可解释性,一个是处理速度会变慢,再一个就是标准比人类高。

威尔·罗珀:是的。我非常高兴很多研究人员涉足可解释性,但是,结果如何不可预料。因此,我们需要的可能并不是具有解释能力AI或者仅仅是助手型AI,而是一种可以持续可以从错误中进行学习的AI。我们的实验室就在进行相关的研究,而且也有商业公司涉足这个领域。

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号