八大现象论证人工智能威胁论真的存在!
如今人工智能发展火热,机器学习预见成熟,智能化未来似乎指日可待。表面上似乎一切都在按部就班的进行,但背后也不乏暴露出很多问题。就像近期人工智能威胁论就引发了不少的言论激战,揪其根源还是人工智能是否能够有意识违背人类意愿操控事务的问题。
因此,我们或许想问:人工智能机器人究竟有多强大?机器人真的会“反噬”人类吗?《终结者》里的Skynet(天网)会真的发生在现实生活中吗?
强弱AI
首先我们应该区分两个概念:强AI和弱AI。强AI 是指一种能够思考并可以感知自身存在的假想机器。它不仅可以解决人类为其定制的任务,还可以学习新事物。
弱AI目前很常见,它是一种用于解决特定问题的应用程序,例如图像识别、汽车驾驶、playing Go(围棋)等,也就是我们常说的“机器学习”。
目前,我们还无法预测强AI什么时候能够真正被研发出来。专家们经过调研推断的结果也是“有朝一日”。
相比强AI,弱AI目前已经存在,很多领域都可以看到弱AI的身影,并且应用范围每年都在增长。通过实例学习,机器学习几乎可以让我们在无需编程的情况下处理实际任务。
人工智能威胁论真的存在吗?
我们通过建立数学模型(“学习”算法),教会机器人解决具体问题。机器人会按照我们规划好的模型法去执行任务,也就是说机器学习的一切行为都是基于我们的操控,我们似乎不用担心电影《终结者》天网的发生。但如果我们抱有这样天真的想法,我们就错了,因为机器学习仍然可能违背人类的意愿去执行错误的任务。
1.不良企图
如果我们教一个无人机军队使用机器学习去杀人,那么结果是否符合道德行为标准?
基于这个话题还发生过一场闹闻。2017年,谷歌正在开发一款用于军事项目的软件,名为Maven。该项目涉及到无人机,以及未来完全自主武器系统的制造。因此,谷歌的12名员工辞职以示抗议,另外有4000名员工签署了一份请愿书,要求公司放弃与军方的合同。与此同时,人工智能、伦理学领域的1000多名知名科学家一起写了一封致谷歌的公开信,要求该公司放弃该项目并支持禁止自主武器的国际协议。
2.开发者偏见
即使机器学习算法开发人员没有恶意,但他们中的很多人还是金钱价值观,他们的最终目的还是为了赚钱。也就是说,他们的算法是为了使自己受益而创建的,并非是为了社会利益。例如,一些医疗算法会推荐昂贵的治疗方法,却很少推荐最佳患者治疗方案。
实际生活中算法的道德规范问题似乎也没有很大体现。例如,交通速度和车祸死亡率之间是可以存在折中方案的。我们可以将自动驾驶汽车的最高行驶速度限制在15英里\小时以下,这样几乎可以将车祸死亡率降到零,但这样却损失了汽车的其他优势。
3.违背逻辑规范
电脑系统在默认的情况下,对逻辑规范一无所知。一种算法可以将国家预算与“最大化GDP/劳动生产率/预期寿命”的目标结合起来,但如果没有在模型中编制限制,它可能会取消学校、收容所和环境的预算,因为它们不会直接增加GDP。
为了一个目标,我们可以让机器学习执行任何一个复杂任务,但前提是要融入相关的逻辑规范。
4.改变人类偏好
机器学习给我们的生活带来了很多便利,但无形之中也在改变我们的生活常态甚至个人行为偏好。例如智能电影推荐,机器学习会根据您对电影的评分,将您的偏好与其他用户进行对比,然后向您推荐电影。长期下来,您的偏好将因为电影推荐系统而被改变,兴趣范围也会被缩小。
但可怕的是,我们并没有意识到这种改变的发生,没有意识到计算机对我们的操控。
5.错误的相关性
当完全彼此独立的事物表现出非常相似的行为时,就会产生一种虚假的关联,这就会造成一种错觉,认为它们之间存在某种联系。例如,你会认为美国的人造黄油消费与缅甸州的离婚率密切相关吗?
我想任何一个有点学识的人都不会认为二者是相关的。但数学模型不具备这样的经验学识,它只是用来学习和数据概括的工具,在它的逻辑系统里,这样相似性的曲线变化表明二者之间一定有着某种联系。
6.反馈循环
相比错误相关性,反馈循环影响更大。反馈循环是指算法决策影响现实的情况,反过来又使算法确信其结论是正确的。
例如,加利福尼亚的一项预防犯罪计划表明,警察应该根据当地的案件数量断定犯罪率,然后根据犯罪率派遣相应的警官。但最终会陷入到这样一个循环里:一个街区的警察增加,当地居民的报警次数就会增多,从而增高犯罪率,按照预防犯罪计划就要派遣更多的警察,警察数量增多,人们的报案数量就又增多,报案率上升,便又增加警察数量······
7.“被污染”的参考数据
算法学习的结果很大程度上取决于参考数据,它们构成了学习的基础。然而,数据很有可能会因为某种偶然的情况或是个人意图而发生扭曲,即数据“被污染”。
一个经典的例子就是2016年微软推出的聊天机器人Tay,微软将这款机器人视为“对话理解”的实验。微软表示,与Tay进行的聊天越多,它就会越聪明。但是微软的此次聊天实验却只进行了24小时就不得不停止,因为无辜的聊天机器人竟然在24小时内被教会了大量种族歧视、性别歧视的用语。Tay的案例为机器学习的研发工作敲了警钟,反应了“被污染” 数据的严重性。
8.机器欺骗
即便是一个功能、数据都良好的模型,它工作原理的泄露也会让恶人钻了空子。例如,有一组研究人员研发了一种可以欺骗面部识别算法的特殊眼镜,这种眼镜会在图像中引入最小的失真,从而改变面部识别结果。
怎样解决?
2016年,奥巴马政府的大数据工作组发布了一份报告,警告:“在自动化决策中可能存在编码歧视”。该报告还呼吁创建遵循平等原则的算法。
但将报告完全落实应用就很难了。
首先,机器学习数学模型很难测试和修复。因为在机器学习中,一切都取决于学习样本的大小,样本的数量是有限的。
举一个经典的例子:早在2015年,软件工程师JackyAlciné曾指出谷歌照片中的图像识别算法将他的黑人朋友归类为“大猩猩”。谷歌对此错误感到震惊,并向 Alciné表示歉意,承诺修复该错误。然而三年后,谷歌除了禁止在图像标记中使用“大猩猩”等类似词语外,并没有其他更好的解决方案。
其次,机器学习算法的决策很难被理解和解释。神经网络会在其内部安排加权系数来得到答案。但其过程是怎样的呢?错误答案如何被修正呢?
举两个例子:2015年的一项研究显示,谷歌广告高薪工作的浏览次数,男性高于女性。亚马逊当天免费送货服务,非洲裔美国人社区(黑人社区)却享受不到。基于这两种情况,两家公司均表示无法解释这些由算法做出的决定。
基于这些算法决策,没有人应用受到责备。因此我们需要对机器人制定出一套法律法规来规定机器人的行为决策。2018年5月,德国人迈出了第一步,他们发布了世界上第一个自动驾驶汽车指南。部分内容为:
与一切财产相比,人类生命至上。
不可避免性事故,不得有歧视,不得有任何区别性因素存在。
如果自动驾驶比人类驾驶造成的事故少,那么自动驾驶系统将成为道德要求。
很明显,机器学习在个别任务的管理能力上确实比人类强,导致我们对机器学习的依赖程度越来越高。因此记住这些机器学习缺陷就显得尤为重要,研发人员应该在开发阶段测试好所有可能存在的问题,并设置好算法的监控措施。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论