机器人开始“杀人”了 取代人类or解放人类?
机器人开始“杀人”了。
前不久,亚马逊公司位于新泽西的运营中心发生了这样一起事故。由于一个机器人不小心刺破了防熊喷雾,且喷雾恰好从货架掉了下来,导致防熊喷雾中所含的大量浓缩辣椒素释放出来,造成了十多名员工呼吸困难,24人住院治疗,1人情况十分危急。
尽管最终没有人因此而丧失生命,但机器人的“谋杀”行为还是再次给人类上了严肃的“一课”。
机器人“杀人”早有前科
其实机器人导致人类受伤、乃至死亡的实例早已数不胜数。
早在四十年前的日本广岛,一家工厂的切割机器人在切钢板时,发生异常,将一名值班工人当做钢板操作,最终导致了工人的死亡;
事故发生后的第二年,也就是1979年,美国福特公司在密歇根州的铸造厂中一名装配线工人被工业机器人手臂击中身亡。福特被法院裁定赔偿该员工家人1000万美元;
到了1982年,日本山梨县阀门加工厂的工人在调整停工状态的螺纹加工机器人时,机器人突然启动,酿成悲剧;
更离奇的是,在1989年,前苏联国际象棋冠军古德柯夫和机器人对弈时,古德柯夫连下3局春风得意,说机器人的智力是斗不过人类的。戏剧性的是,机器人对手就在这时突然向金属棋盘释放了高强度电流,而古德柯夫的手恰好放在棋盘上。就这样,知名的国际象棋大师意外的丢了命。
而发生在最近也是最著名的事件就是2015年2月英国首例机器人心瓣修复手术。当时在手术过程中达芬奇机器人出现了“暴走”情况,不仅把患者的心脏缝错了位置,还戳穿了患者的大动脉。由于机器人主机运行时声音很大,主刀医生和助理交流只能完全依靠吼,期间,机械臂还数次打到了医生的手。
虽然,主刀医生Nair和助理见状由机器人手术回到了传统人工手术,但是正当他们要修补机器人犯下的错误时,患者的心脏已经非常“衰弱”了。一周后,接受这个英国首例机器人心瓣修复手术的患者不幸去世了。
这一事件的爆发引起了全世界范围内的关注,也让原本能够缝合葡萄皮、突破人手极限、在人手无法触及地方可以进行操作的达芬奇机器人,后续的推广应用造成了重大影响。英国最终经过了三年才搞清楚事故的原因。
主刀医生Nair承认在这一手术中自己才做医用机器人经验不足,心态过于着急,在手术之前根本没有完成操作的培训课程。同时,Nair也承认自己没有告知患者是英国首位接受机器人修复二尖瓣手术的患者,手术存在很高的风险,而采用传统人工手术方法存活率会更高。
虽然由于机器人所引发的事故四十年来不曾断绝,然而,造成诸多悲剧的最终祸首其实还是人。
这次亚马逊机器人“谋杀”事件也并不例外。
应用广泛但问题不小的机器人
当前,机器人在物流仓储行业的应用已经非常广泛和成熟。如亚马逊、阿里巴巴、京东、菜鸟网络等电商、物流公司都早已通过大面积使用机器人实现了从传统物流到智慧物流的升级。机器人应用的环节也非常普遍,包括仓储的分拣、打包、传送、搬运等。甚至,就连物流配送最难实现的自动化最后一公里,也有京东、美团等试图通过无人车和无人机去解决。
与此同时,仓储物流市场也呈现出井喷式的发展,有机构预计,近年来国内的智能仓储物流市场规模将超过1400亿元。
本次发生事故的亚马逊仓库,也早在全球范围内投入使用了超过10万个机器人,机器人的稳定性和安全性应该十分可靠,但悲剧还是发生了。
据悉,亚马逊在其配送中心部署的这些机器人主要用于整理搬运物品。目前虽然没有引发这次事故原因详细的报告,但可以预知的是,引发事故的原因主要集中于几个方面。包括员工上岗之前的培训、机器人设备操作是否遵循守则、以及机器人本身的稳定性和智能化是否达到要求等。
事实上,人类在使用机器人的过程中往往会存在一些问题:
首先,机器人不够智能、稳定性差。日本、德国乃至前苏联早年的科技发展速度较快,因此也较早使用了机器人这种“黑科技”。但无奈的是,当时无论是机器人的设计、稳定性都并不成熟和完善,也因此造成了机器人将工人当成钢板、机器人意外击中流水线工人、与国际象棋冠军对弈突然释放高强度电流等悲剧。
其次,就是人类本身急功近利的心态、或者操作不当的行为导致的意外事故。比如,英国手术的实例。以及同样发生在2015年7月德国Baunatal工厂的一场事故。当时一名工人负责协助安装机器人身处在安全笼之中,安全笼将工人与操作金属的机器人分隔开,但意外是另外一名工人也在现场却未身处安全笼中,所以这名工人被机器人当成了障碍物。由此引发了悲剧。
此外,还有技术方面的限制,在无人驾驶领域也尤其明显。今年3月,Uber的一辆自动驾驶汽车就意外撞死了一名行人。根据当地警察局局长发言可知,受害人当时是从阴影中突然出现在马路上,而任何一种模式下的无人驾驶都很难避开这种碰撞。从技术角度的解释就是,无人驾驶传感器融合方案的限制,导致在恶劣天气以及夜晚等情况下视觉和行人识别有误甚至无法识别的现状。
取代人类or解放人类?
在1940年,科幻作家阿西莫夫为了防止机器人伤害人类提出了“机器人三原则”:
1.机器人不能试图伤害人类,也不能看见人类受伤害袖手旁观;
2.机器人应该服从人的命令,但不得违反第一原则;
3.机器人应该保护自己,但不得违反第一、第二原则。
然而,这三个原则逻辑漏洞明显,也无法解决实际问题。随着机器人、人工智能的进一步应用落地,由其引发的安全问题成为了许多人关注的焦点。甚至,还有一部分业内人士为此感到担忧。特斯拉CEO马斯克就曾经在Twitter上表示,“我们要非常小心人工智能,它可能比核武器更危险” 。史蒂夫·霍金也曾说,人工智能可能是一个“真正的危险”,机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”
他认为,人工智能的进化并不必然是良性的。而一旦机器人达到能够自我进化的关键阶段,人类就无法误测它们的目标是否与人类相同。人工智能可能比人类进化速度更快,人类需要确保人工智能的设计符合道德伦理规范,保障措施到位。
因此,在2017年人工智能国际会议上,马斯克、苹果联合创始人沃兹尼亚克、研发“阿尔法围棋”的深度思维公司创始人哈萨比斯等科技界名人兼从业者签署了公开信,呼吁联合国应该像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀人机器人”。
而亚马逊也曾向美国联邦通信委员会提交过一份报告,该报告表明亚马逊正在研发一种保障机器人安全性的新技术。该技术可以通过定位有效地防止仓储中心的机器人意外伤人。
其实,人类对机器人的认知和期待可谓千人千面。在普通消费者眼中,机器人发展太慢,不够“智能”无法思考;在部分专家眼里机器人发展很快,进化到最后很可能取代人类。
究竟是取代人类or解放人类?
That is a good question。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论