人工智能在工作场景下的新兴技术及伦理问题
监视你的行动
今年早些时候,亚马逊(Amazon)被迫公开否认正在为一款追踪仓库工人行为的设备申请专利。该公司在一份声明中说:“有关这项专利的猜测是错误的。”相反,其腕带跟踪系统将被用作手持扫描仪的替代品。
随着一年来有关亚马逊仓库虐待员工情况的报道不断传来,这种保证变得不那么令人信服,其中包括了对员工是否可以上厕所的限制。
当然,想要不惜一切代价实现效率最大化的公司不需要等待亚马逊的腕带上市。Insight的主管Jeff Dodge表示,视频摄像头与图像识别技术的结合,可以同样容易地追踪到员工的动作。Insight是一家总部位于丹佛的技术咨询和系统集成公司。
“如果你是一名员工,并且你在一个有摄像头的空间里,你的雇主实际上是在观察、分析你的每一个动作、每一个行动,”他说。
除了某些特定的法规遵从性相关的情况外,这在今天是完全合法和可能的。
这种监视可以是完全无害的——例如,出于安全目的,或为了帮助优化办公室布局。Dodge说,这就是公司目前使用它的方式。
“我们经常与客户交谈,不是谈论什么是可能的,而是谈论什么是正确的,什么是道德上正确的,”他说。
他说,是的,我们有可能追踪每个员工在洗手间花了多少时间。“但人们非常清楚,如果他们这样做了,而有人发现了,那将带来一个非常负面的新闻后果。”
Dodge说,关键是要与员工开诚布公地讨论人工智能项目的目的。“‘嘿,我们正在考虑把洗手间建在更方便使用的地方,但要做到这一点,我们必须监控人们会去哪儿。’如果你确实得到了支持,那么对于谁有权访问这些数据的透明度对于建立信任来说同样重要。如果被发现某些人工智能正在做出帮助管理的决策,而且你拥有一个将我们与他们相比的环境,那么信任就荡然无存了,”他说。
监控不一定局限于视频监控。公司还可以访问员工的电子邮件、网页浏览记录以及大量其他的行为数据。
衡量你的忠诚度
情绪分析包括使用分析来确定人们是否对公司或产品有好感。同样的技术也可以用在员工身上,只不过这里的公司不仅可以访问他们的公共社交媒体档案,还可以访问他们所有的内部通信。
如果做得恰当,情感分析可能会对一家公司有用,而不会造成侵害。
这项技术的一个具体应用是预测哪些员工可能离开一家公司,例如,他们正在浏览求职网站,发送简历,或者比平时发送更多带有附件的电子邮件到个人账户。
一位不愿透露姓名的财富500强公司的高级信息安全专家表示,这很容易做到。这位专业人士说他已经做了十年了,而且非常可靠。
例如,这种技术可以被无害地使用,以确保专有信息不会离开公司,这就是安全专家的公司使用专有信息的方式。或者它也可以被综合使用,在每个人离开公司之前帮助公司解决普遍的士气问题。但是,公司也有其他方法可以利用从这些方法中获得的信息,例如将一名被认为不忠的员工排除在有声望的任务、旅行机会或专业培训之外。
Dodge表示,这样做可能会给公司带来很多麻烦,这也是大多数公司避开人工智能这类应用的原因。“一般来说,公司对透明度的指数很高。他们都有关于他们做什么和不做什么的公共政策 - 他们是真的在考虑对他们的品牌的长期影响以及公众对滥用这种技术的看法。”
管理你的健康
越来越多的公司正在推出员工健康计划。但是,Dodge说,这里有很大的隐私侵犯空间,公司必须小心。尤其是当公司还在为员工管理医疗保险项目时。
如果事情变得过于个人化,就会出现很多问题。当员工佩戴个人健身或健康监测设备时,很快就会变得非常私人化。
“如果你愿意,从隐私的角度来说,它是有害的,”Dodge说。“想象一下,‘我们建议你去看一下关于IBS的专家,因为你经常去洗手间’。”
Dodge建议公司完全不要涉足这一行业,让专业公司来收集和分析数据,并直接向员工提出建议。即使这些建议是通过公司赞助的员工门户网站提出的,但它是一项外部服务这一事实,也有助于减少人们对它的反感,以及滥用这种令人毛骨悚然的服务的可能性。
AI与权力平衡
在工作场所滥用人工智能的一个常见因素是技术如何影响公司和员工之间的权力动态。
卡内基梅隆大学伦理与计算技术教授、CREATE实验室主任Illah Nourbakhsh表示:“你可以利用(人工智能)来增强员工的代理能力。或者你可以用它来巩固公司的权力结构。它是关于权力关系的。你可以用人工智能来创造平衡,或赋予权力——或强化工作场所现有的紧张关系。”
对于一家公司来说,试图对其员工获得更多权力是很有吸引力的,比如通过使用监控技术来提高生产力。
“从战术上讲,这可能会产生一些效果,”他说。“但是从战略上来说,从长远来看,它会让员工感觉不那么有能力,并会损害生产力和营业额。如果亚马逊因为你走得太慢而罚款,那会让员工感觉不那么受重视,也不像团队中的一员。短期来说,它会让人们走得更快,但从长期来看,它会伤害人际关系。”
与其他专家一样,Nourbakhsh建议,在推出新的人工智能项目时,应高度关注透明度和可解释性。
这包括潜在数据集和用于分析它的算法中的偶然和故意偏差问题,以及数据或算法中的错误。
当好的AI变坏的时候
此外,公司需要为AI以意想不到的方式失败做好准备。
“AI是外星人,”Nourbakhsh说。“我们假设人工智能系统会像人类一样犯错误。”
这种假设可能是有害的。
例如,人工智能系统可以以一种相对微妙的方式观察一幅经过修改的图像,并以极高的自信将其完全归为其他类别。
例如,去年,研究人员发现,一小片胶带会让人工智能认为,一个停车标志是一个限速为每小时45英里的标志,这对于人工智能驱动的汽车来说是一个严重的错误。
“这是一个惊人的错误,”Nourbakhsh说。 “太可怕了。但是,这有助于我们对于一个事情是如何失败的理解,我们有一种先入为主的偏见。当它失败时,它不仅仅是一点点的失败,就像人类失败一样。但是它会以一种完全不同的方式失败”。
有时,结果可能是致命的。
去年10月,一架波音737 MAX飞机在印度尼西亚附近坠毁,机上189人全部遇难,原因是自动驾驶系统出现问题。
他说,按照系统的设计方式,飞行员很难重新获得控制权。“人类需要进行最后的监督。当公司实施人工智能系统并给予他们自主控制时,这是有问题的。”
给人类控制权的一种方法是确保人工智能系统能够自我解释,而且解释需要让用户能够理解。他表示,这应该是任何公司构建或购买人工智能系统时的基本要求。
如果公司有可用的工具来监控人工智能系统,以确保它们正常工作,这也会有所帮助。但这些工具目前还无法使用,甚至无法解决种族或性别偏见等常见问题。德勤(Deloitte)网络风险服务数据安全主管Vivek Katyal表示,企业必须建立自己的网络。“或者你可以手工调节,然后想办法解决问题。”
当然,任何技术都无法阻止企业故意滥用人工智能系统。最近一项针对人工智能早期使用者的调查显示,在与人工智能相关的三大担忧中,不到三分之一的人将伦理风险列为最重要的三大担忧。相比之下,超过一半的受访者表示,网络安全是他们最关心的三大问题之一。
他说,除了声誉受损和与隐私相关的合规标准之外,没有什么能迫使企业做出正确的事情了。
Katyal说:“在缺乏监管的情况下,人们会做自己想做的事。”各州正在制定法案,扩大对隐私的保护,另外有一个国家标准也是有意义的。但他说,即使有隐私规定,也无助于解决算法存在偏见或滥用的问题。“我们将如何更好的控制它?这是我看到的当下组织需要解决的一个重要问题。”
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论