Facebook搞种族歧视?其AI将黑人标记为灵长类动物
Facebook的人工智能在一段有关黑人的视频上误贴“灵长类”标签。
据《纽约时报》报道,Facebook用户称其最近观看了一个来自英国小报的黑人视频,然而却收到了一个自动提示,询问他们是否愿意继续观看关于灵长类动物的视频。该公司立即调查并禁用推送该消息的AI功能。
这段视频拍摄于2020年6月27日,来源于《每日邮报》(The Daily Mail),内容涉及黑人男子与白人平民以及警察发生争执的片段,与灵长类动物没有任何关系。
曾在Facebook担任内容设计经理的Darci Groves说,一个朋友最近给她发了一张自动提醒的截图。然后,她把这篇文章发布到一个Facebook员工的产品反馈论坛上。
作为回应,该公司的视频服务Facebook Watch的一名产品经理称这是“不可接受的”。周五,Facebook为其所谓的“不可接受的错误”道歉,并表示正在调查推荐功能,以“防类似事件再次发生”。
“正如我们所说,虽然我们对人工智能进行了改进,但我们知道它并不完美,我们还需要一直改善。我们向任何看到这些无礼推荐消息的人道歉。”
这一事件只是人工智能工具显示性别或种族偏见的最新例子。谷歌、亚马逊和其他科技公司多年来一直因其人工智能系统存在偏见而受到审查,尤其是种族问题。研究表明,面部识别技术对有色人种有偏见,识别有色人种更困难,导致黑人在使用电脑的过程中受到歧视甚至因电脑错误被捕。
2015年,一名黑人软件开发人员在Twitter上说,谷歌的照片服务(Google Photos)把他和一个黑人朋友的照片打上了“大猩猩”的标签,这让谷歌感到非常尴尬。谷歌宣称自己“感到震惊和由衷的歉意”。一名相关的工程师表示,谷歌正在“研究更长期的解决方案”。
两年多之后,谷歌给出的其中一项修复措施就是将大猩猩和其他灵长类动物的标签从该服务的词库中删除。这一尴尬的变通方案表明,谷歌和其他科技公司在推进图像识别技术方面仍旧面临着诸多困难,尽管这些公司希望能够在自动驾驶汽车、个人助理和其他产品上使用这些技术。
这件事爆出后,Google 承认,在图片识别标签中,他们确实删掉了“大猩猩”,给出的解释是:“图片标签技术仍处于早期,很不幸,它离完美还差得远。”
去年,脸书表示正在研究其使用人工智能(包括Instagram)的算法是否存在种族偏见。为什么人脸识别系统总是认错黑人?技术不懂什么是种族偏见,人脸识别却一再翻车。
2018 年,美国《纽约时报》发表过一篇文章,引用美国麻省理工学院的最新研究论文,证实在不同种族面前,人脸识别的准确率存在巨大差异。纽约时报刊文研究员创建了一个包含 1270 张面孔的数据集,包括以深肤色为主的 3 个非洲国家,以及浅肤色的 3 个北欧国家,并找来三款主流的人脸识别系统进行测试。数据集中的一部分结果显示:白人的识别错误率最低,仅为 1%,肤色越暗,错误率越高。这其中,又以黑人女性的错误率最高,达到 35%。
现实中,深肤色人的面部特性确实比较难找,尤其在暗光环境下,光是检测到脸就很难了,更别提捕捉面部特征,这对于算法确实是一大挑战。在样本数据不足的情况下,人脸识别算法一般的做法,是根据特定的面部特征,比如眼距、肤色等,开启预测模式,但算法预测所依赖的面部特征,本身就不准确,势必会导致识别失误,比如把深色皮肤的女性识别成男性,或者把良民识别成罪犯。
其实,AI其实并不存在种族偏见,如果深肤色人脸的样本足够多,AI算法获得足够多的数据来训练,那么深肤色人种的人脸识别问题自然就迎刃而解了,说到底还是AI在深肤色人种之间应用较少,缺乏足够多的数据训练,归根结底,有偏见的一直是人。
维科杯·OFweek(第六届)2021物联网行业年度评选:https://www.ofweek.com/award/2021/AIoT/iot/
维科杯·OFweek(第六届)2021人工智能行业年度评选:https://www.ofweek.com/award/2021/AIoT/ai/
最新活动更多
-
12月12日火热报名中>>> STM32全球线上峰会
-
即日-12.18立即报名>>> 【在线会议】Automation1微纳精密运动控制系统
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26立即报名>>> 【在线会议】村田用于AR/VR设计开发解决方案
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论