如何防止AI将你认成“大猩猩”?光靠肤白可不行
各位是否还记得,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?正因此次事件造成的不良影响,让Google意识到:与其担心AI伤人,更严重的是AI偏见问题。为了防止AI“胡来”,Google为其制定了七项“道德”准则。
事情的原委是这样的,2015年,一位名叫Jacky Alciné的黑人软件开发人员在推特上透露,Google Photos使用的图像分类器将一名黑人女性称为“大猩猩”(Gorillas),引起了轩然大波。事发后,谷歌为此深表歉意,并着手处理这一漏洞。
不仅如此,谷歌还提出AI技术的开发道德准则,并且成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。不光是Google,从IBM到Airbnb,每家公司都在努力确保自己的算法不会出现类似的偏差。
为此,今年6月,Google首席执行官Sundar Pichai发布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见,并表示AI技术的开发和使用将在未来许多年内对社会产生重大影响:
对社会有益
避免制造或增强不公平的偏见
建造并测试其安全性
对民众负责
融入隐私设计原则
坚持科学卓越的高标准
为符合这些原则的用户提供
除了那次不愉快的“大猩猩”事件外,哈佛大学的研究员Latanya Sweeney表示:谷歌搜索中存在种族歧视,当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。
实际上,对于AI偏见这件事,一份来自皮尤研究中心近期公布的研究结果显示:目前美国有58%的成年人认为,人工智能的算法极其程序将会始终包含对人类的偏见,人工智能算出的结果不能保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人认为算法不中立;18-29岁的受访者中,也有48%的人认为算法一定会存在偏见。
如此看来,大众对AI偏见这件事存有共识。显然,解决AI偏见光靠Google一家公司还远远不够,需要有更多的公司加入其中。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论