性别歧视
-
ChatGPT 中的性别歧视、种族歧视有多普遍?
编辑:Yuki | ID:YukiYuki1108 近期,OpenAI 的研究团队在评估 ChatGPT 与用户交互时,发现选定的用户名可能会轻微影响 AI 的回答。尽管这种影响较小,主要体现在老旧模型中,但这一发现仍引起了学界的关注
-
一文教你使用python+Keras检测年龄和性别
目标本文的主要目的是通过给定的数据集检测年龄和性别。我们将使用简单的 python 和 Keras 方法来检测年龄和性别。介绍将摄像头、卫星、飞机以及日常生活中所拍摄的图像进行升级,称为图像处理。基于分析的图像处理经历了许多不同的技术和计算
-
Facebook搞种族歧视?其AI将黑人标记为灵长类动物
Facebook的人工智能在一段有关黑人的视频上误贴“灵长类”标签。据《纽约时报》报道,Facebook用户称其最近观看了一个来自英国小报的黑人视频,然而却收到了一个自动提示,询问他们是否愿意继续观看关于灵长类动物的视频
-
当年轻人开始谈论AI伦理:无处不在的算法歧视
赛博朋克的电影里,常常可以看到这样的构想:社会已经被财阀集团所控制,人工智能充当了统治的工具,所有人的行为都要遵循机器的逻辑、服从算法的规则。然后生活在社会最底层的主角,找到了其中的漏洞并尝试走出被操控的宿命
-
为什么不能是「她」?AI也要反性别偏见
提到性别偏见,别以为只有人才会产生偏见,事实上作为非生命体的AI系统,也可能因为设计者的疏忽,或者社会语料库本身的性别不公因素,而流露出性别偏见倾向。这当然不是设计者的本意,可是这种现象无可避免地会对部分用户造成观感不适。
-
美国五大科技巨头语音识别系统歧视黑人?网友给出新视角
近年来,随着人工智能概念的走红和落地,全球掀起了一股智能化风潮,为生物识别、机器视觉等产业的发展带来了巨大利好。目前,以语音识别、人脸识别为代表的生物识别技术在世界各国得到了广泛应用,并加速实现规模化商用
-
AI性别歧视有救,MIT研究人员给出减少AI预测偏差新方法
在社交媒体的应用场景中,人工智能算法模型的偏差导致搜索结果或用户体验不佳常常出现,甚至可以说是无法规避,如人们熟知的大数据杀熟等。
-
深度学习中存在的偏见和歧视问题,不容忽视
在人工智能上,一直存在“黑匣子”问题,深度网络具有高预测能力但可解释性不足的特点。在用大量数据“教导”机器学习的同时,研究者发现机器学习也会产生不可预测性的“偏见”。
-
AI也会性别歧视吗?
对于一直寻求智能化的亚马逊而言,仅在仓储和物流管理上使用AI技术是远远不能满足的,因此这项2014年启动的AI招聘原本是亚马逊探寻进一步智能化的实验,却偏偏出了篓子。
-
人工智能也有性别喜好?对女性有偏见?
近日,亚马逊人工智能招聘软件因收到大多简历来自男性,而做出了对男性候选人的偏好选择,据说它曾接受了十年的人工智能算法的数据训练。
最新活动更多 >
-
2月25日火热报名中>> Ansys Motion薄膜卷曲卷对卷工艺仿真解决方案
-
限时免费立即试用>> 燧石技术,赋光智慧,超越感知
-
2月26日观看直播>>> 维度光电·引领光束质量分析应用全新浪潮【免费下载白皮书】
-
2月28日火热报名中>> 【免费试用】东集技术年终福利——免费试用活动
-
限时免费点击下载>> 2024储能产业抢占制高点发展蓝皮书
-
3月6日预约直播>> 技术赋能,创新引领 - NX 助力电池储能企业高效创新