性别歧视
-
ChatGPT 中的性别歧视、种族歧视有多普遍?
编辑:Yuki | ID:YukiYuki1108 近期,OpenAI 的研究团队在评估 ChatGPT 与用户交互时,发现选定的用户名可能会轻微影响 AI 的回答。尽管这种影响较小,主要体现在老旧模型中,但这一发现仍引起了学界的关注
-
一文教你使用python+Keras检测年龄和性别
目标本文的主要目的是通过给定的数据集检测年龄和性别。我们将使用简单的 python 和 Keras 方法来检测年龄和性别。介绍将摄像头、卫星、飞机以及日常生活中所拍摄的图像进行升级,称为图像处理。基于分析的图像处理经历了许多不同的技术和计算
-
Facebook搞种族歧视?其AI将黑人标记为灵长类动物
Facebook的人工智能在一段有关黑人的视频上误贴“灵长类”标签。据《纽约时报》报道,Facebook用户称其最近观看了一个来自英国小报的黑人视频,然而却收到了一个自动提示,询问他们是否愿意继续观看关于灵长类动物的视频
-
当年轻人开始谈论AI伦理:无处不在的算法歧视
赛博朋克的电影里,常常可以看到这样的构想:社会已经被财阀集团所控制,人工智能充当了统治的工具,所有人的行为都要遵循机器的逻辑、服从算法的规则。然后生活在社会最底层的主角,找到了其中的漏洞并尝试走出被操控的宿命
-
为什么不能是「她」?AI也要反性别偏见
提到性别偏见,别以为只有人才会产生偏见,事实上作为非生命体的AI系统,也可能因为设计者的疏忽,或者社会语料库本身的性别不公因素,而流露出性别偏见倾向。这当然不是设计者的本意,可是这种现象无可避免地会对部分用户造成观感不适。
-
美国五大科技巨头语音识别系统歧视黑人?网友给出新视角
近年来,随着人工智能概念的走红和落地,全球掀起了一股智能化风潮,为生物识别、机器视觉等产业的发展带来了巨大利好。目前,以语音识别、人脸识别为代表的生物识别技术在世界各国得到了广泛应用,并加速实现规模化商用
-
AI性别歧视有救,MIT研究人员给出减少AI预测偏差新方法
在社交媒体的应用场景中,人工智能算法模型的偏差导致搜索结果或用户体验不佳常常出现,甚至可以说是无法规避,如人们熟知的大数据杀熟等。
-
深度学习中存在的偏见和歧视问题,不容忽视
在人工智能上,一直存在“黑匣子”问题,深度网络具有高预测能力但可解释性不足的特点。在用大量数据“教导”机器学习的同时,研究者发现机器学习也会产生不可预测性的“偏见”。
-
AI也会性别歧视吗?
对于一直寻求智能化的亚马逊而言,仅在仓储和物流管理上使用AI技术是远远不能满足的,因此这项2014年启动的AI招聘原本是亚马逊探寻进一步智能化的实验,却偏偏出了篓子。
-
人工智能也有性别喜好?对女性有偏见?
近日,亚马逊人工智能招聘软件因收到大多简历来自男性,而做出了对男性候选人的偏好选择,据说它曾接受了十年的人工智能算法的数据训练。
最新活动更多 >
-
即日-4.22立即报名>> 【在线会议】汽车腐蚀及防护的多物理场仿真
-
4月23日立即报名>> 【在线会议】研华嵌入式核心优势,以Edge AI驱动机器视觉升级
-
4月25日立即报名>> 【线下论坛】新唐科技2025新品发布会
-
限时免费试用立即申请>> 东集技术AI工业扫描枪&A10DPM工业数据采集终端
-
在线会议观看回放>>> AI加速卡中村田的技术创新与趋势探讨
-
4月30日立即参与 >> 【白皮书】研华机器视觉项目召集令