浅析:人脸识别的罪与罚
创新下一代监控技术
这些方法的最终结果是,导致我们现在拥有的监控摄像头可能由于多种原因而不起作用,但它们已经成为公共监控的一个组成部分,而且在更大的一些场所,如公司、商店等,也成为监控的一部分。在一个比较复杂的且需要人进入的环境中,人们往往希望在已有的基础上找到一个快速、廉价的解决方案,因为这样就只需增加附加功能就能达到想要的效果。这就是面部识别开始被认为是万灵药的原因,成为原有监视设备基础设施的“附加组件”。
大众传媒对这一概念也有贡献。在科幻小说中,人脸识别技术能发挥自己的作用。电影赞美侦探和警察,他们通过面部识别捕捉坏人来拯救人类。但这不是现实,因为科幻小说是照本宣科的,它的情节和角色在任何一个相互依赖的社会中都无法发挥作用,因为现实社会有着有各式各样的信仰和问题。魅力无穷的大预算科幻电影,其运用的炫酷科技手段吸引了技术专家和市政当局的注意,因为前者想要利用小说来建立技术的模版;而后者在与财政赤字做斗争的同时,能看到最新最好的技术是成功和地位的象征。技术人员可能并不经常关心或熟悉他们所构建的东西将如何影响社会。与此同时,一些市政当局似乎要么掩盖新技术的潜在成果和影响,继续为科技公司提供一个免费的测试平台,要么误解了这些技术将给城镇带来怎样的变化。
从本质上讲,面部识别提供了一个伟大的承诺,可以像在电影中那样,轻松地识别和抓住坏人,而不需要建立任何人际关系和了解社区中人们干的“脏活”。对警察来说,使用软件要比与潜在的危险罪犯互动安全得多,或者冒险与人接触,却发现他们实际上根本不是罪犯。通过这种方式,由监控摄像头组成的社会技术框架(现在可能包括面部识别)开始被用作社区知识和行为的代表。
但是,这些数据并不能准确地替代社区知识,因为它可能被误解和误用。这项技术并不是对所有人都平等、公平地适用,尤其是对那些非白人和跨性别的人来说。麻省理工学院(MIT)去年的一项研究发现,三种常见的面部分析系统显示,浅肤色男性的错误率为0.8%,而深肤色女性的错误率为34.7%,尤其是在执法场景中,找错人带来的风险更加严重。
从面部识别到侧写
人脸识别软件是对监控摄像头的一种创新,它被用来解决一个社会问题。但是只有人,而不是技术,才能解决社会问题。然而,人们可能不得不应用技术来解决这些问题,而这正是我们陷入困境的症结所在:什么技术是合适的,什么不是,我们使用什么工具,就像Dr. Chowdhury和其他人所要求的那样,来构建一个“安全和健康的社会”?
广泛使用价格低廉、没有监管和极具透明的人脸识别工具容易令人们感到不安。此外,目前还不清楚人手短缺、预算紧张或缺乏技术经验的警察部门是否会遵守面部识别软件供应商制定的自愿规则。
一旦像亚马逊这样的公司的面部识别软件得到广泛应用——我们是这些异类实验的对象——下一个技术进步应用可能会被引进:人工智能通过利用面部识别得出关于我们和我们的行为的结论。这就是目前中国正在发生的事情,人工智能和人脸识别正被用于监视1100万维吾尔族(一个穆斯林少数民族)。
《纽约时报》最近报道称:“这种人脸识别技术被整合到中国迅速扩张的监控摄像头网络中,只根据维吾尔人的外貌来寻找他们,并记录他们的行踪,以便进行搜索和审查。”“这种做法使中国成为应用下一代技术观察其人民的先驱,可能会开启一个自动化种族主义的新时代。”
中国有关部门和企业正在利用该技术在大型公共活动中抓捕犯罪嫌疑人,以及在更日常的情况下使用该技术,例如在机场和酒店认出寻找的人,锁定在人行横道上羞辱乱穿马路的人,找准用户做针对性广告。人脸识别技术也正在美国各地蔓延,从用于边境安全到制作冰箱货架上的个性化广告。纽约一家房地产集团最近试图为其公寓大楼内的每个公寓单元创建基于人脸识别的钥匙。
也许我们正处在一些技术的尖端,这些技术将以一种对我们来说是全新的方式回归,既挑战我们的底线,又考验我们的社会规范。例如,一旦我们走到哪里都被“认识”,那么,就像其他跟踪和识别我们的数据所做的那样,我们可以不断地被“剖析”。当我们被“剖析”时,人们认为我们的行为可以通过算法预测。一旦我们的行为可以被政府和营销人员“预测”出来,那么我们可能会在算法面前失去我们的主动权,算法生成的“可信数据”要远远多于从我们的账户信息获取的数据信息。
当所有各方都能创造一个他们自己可接受的结果时,就能实现合作。虽然人们有时可能会放弃自己的代理权来得到他们想要的结果,但这种做法并不常见。这就是奴役。没有代理权,没有能力选择自己的形象或销售方式,破坏了合作的基础。为了“方便”而利用面部识别的人工智能应用,在围绕监控技术的技术“创新”中,变得更加危险,因为我们被迫将越来越多的信息暴露出来。
彻底禁止使用该软件的努力面临阻力。国会议员和微软等公司大多在推动相关规定,其中包括强制要求在公共场合使用面部识别工具时,需使用清晰的标识来提醒人们。但这种做法表示,除了主动离开该区域,否则你没有办法选择退出监视,标识给人们提供了不合理的选择。如果没有办法选择退出这个潜在的强大监控系统,人类就会开始成为奴隶。这就是为什么能够限制面部识别的严肃的、可执行的法律是至关重要的,也是为什么在我们的技术发展到这个关键时刻,这种讨论显得如此重要的原因。
一旦面部识别和其他人工智能变得普及,在缺乏严格的可强制执行的法律来保护这项技术的情况下,我们将不受保护;也就意味着,为了满足政府和企业的目的,我们的身份信息和地理位置信息将被利用。这就是贪婪、利润和权力作为激励因素发挥作用的地方。
如果我们想要识别出危险分子,也许他们就是那些希望我们丧失自己的面孔、身份和异质性的实体——不仅仅是为了让他们获利,而是作为一种自动分类和社会控制的手段。这就是为什么面部识别技术会成为我们重点讨论的对象,也是为什么越来越多的人希望在我们的社会中禁止使用它的原因。
图片新闻
最新活动更多
-
即日-12.5立即观看>> 松下新能源中国布局:锂一次电池新品介绍
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 2024中国国际工业博览会维科网·激光VIP企业展台直播
-
精彩回顾立即查看>> 【产品试用】RSE30/60在线红外热像仪免费试用
-
精彩回顾立即查看>> 2024(第五届)全球数字经济产业大会暨展览会
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论