订阅
纠错
加入自媒体

这一年人工智能在争议中前行

PK内容升级 人机大战不断上演

AI的横空出世离不开围棋大战,这种人与机器的鏖战既吸引眼球,让AI热度高涨,又以最通俗的方式科普了人工智能技术的现状和应用。今年,人机大战依然令人乐此不疲,人与机器孰强孰弱的问题总能瞬间点燃舆论,似乎誓要在每个领域分出高下。

写作大概是人类最自负的“山头”,不过AI也没打算放过,写诗有微软“小冰”,写文案也有了“莎士比亚”。这个专为写商品文案而生的AI一秒钟可以作出千条文案,号称让编辑下岗。这套系统基于平台自身在商品标签和搜索数据库层面积累的大数据,从句子层面做结构解析、训练模型和语言生成,从而能够一秒钟生成千条文案,系统还能根据用户对文本的选择实现机器算法的优化。但网站编辑别慌,目前的人工智能协作还非常初级,既需要人工干预,也受到特定场景的局限。

另一场引发讨论的人机大战来自游戏领域,马斯克创立的人工智能非营利组织OpenAI宣布,由5个神经网络组成的OpenAI Five,已经能够组成5v5团队在经典战斗竞技类游戏《刀塔2》中击败人类业余玩家队伍。这次事件更是被比尔·盖茨称为“里程碑”,因为OpenAI Five展现出了类似于人的长期规划和团队协作能力,也展现了极高的智能决策能力。

游戏AI涉及推理和决策等认知智能,这也是研究者热衷于这项研究的原因。不过相关研究者也表示,真正的认知智能还有很多问题没有解决,比如推理过程的表示、决策优化算法,以及如何让AI使用更少的计算量做到更好的推理、让AI消化吸收学习的速度更快等。因此,这阶段人类着实无需担心机器的威胁。在认知智能上,AI还有相当长的路要走。

重视伦理争议 行业规范待定

伴随人工智能的高歌猛进,相关的“噪音”也越来越多,比如数据隐私、AI偏见、AI造反……相关话题引发了数次讨论甚至恐慌,人们开始疑问:AI是不是太强了?它会失控吗?

麻省理工学院媒体实验室曾出品一个名叫诺曼的“暗黑版AI”,它会以负面想法来理解它看到的图片。团队希望通过诺曼的表现提醒世人:用来教导或训练机器学习算法的数据,会对AI的行为造成显著影响。

但其实,当人们谈论人工智能算法存在偏差和不公平时,罪魁祸首往往不是算法本身,而是带有偏差、偏见的数据。

偏见、刻板印象、歧视这些人类社会的痼疾,已经深入社会肌理。在这样的语境中产生的数据,携带着大量复杂、难以界定、泥沙俱下的观点。如果研究者没有意识到或着手处理这一问题,机器学习的偏见几乎无解。真正的“公正算法”或许是不存在的。但通过正确地校准标签、数据的均衡和可靠等,机器出现偏见、谬误甚至失控的可能会相应减少。此外,研究者也应该着手建立一种预防的机制,从道德的约束、技术标准的角度对人工智能进行价值观的干预。

还有一个重要的忧虑来自隐私,相对于AI的偏见或失控,人类对隐私的担忧要真实可感地多,毕竟,我们每天的吃住行都已经充分数字化,与之相伴的隐私暴露风险也指数级上升。

目前,国内从消费电子领域到安保、数字金融等领域都在逐步引入人脸识别, 特别是随着“刷脸支付”的普及,用户的姓名、性别、年龄、职业等身份信息,甚至用户在不同情境状态下的情绪等信息都被机器收集。这些信息如果得不到妥善保管而被泄露,用户个人信息就处在“裸奔”状态。保护公民个人信息的安全,需要管理者、相关行业企业、公民个人的协同努力。目前在人脸识别技术领域,我国尚无相应的安全监管机制,应及早筹谋,完善法律法规、提升应用程度及存储设备的安全程度、强化网络安全和信息保护意识、规范行业信息收集标准等。

<上一页  1  2  3  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号