订阅
纠错
加入自媒体

字节跳动大模型遭实习生破坏?公司称损失上千万美元严重夸大

2024-10-22 09:14
新偶律动
关注

AI发展途中,哪怕是大厂的内控制度仍需加强 

大模型也能被“投毒”? 

近日,有消息称字节跳动发生大模型训练被实习生“投毒”事件。 

据流传,该事件发生在字节跳动商业化团队,因实习生田某某对团队资源分配不满,利用HF(huggingface)的漏洞,通过共享模型注入破坏代码,导致团队模型训练成果受损。消息称此次遭到入侵的代码已注入8000多张卡,损失或达千万美元。 

而在19日下午,字节跳动官方也出面进行了澄清,表示有媒体称“字节跳动大模型训练被实习生攻击”,经公司内部核实,确有商业化技术团队实习生发生严重违纪行为,该实习生已被辞退。

 不过,虽然有相关事件,但相关报道也存在部分夸大及失实信息,涉事实习生恶意干扰商业化技术团队研究项目的模型训练任务,但并不影响商业化的正式项目及线上业务,也不涉及字节跳动大模型等其他业务。另外,网传“涉及8000多卡、损失上千万美元”严重夸大。 

经核实,涉事人一直在商业化技术团队实习,并没有AI Lab实习经历。其社交媒体个人简介及部分媒体报道有误。据悉,该实习生已在8月被公司辞退。公司也将其行为同步给行业联盟和所在学校,交由校方处理。 

但是,此事件也暴露出了字节跳动技术训练中存在的安全管理问题,包括权限隔离、共用代码的审计等。据九派新闻报道,一位技术安全专家表示,HF漏洞产生肯定是单一性集中训练,公司既没做权限隔离,也没有做好共用代码的审计。正常情况下,每次大的代码变动必须做审计,无论谁做操作都有痕迹记录,一个人想动代码是不可能的。 

作者:杨启隆

编辑:丁力 

       原文标题 : 字节跳动大模型遭实习生破坏?公司称损失上千万美元严重夸大

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号