【新唐人北京时间2024年10月19日讯】中国互联网上传出消息,指中国头部科技公司字节跳动的大模型训练遭到入侵,被一名实习生注入破坏代码,潜在损失可能超过千万美元。但被指实施入侵的田姓实习生却坚称,破坏行为是其他人所为。专家称,此次事件暴露出字节跳动的模型训练存在安全漏洞。
星期五(10月18日),一则消息在微信群内广泛流传引起社会舆论关注。根据这则消息所言,“某头部大厂”的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。消息称,“遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。”
陆媒界面新闻报导称,有知情人士透露,上述传闻中的“头部大厂”指的是字节跳动,而此事件发生在今年6月。当时,某高校的一名博士生在字节跳动商业化技术团队实习,因对团队资源分配不满,便使用攻击代码破坏团队的模型训练任务。
网络社群中还有传言透露了这起事件的一些细节。据称,那名博士实习生姓田,他利用了 HF(疑指huggingface)的漏洞,在公司的共享模型里写入了破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果,而AML 团队一时也难以查明原因。
传闻还提到,这名实习生现在已经被辞退,而字节跳动已将此事通报给大模型行业联盟和实习生所在学校。
陆媒联系了字节跳动,就上述传闻向该公司求证,但后者没有就此作出回应。
向陆媒爆料的“知情者”所提到的那位高校实习生田某某,却在网络社群中公开辟谣,坚称自己是被冤枉的。该实习生在微信群里发帖称,自己当初发完论文后就离开了字节跳动,在这个当口有另一个人钻漏洞改模型代码,把锅扣到了自己头上。
一位技术安全专家在接受陆媒采访时介绍说,HF漏洞的产生通常与单一性集中训练有关。如果传闻属实,则此次事件暴露出字节跳动在技术训练中,既未实施权限隔离,也未做好共用代码的审计工作,存在安全管理问题。
(记者何雅婷综合报导/责任编辑:郑宇)