近日,有关字节跳动大模型训练遭实习生攻击的消息在多个社交平台上引发热议。据称,一名实习生因对资源分配不满,利用漏洞在模型中注入破坏代码,导致训练效果不稳定,可能带来重大经济损失。
据知情人士透露,该事件发生在今年6月,涉事实习生姓田,为某高校博士,在字节跳动商业化技术团队实习。字节跳动内部调查后已确认此事,并辞退了该实习生,同时将此事通报给行业联盟和学校。
此次事件暴露出字节跳动在大模型训练中的安全管理问题,引发业内对大模型安全性的高度关注。有技术安全专家指出,公司应实施权限隔离和代码审计等措施,确保代码无法被单独篡改。
今年以来,字节跳动不断加码大模型建设和应用,包括发布豆包大模型、进军AI视频生成等。然而,大模型在安全性方面的缺陷仍为其大规模落地应用带来不确定性。
随着大模型应用的不断深入,如何确保其安全性成为亟待解决的问题。字节跳动等大厂需加强安全管理措施,防范类似事件再次发生。