刚刚通报:已辞退!

中国基金报

1个月前

字节跳动回应实习生破坏大模型训练传闻:实习生已辞退。...字节跳动发布声明回应称,确有实习生发生严重违纪行为并已经被辞退,但相关报道也存在部分夸大及失实信息。

【导读】字节跳动回应实习生破坏大模型训练传闻:实习生已辞退

中国基金报记者 王建蔷
近日,有传闻称字节跳动大模型训练被实习生攻击。10月19日,字节跳动对这一传闻进行了回应。
字节跳动回应传闻:已辞退
字节跳动发布声明回应称,确有实习生发生严重违纪行为并已经被辞退,但相关报道也存在部分夸大及失实信息。
据字节跳动介绍,该涉事实习生恶意干扰商业化技术团队研究项目的模型训练任务,但并不影响商业化的正式项目及线上业务,也不涉及字节跳动大模型等其他业务。网传“涉及8000多卡、损失上千万美元”严重夸大。
字节跳动还称,经核实,涉事人一直在商业化技术团队实习,并没有AI Lab实习经历。其社交媒体个人简介及部分媒体报道有误。另外,该实习生已在8月被公司辞退。公司也将其行为同步给行业联盟和所在学校,交由校方处理。
此前传闻
近日有消息称,字节跳动的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。
传言称,该实习生利用了HF(huggingface)的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果。
但传闻曝出之后,该实习生还在某微信群里辟谣称,自己发完论文后就从字节跳动离职,这个当口有另一个人钻漏洞改模型代码,把锅扣到自己头上。
大模型安全问题受关注
大模型在安全性方面的问题已经受到业内高度关注。
2023年底《自然》杂志预测的2024年的重大科学事件中 ,GPT5的发布以及联合国人工智能高级别咨询机构将发布的AI监管相关报告位列其中,反映了全球对协调人工智能发展与安全的重大关切。
业内将促使大模型遵循人类价值观、服从人类意图,规避各类风险,并保障数字和物理空间的应用安全,实现有用性(Helpful)、无害性(Harmless)和诚实性(Honest)3H多目标的平衡,上升为亟待解决的世界难题。
近日,阿里云联合中国信息通信研究院等30余家行业单位共同编制发布《大模型安全研究报告(2024年)》。
报告指出,大模型在训练数据、算法模型、系统平台和业务应用等方面面临多重安全挑战。其中包括训练数据的违规获取、含有违法不良信息、数据投毒、质量低下以及缺乏多样性等问题;算法模型则存在鲁棒性不足、出现“幻觉”现象、存在偏见和歧视、可解释性差的风险;系统平台方面,则需防范机器学习框架和开发工具链的安全隐患以及系统逻辑缺陷所带来的威胁。
中国信通院近期发布的大模型安全基准AI Safety Benchmark的测试结果则显示,大模型(尤其是开源大模型)在恶意诱导手段下的攻击成功率均较原始输入有明显提升。因此,对大模型进行安全对齐防护刻不容缓。
编辑:舰长
审核:木鱼

版权声明

《中国基金报》对本平台所刊载的原创内容享有著作权,未经授权禁止转载,否则将追究法律责任。

授权转载合作联系人:于先生(电话:0755-82468670)

字节跳动回应实习生破坏大模型训练传闻:实习生已辞退。...字节跳动发布声明回应称,确有实习生发生严重违纪行为并已经被辞退,但相关报道也存在部分夸大及失实信息。

【导读】字节跳动回应实习生破坏大模型训练传闻:实习生已辞退

中国基金报记者 王建蔷
近日,有传闻称字节跳动大模型训练被实习生攻击。10月19日,字节跳动对这一传闻进行了回应。
字节跳动回应传闻:已辞退
字节跳动发布声明回应称,确有实习生发生严重违纪行为并已经被辞退,但相关报道也存在部分夸大及失实信息。
据字节跳动介绍,该涉事实习生恶意干扰商业化技术团队研究项目的模型训练任务,但并不影响商业化的正式项目及线上业务,也不涉及字节跳动大模型等其他业务。网传“涉及8000多卡、损失上千万美元”严重夸大。
字节跳动还称,经核实,涉事人一直在商业化技术团队实习,并没有AI Lab实习经历。其社交媒体个人简介及部分媒体报道有误。另外,该实习生已在8月被公司辞退。公司也将其行为同步给行业联盟和所在学校,交由校方处理。
此前传闻
近日有消息称,字节跳动的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。
传言称,该实习生利用了HF(huggingface)的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果。
但传闻曝出之后,该实习生还在某微信群里辟谣称,自己发完论文后就从字节跳动离职,这个当口有另一个人钻漏洞改模型代码,把锅扣到自己头上。
大模型安全问题受关注
大模型在安全性方面的问题已经受到业内高度关注。
2023年底《自然》杂志预测的2024年的重大科学事件中 ,GPT5的发布以及联合国人工智能高级别咨询机构将发布的AI监管相关报告位列其中,反映了全球对协调人工智能发展与安全的重大关切。
业内将促使大模型遵循人类价值观、服从人类意图,规避各类风险,并保障数字和物理空间的应用安全,实现有用性(Helpful)、无害性(Harmless)和诚实性(Honest)3H多目标的平衡,上升为亟待解决的世界难题。
近日,阿里云联合中国信息通信研究院等30余家行业单位共同编制发布《大模型安全研究报告(2024年)》。
报告指出,大模型在训练数据、算法模型、系统平台和业务应用等方面面临多重安全挑战。其中包括训练数据的违规获取、含有违法不良信息、数据投毒、质量低下以及缺乏多样性等问题;算法模型则存在鲁棒性不足、出现“幻觉”现象、存在偏见和歧视、可解释性差的风险;系统平台方面,则需防范机器学习框架和开发工具链的安全隐患以及系统逻辑缺陷所带来的威胁。
中国信通院近期发布的大模型安全基准AI Safety Benchmark的测试结果则显示,大模型(尤其是开源大模型)在恶意诱导手段下的攻击成功率均较原始输入有明显提升。因此,对大模型进行安全对齐防护刻不容缓。
编辑:舰长
审核:木鱼

版权声明

《中国基金报》对本平台所刊载的原创内容享有著作权,未经授权禁止转载,否则将追究法律责任。

授权转载合作联系人:于先生(电话:0755-82468670)

展开
打开“财经头条”阅读更多精彩资讯
最新评论

参与讨论

APP内打开