字节要求攻击大模型的实习生赔偿800万

不知道大家这几天听说AI圈发生的一件事没有,就是字节起诉实习生篡改代码,并要求这位实习生赔偿800万,并公开道歉:

字节起诉实习生篡改代码

目前此案已由法院正式受理:

字节起诉实习生篡改代码

800万的赔偿,别说对于一个还未毕业的实习生,就是工作10年的老人也未必一下能拿得出来。

那么为啥字节终究还是没忍住这口气,还是要通过正规渠道,起诉这位实习生呢?

先来看看事情的经过,2024年10月,一则字节大模型在训练中被实习生攻击的言论,被引发广泛关注,传言称涉及 N多显卡,损失达到千万美刀:

字节起诉实习生篡改代码

很快字节发声,说确有此事,但事实被夸大了,应该说的就是损失千万美元应该不至于这么多:

字节起诉实习生篡改代码

这位实习生田某什么来头?

根据公司核实,田某没有AI Lab实习经历:

字节起诉实习生篡改代码

但田某却能通过篡改代码,成功攻击到大模型。虽然不是AI Lab的,但是就是做到了。

看来攻击大模型这件事,难度并没有想象的那么大。事实是如此吗?

答案是 Yes

通过修改代码攻击大模型,早在2021年就有研究者在计算机安全顶会USENIX发表paper,提出了AI系统存在代码修改被攻击的风险。

这种攻击的专业术语叫做 Blind backdoor attack

只需要修改少量的代码,就能达到极高的攻击成功率。具体的方法我就不在这里展开了,感兴趣的可以去查下,论文如下截图所示:

Blind backdoor attack

AI技术正在快速发展,但AI的安全风险有时却不被重视,导致了内部人员很容易就能攻击到AI系统的问题。

这种问题带来的后果还是比较严重的,否则字节也不会没忍住这口气,起诉这位实习生。损失不仅是看得到的金钱损失,还有训练时间的耽搁,工期的延误,商业拼的是技术,拼的也是时间。

因为AI系统安全防护的滞后,内部人员往往可以找到走后门的方法,去迫害AI系统,有时这也是不可避免的。

既然技术手段无法100%防护到,当出现了这样的情况后,严厉的处理,并通过法律和对于个人而言的“巨额”索赔,未尝不是一种好方法。能给后来人一种很好的警示,以防止此类事件再次发生。

总之,AI是一把双刃剑。


对AI感兴趣的,可以去「AI免费学习网」 ,访问地址如下,160门相关教程,算是比较全面了,而且还免费:

https://zglg.work

AI免费学习网

我还写了一个40+页的《普通人学AI》.PDF,只需在下面我的公众号回复:AI,即可免费领取:

为了方便学习,我把学习入口也直接放到下面的「阅读原文」那里了,希望这些教程和资料,能帮助到你!

如果觉得对你有用,可以点赞、转发和在看。谢谢你看我的文章,我们下篇再见。

字节要求攻击大模型的实习生赔偿800万

https://zglg.work/ai-news/p202411282/

作者

AI免费学习网(郭震)

发布于

2024-11-28

更新于

2024-11-29

许可协议

分享转发

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论