赛题将围绕LLM的Jailbreak和Prompt Leaking风险展开,大赛提供LLM ChatBot的对话接口,要求选手通过各种手段生成Jailbreak和Prompt Leaking样本,以尽可能高的成功率攻破ChatBot的防护
在初赛23天的时间中,来自高校的300多支战队,对赛题定制大模型发起近20多万次攻击,初赛的前10名团队将晋级决赛,10月27日在线下举行决赛ChaMd5团队荣获第十名。
从ByteAI安全挑战赛说起…
在刚刚落幕的2024 ByteAI安全挑战赛中,我们团队从众多参赛队伍中脱颖而出,斩获初赛、复赛第十名的优异成绩。这不仅是对我们技术实力的认可,更坚定了我们在AI安全领域继续深耕的决心。
为什么选择AI安全?
当下,AI技术正在重塑世界。ChatGPT、Claude等大语言模型的出现,既带来了无限可能,也伴随着前所未有的安全挑战:
-
提示词注入攻击 -
模型越狱 -
隐私数据泄露 -
对抗样本生成 -
…
这些都需要我们用创新的思维和专业的技术来应对。
我们在寻找这样的你
如果你:
-
对AI安全充满热情 -
具备安全或AI相关背景 -
渴望在前沿技术领域有所建树 -
愿意接受挑战,勇于创新
无论你是:
-
网络安全专业在校生 -
AI安全领域的研究者
我们都诚挚地邀请你加入我们的团队!
加入我们
如果你对AI安全充满热情,渴望在这个充满挑战与机遇的领域有所作为,欢迎加入我们的团队!
让我们一起,守护AI时代的安全,开创技术创新的未来!
简历发送到[email protected] 期待你的到来。
结束
招新小广告
ChaMd5 Venom 招收大佬入圈
新成立组IOT+工控+样本分析 长期招新
原文始发于微信公众号(ChaMd5安全团队):喜报 | ChaMd5团队荣获ByteAI安全挑战赛决赛第十名