AI

Web LLM 攻击技术

[概述]在ChatGPT问世以来,我也尝试挖掘过ChatGPT的漏洞,不过仅仅发现过一些小问题:无法显示xml的bug和错误信息泄露,虽然也挖到过一些开源LLM的漏洞,比如...

以安全的视角浅谈新生代专为AI设计的语言Mojo

0x01 介绍 在刚刚过去的defcon quals 2024上出现了Mojo[1]写的应用,看见了小伙伴对它的吐槽,我也很好奇它到底是怎样的一个语言,决定深入探索一下。Mojo的...

LLMjacking: Stolen Cloud Credentials Used in New AI Attack

The Sysdig Threat Research Team (TRT) recently observed a new attack that leveraged stolen cloud credentials in order to target ten cloud-hosted la...

Llama-Code Shield解读:大模型代码安全护盾解析

引言大模型目前被广泛用于生成代码数据,能有效地提高研发效率。但LLM生成的代码中潜藏的安全漏洞,也成了悬在头顶的达摩克利斯之剑。最近,Llama-3的问世,...

【RAG论文】RAG中半结构化数据的解析和向量化方法

01论文简介论文题目:《A Method for Parsing and Vectorization of Semi-structured Data used in Retrieval Augmented Generation》论文链接:https://arxi...

白泽团队:探索用LLM提高漏洞库质量

漏洞库当前软件供应链安全面临诸多挑战,其中漏洞库的质量至关重要。漏洞库在软件成分识别和漏洞检测中扮演关键角色,其质量直接影响漏洞检出的准确性和有效...

LLM PENTEST: LEVERAGING AGENT INTEGRATION FOR RCE

This blog post delves into the class of vulnerability known as “Prompt Leaking” and its subsequent exploitation through “Prompt Injection,” which, ...

LEAD:基于学习特征分解实现无源通用域适应

编者按:无监督模型域适应是克服分布偏移情况下神经网络性能退化的重要手段。相较于仅考虑协变量偏移的闭集域适应,通用域适应旨在实现同时存在协变量偏移和...

圣母大学&理海大学 | 迈向可信赖的大语言模型

原文标题:TrustLLM: Trustworthiness in Large Language Models原文作者:Yue Huang, Lichao Sun, Haoran Wang, Siyuan Wu, Qihui Zhang, Yuan Li, Chujie G...

Web LLM attack demonstration

Organizations are rushing to integrate Large Language Models (LLMs) in order to improve their online customer experience. This exposes them to web ...
1 2 3 4 28