从Prompt注入到命令执行:探究LLM大型语言模型中 OpenAI的风险点
内容简介:
如果你喜欢我的文章,欢迎关注公众号:安全女巫转载请注明出处:https://mp.weixin.qq.com/s/Okw3UIYr5awrhUFf2bLcdA
引言
Prompt Injection 是一种攻击技术,黑客或恶意攻击者操纵 AI 模型的输入值,以诱导模型返回非预期的结果。这里提到的属于是SSTI服务端模板注入。这允许攻击者利用模型的安全性来泄露用户数据或扭曲模型的训练结果。在某些模型中,很多情况下输入提示的数据会直接暴露或对输出有很大影响。介绍在 LangChain 到 0.0.131 中,LLMMathChain 允许快速注入攻击,可以通过 Python exec 方法执行任意...
查看原文
暂无评论...