大模型应用提示词重构攻击
# 大模型应用提示词重构攻击技术文档
## 1. 概述
大模型(LLM)作为条件概率建模器,其输出严格依赖于输入上下文。提示词(Prompts)承担了"任务说明书"的角色,决定了模型对输入的理解方式、输出的格式以及行为的预期。提示词是LLM应用的核心知识产权,其泄露可能导致商业价值受损。
## 2. 威胁模型
### 2.1 攻击目标
通过与服务API交互,重建得到隐藏的提示词p。攻击成功的标准:
- **精确匹配**:提示p中的每一句话都完全包含在猜测g中
- **近似匹配**:基于R
2025-08-29 12:25:51
0