📦 system_prompts_leaks(中文翻译)

🧠 项目简介

system_prompts_leaks 是一个公开的系统提示词(System Prompts)收集仓库,主要整理来自主流 AI 聊天模型的:

  • System Prompt(系统提示词)
  • System Message(系统消息)
  • Developer Message(开发者指令)

涵盖平台包括:

  • ChatGPT
  • Claude
  • Gemini 等主流大模型 ([Titan AI Explore][1])

👉 本质上,这是一个:

“AI 行为控制层(System Prompt)的反向观察与归档库”


🎯 项目目的

该仓库的目标是:

  • 📚 构建一个 系统提示词知识库
  • 🔍 帮助开发者理解:

    • LLM 是如何被“指挥”的
    • 不同 AI 的行为策略差异
  • 🧪 支持研究:

    • Prompt Engineering
    • AI 行为控制机制
    • 模型安全与限制设计 ([DeepWiki][2])

🧱 仓库内容结构

仓库按照不同 AI 系统进行分类,大致包括:

1️⃣ Claude 系列

  • claude.txt
  • Claude Sonnet / Opus 等版本

👉 特点:

  • 工具调用(Tool use)
  • 行为规范极其详细
  • 强调安全与对齐

2️⃣ OpenAI / GPT 系列

  • GPT-5 personalities
  • GPT thinking / reasoning 模式

👉 特点:

  • 人格(personality)设计
  • 推理策略控制
  • 工具使用策略

3️⃣ 专用功能模块

例如:

  • study / 学习模式
  • image safety / 图像安全
  • file search / 文件检索

👉 本质是:

“能力模块级 Prompt”


🧩 内容特点

✅ 1. 高度还原真实系统 Prompt

这些内容通常来自:

  • 泄露(leak)
  • 逆向分析
  • 实际抓取

👉 可以理解为:

“AI 的操作系统配置文件”


✅ 2. 社区驱动

  • 通过 Pull Request 提交新内容
  • 持续更新
  • 无中心化维护

👉 类似:

prompt 版的 “awesome list + leaks archive”


✅ 3. 只收集,不做解释

仓库本身:

  • ❌ 不提供分析
  • ❌ 不解释设计原因
  • ✅ 只做归档

👉 需要你自己解读


⚙️ 使用场景

👨‍💻 开发者

  • 学习如何设计:

    • system prompt
    • AI agent 行为规则

🧠 研究人员

  • 分析不同模型:

    • 对齐策略
    • 安全机制
    • 输出控制方式

🎓 教学

  • 用作 Prompt Engineering 教材

⚠️ 风险与注意事项

1️⃣ 法律与合规问题

部分 prompt:

  • 可能涉及平台私有配置
  • 存在知识产权问题

👉 使用需谨慎 ([Titan AI Explore][1])


2️⃣ Prompt 泄露本身是安全问题

学术上已经明确:

System Prompt 是 LLM 的核心资产 泄露会导致能力被复制或攻击 ([arXiv][3])


3️⃣ 数据不一定完整 / 准确

  • 有些是片段
  • 有些是推测还原

🧠 一句话总结

这是一个“AI 系统提示词的泄露与归档库”,本质是在拆解大模型的“行为控制层”。


🔥 架构级解读(重点)

结合你的背景(你在做 AI + 系统架构),这个仓库真正有价值的是:


1️⃣ System Prompt = “软操作系统”

可以把 LLM 分成三层:

模型(权重)
   ↓
System Prompt(行为控制层)
   ↓
User Prompt(输入)

👉 system prompt 本质是:

  • 行为约束
  • 能力开关
  • 工具编排规则

2️⃣ 不同公司本质在做同一件事

你会发现:

公司 本质
OpenAI 人格 + 工具
Anthropic 安全 + 规范
Google 多模态 +工具

👉 差异其实在:

system prompt 设计哲学


3️⃣ 对你(做 IM + AI 平台)最关键的价值

你可以直接借鉴:

✅ AI Agent 设计

  • tool calling 规则
  • memory 结构
  • persona 控制

✅ 商业化能力

  • 不同用户 → 不同 prompt
  • 不同场景 → 不同 agent

👉 本质:

prompt = 产品逻辑


4️⃣ 更深一层(非常关键)

这个仓库揭示了一个核心事实:

大模型的“产品差异”,很大一部分来自 Prompt,而不是模型本身

参考资料