揭秘泄露的系统提示:深度剖析大型语言模型
June 25, 2025
在人工智能日新月异的今天,要理解大型语言模型(LLM)的底层运行机制至关重要。GitHub上一个由jujumilk3创建、名为“leaked-system-prompts”的开源项目,为我们提供了独特的视角,一窥这个引人入胜的世界。这个代码库精心收录了来自众多知名LLM服务的系统提示,包括OpenAI、Anthropic的Claude、谷歌的Gemini等巨头,以及其他许多模型。
什么是系统提示?
系统提示是指导LLM行为并为其特定交互设定上下文的初始指令,通常是隐藏的。它们定义了AI的角色、限制、安全协议以及整体操作框架。虽然我们通常与用户界面上的提示词进行交互,但系统提示是AI的基础编程,影响着从创意写作到复杂问题解决的方方面面。
“泄露”提示的价值
这里的“泄露”指的是那些通过各种途径被发现或推断出来的提示,而非由服务提供商官方公布的。这份合集之所以宝贵,原因有以下几点:
- 透明度: 它揭示了LLM“黑箱”的本质,提供了一个难得的机会,让我们了解这些复杂模型是如何在内部被导向的。
- 研发: 研究人员可以分析这些提示,以便更好地理解AI对齐、偏见缓解以及控制AI输出所使用的技术。
- 提示工程: 开发者和提示工程师可以从这些专业级提示的结构和内容中学习,提升他们自己与AI交互的效率。
- 安全与伦理: 检查这些提示还能揭示当前AI部署中潜在的漏洞或伦理考量。
一览代码库内部
“leaked-system-prompts”代码库组织有序,针对不同的LLM及其版本设有独立的Markdown文件。例如,你会找到:
- Anthropic Claude: 各种版本,如Claude 3 Haiku、Opus、Sonnet,以及Claude API工具使用示例。
- OpenAI: 针对ChatGPT、DALL-E、助手API和内部研究模型的提示。
- Google: 包括Google Gemini模型的提示。
- 其他知名服务: 例如Discord Clyde、GitHub Copilot、Microsoft Bing Chat/Copilot、Perplexity.ai、xAI Grok等等,展示了AI应用的多样性。
该项目致力于可验证性,鼓励提供包含来源或可复现提示的贡献。这确保了所收集数据的完整性和实用性。
贡献到合集中
维护者积极鼓励社区贡献,要求提交的提示符合既定格式并包含可验证的来源。这种协作方式增强了代码库的完整性和准确性,使其成为一份活的文件,有助于理解AI。
总而言之,“leaked-system-prompts”GitHub代码库对于任何渴望破解现代LLM复杂工作原理的人来说,都是一座金矿。它证明了开源社区在揭秘AI和推动其发展方面,扮演着更深入、更透明的角色。
原创文章:
查看原文