Descubriendo las instrucciones filtradas de los sistemas: Una inmersión profunda en los LLM

En el panorama en constante evolución de la inteligencia artificial, comprender los mecanismos subyacentes de los modelos de lenguaje grandes (LLM, por sus siglas en inglés) es crucial. Un fascinante proyecto de código abierto en GitHub, acertadamente llamado 'leaked-system-prompts' por jujumilk3, ofrece una visión inigualable de este mundo. Este repositorio compila meticulosamente los system prompts de una amplia gama de servicios prominentes basados en LLM, incluyendo potencias como OpenAI, Claude de Anthropic, Gemini de Google y muchos otros.

¿Qué son los System Prompts?

Los system prompts son las instrucciones iniciales, a menudo ocultas, que guían el comportamiento de un LLM y establecen su contexto para una interacción dada. Dictan la personalidad de la IA, sus limitaciones, sus protocolos de seguridad y su marco operativo general. Si bien los user-facing prompts (mensajes orientados al usuario) son con lo que normalmente interactuamos, los system prompts actúan como la programación fundamental de la IA, influyendo en todo, desde la escritura creativa hasta la resolución de problemas complejos.

El valor de los prompts “filtrados”

El término "filtrados" en este contexto se refiere a los prompts que han sido descubiertos o inferidos por diversos medios, en lugar de haber sido publicados oficialmente por los proveedores de servicios. Esta colección es invaluable por varias razones:

  • Transparencia: Arroja luz sobre la naturaleza de "caja negra" de los LLM, ofreciendo una rara visión de cómo se dirigen internamente estos sofisticados modelos.
  • Investigación y Desarrollo: Los investigadores pueden analizar estos prompts para comprender mejor la alineación de la IA, la mitigación de sesgos y las técnicas utilizadas para controlar las salidas de la IA.
  • Ingeniería de Prompts: Los desarrolladores e ingenieros de prompts pueden aprender de la estructura y el contenido de estos prompts de nivel profesional, mejorando su propia capacidad para crear interacciones más efectivas con las IAs.
  • Seguridad y Ética: El examen de estos prompts también puede revelar posibles vulnerabilidades o consideraciones éticas en las implementaciones actuales de la IA.

Un vistazo al interior del repositorio

El repositorio 'leaked-system-prompts' está organizado con archivos markdown separados para los prompts relacionados con diferentes LLM y sus versiones. Por ejemplo, encontrará archivos pertenecientes a:

  • Anthropic Claude: Varias versiones como Claude 3 Haiku, Opus, Sonnet, y ejemplos de uso de herramientas de la API de Claude.
  • OpenAI: Prompts para ChatGPT, DALL-E, la API de Assistants y modelos de investigación internos.
  • Google: Incluyendo prompts para los modelos Google Gemini.
  • Otros servicios notables: Como Discord Clyde, GitHub Copilot, Microsoft Bing Chat/Copilot, Perplexity.ai, xAI Grok y muchos más, mostrando la diversidad de aplicaciones de IA.

El proyecto mantiene un compromiso con la verificabilidad, fomentando contribuciones que incluyan fuentes o prompts reproducibles. Esto asegura la integridad y utilidad de los datos recopilados.

Contribuyendo a la colección

El mantenedor fomenta activamente las contribuciones de la comunidad, requiriendo que los prompts enviados coincidan con un formato establecido e incluyan fuentes verificables. Este enfoque colaborativo mejora la integridad y precisión del repositorio, convirtiéndolo en un documento vivo para la comprensión de la IA.

En resumen, el repositorio de GitHub 'leaked-system-prompts' es una mina de oro para cualquiera interesado en descifrar el intrincado funcionamiento de los LLM modernos. Se erige como un testimonio del papel de la comunidad de código abierto en la desmitificación de la IA y en el fomento de un enfoque más profundo y transparente para su desarrollo.

Artículo original: Ver original

Compartir este artículo