La reciente publicación por parte de Anthropic de los prompts del sistema para sus modelos Claude marca un hito muy importante hacia la transparencia en el desarrollo de la IA. Este movimiento proporciona una visión sin precedentes de cómo se guían y restringen los grandes modelos de lenguaje, revelando las instrucciones detalladas que dan forma al comportamiento, los límites del conocimiento y el estilo de interacción de Claude.
Los prompts del sistema liberados incluyen los de los 3 modelos actuales de Claude 3.5: Haiku, Opus y Sonnet. Estos prompts están fechados el 12 de julio de 2024 e indican que el corte de conocimiento de los modelos termina en abril de 2024, es decir, que tienen información sobre cualquier hecho o cuestión relevante acontecida hasta esa fecha.
Las características clave de estos prompts incluyen:
- Directivas conductuales específicas, como evitar ciertas frases o expresiones
- Instrucciones detalladas para el manejo de diversas tareas
- Instrucciones para la resolución de problemas paso a paso en matemáticas y lógica
- Pautas para mantener la objetividad en temas controvertidos
Estas indicaciones son las que utiliza Anthropic en sus productos orientados al usuario, es decir, en la interfaz web y las aplicaciones móviles de Claude, pero no se aplican a los modelos a los que se accede a la API, donde somos nosotros como desarrolladores los que le facilitamos las instrucciones precisas. Si bien, seguramente, estos modelos subyacentes tienen sus propias instrucciones internas para evitar un mal uso del modelo.
Esta versión proporciona información valiosa sobre el funcionamiento interno de Claude, lo que permite a los usuarios y desarrolladores comprender mejor los principios que guían sus interacciones y procesos de toma de decisiones.
Pautas de comportamiento y sugerencias de roles
La sugerencia de roles es una característica clave de estos prompts. Permiten que el modelo funcione como un experto en varios escenarios. Al asignar roles específicos a través del parámetro del sistema, Anthropic mejora el rendimiento de Claude, mejorando la precisión y adaptando su tono para adaptarse a diferentes contextos.
Estas indicaciones del sistema también incluyen pautas de comportamiento que dan forma a las interacciones de Claude. Por ejemplo, se le instruye al modelo para que evite comenzar las respuestas con afirmaciones como "Ciertamente" o "Absolutamente" (algo muy típico de otros modelos y bastante molesto), y para que trate de manejar muchos temas controvertidos con imparcialidad y objetividad. Estas directrices tienen como objetivo crear una experiencia de IA conversacional más matizada y reflexiva.
Ceguera inducida para caras
Un detalle importante que se puede ver en estos prompts es la instrucción específica que tiene para forzar la "ceguera facial" del modelo. Esta directiva garantiza que Claude no identifique ni mencione a las personas que vea en las imágenes, incluso si hay rostros humanos presentes.
Además, si un usuario especifica directamente el nombre de quien está en una imagen, Claude puede hablar de esa persona sin confirmar su presencia ni implicar capacidades de reconocimiento facial.
Este enfoque aborda las preocupaciones de privacidad y las consideraciones éticas en torno al potencial de la IA para el reconocimiento facial, alineándose con el compromiso de Anthropic y de la mayoría del sector con el desarrollo responsable de la IA.
Otros detalles de los prompts de Claude
Además existen otros detalles destacables:
- Información de la fecha actual: el prompt del sistema proporciona al modelo la fecha actual al comienzo de cada conversación, por lo que sabe cuándo está teniendo la conversación y puede actuar en consecuencia. Así, por ejemplo, tiene instrucciones de responder preguntas sobre eventos posteriores a abril de 2024 como lo haría una persona altamente informada de esa fecha pero sin dar por hecho nada ya que para el modelo eso es el futuro, aclarando esto cuando sea relevante.
- Claude está sesgado para proporcionar pensamientos cuidadosos e información clara sobre temas controvertidos sin declarar explícitamente que el tema es delicado.
- Para matemáticas, lógica u otros problemas que requieren pensamiento sistemático, se le indica a Claude que piense en el problema paso a paso (una técnica de prompting habitual) antes de dar una respuesta final.
- El prompt anima a Claude a proporcionar siempre fragmentos de código en formato Markdown.
- Manejo de URL y medios: Claude tiene instrucciones de aclarar que no puede abrir URL, enlaces o vídeos, y de pedir a los usuarios que peguen directamente el texto o el contenido de la imagen relevante.
¿Cuáles son las principales diferencias entre Claude 3 Haiku, Claude 3 Opus y Claude 3.5 SonNet?
Todos los modelos de Claude tienen como características comunes las siguientes:
- Todos los modelos admiten capacidades multilingües y tareas de visión.
- Tienen la misma salida máxima de 4096 tokens.
- Comparten una gran ventana de contexto de 200.000 tokens.
Más allá de eso, tienen distintos tamaños, características, capacidades y precios:
Claude 3 Opus
- El modelo más potente y grande, diseñado para tareas altamente complejas.
- Rendimiento, inteligencia, fluidez y comprensión de máximo nivel (comparable con la de los humanos, según la empresa).
- Destaca en capacidades analíticas profundas, investigación, estrategia y creación de contenido de alto nivel.
- Velocidad moderada, más lento que Haiku y Sonnet.
- El más caro: 15,00 €/millón de tokens de entrada y 75,00 €/millón de tokens de salida a fecha de escribir esto.
- Ideal para tareas analíticas complejas, informes de investigación detallados y desarrollo de estrategias.
Claude 3.5 Sonnet
- Funciona al doble de velocidad que Claude 3 Opus.
- A pesar de su menor tamaño, supera a Claude 3 Opus en muchas tareas concretas. Por ejemplo, se demostró que es superior a Opus para tareas de visión y en programación. De hecho, según la empresa, en una evaluación interna, resolvió a la perfección el 64% de los problemas de programación frente al 38% de Opus.
- Precio mucho más barato: 3,00 €/millón de tokens de entrada y 15,00 €/millón de tokens de salida.
- Adecuado para una amplia gama de tareas, equilibrando inteligencia y velocidad. Es el que querrás usar la mayor parte de las veces.
Claude 3 Haiku
- El modelo más rápido y compacto, optimizado para respuestas casi instantáneas.
- La mayor velocidad y menor latencia.
- El más barato con diferencia: 0,25 €/millón de tokens de entrada y 1,25 €/millón de tokens de salida.
- Ideal para aplicaciones que requieren respuestas rápidas a costes más bajos.
- Perfecto para procesamiento eficiente en aplicaciones en tiempo real.
- Es ideal para tareas de atención al cliente y moderación de contenidos, aunque es muy potente también para tareas de clasificación y análisis de imágenes.
En resumen
En un movimiento hacia una mayor transparencia, Anthropic se ha comprometido a actualizar y publicar regularmente los prompts del sistema para sus modelos Claude. Este enfoque contrasta marcadamente con otras empresas de IA que suelen mantener la confidencialidad de estas indicaciones. Alex Albert, jefe de relaciones con los desarrolladores de Anthropic, anunció en las redes sociales que la compañía planea hacer de estas divulgaciones una práctica regular a medida que actualizan y afinan sus prompts del sistema.
Esta iniciativa no solo proporciona a los usuarios e investigadores información valiosa sobre el funcionamiento de Claude, sino que también permite a Anthropic abordar las preocupaciones sobre posibles cambios o censura en el comportamiento del modelo.
Recuerda que estas actualizaciones no aplican a los modelos Claude si accedes a través de la API, que operan bajo diferentes directrices.
Si utilizas Claude como usuario, deberías leer estos prompts. Pero si desarrollas aplicaciones con Claude, o incluso con otros modelos, es tu obligación leerlos con calma, diseccionarlos y aprender de ellos. Sin duda serán más útiles con Claude ya que están afinados para este modelo, pero serán también de utilidad para chatGPT, Llama, Gemini o cualquier otro LLM frontera, ya que están basados en los mismos principios y técnicas.
Este vídeo del canal de YouTube Prompt Engineering disecciona paso a paso cada uno de los prompts y puede resultarte de ayuda (en inglés).