- Crear 1
- Posts
- ¿Adiós al "Prompt Engineering"? La Nueva Era es del "Contexto"
¿Adiós al "Prompt Engineering"? La Nueva Era es del "Contexto"
Lo de hoy es Context Engineering
¡Hola, Creador!
Si has estado siguiendo el mundo de la inteligencia artificial, el término "ingeniería de prompts" o prompt engineering te resulta más que familiar. Durante un tiempo, se vendió como la habilidad mágica que todos debíamos dominar para desbloquear el verdadero poder de los modelos de lenguaje (LLM). Pero la conversación está madurando, y un nuevo término, más preciso y estratégico, está tomando el relevo: ingeniería de contexto.
El Tuit que Encendió la Mecha
+1 for "context engineering" over "prompt engineering".
People associate prompts with short task descriptions you'd give an LLM in your day-to-day use. When in every industrial-strength LLM app, context engineering is the delicate art and science of filling the context window
— Andrej Karpathy (@karpathy)
3:54 PM • Jun 25, 2025
El debate se intensificó gracias a Andrej Karpathy, una de las mentes más influyentes en IA por su trabajo en OpenAI y Tesla. En un tuit que resonó en toda la industria, respaldó la "ingeniería de contexto" sobre la "ingeniería de prompts", definiéndola como "el delicado arte y ciencia de llenar la ventana de contexto con la información justa y necesaria para el siguiente paso".
Líderes como Tobi Lütke, CEO de Shopify, se sumaron rápidamente, afirmando que el nuevo término describe mejor la habilidad clave: dar al LLM todo el contexto para que una tarea sea "plausiblemente resoluble". Este cambio no es solo semántico; es una corrección necesaria. La "ingeniería de prompts" se había devaluado en la cultura popular a "un término ridículamente pretencioso para teclear cosas en un chatbot", fallando en describir el complejo trabajo de sistemas que se requiere para construir aplicaciones de IA fiables.
¿Cuál es la Diferencia Real? De la Línea de Diálogo al Guion Completo
Para entenderlo de forma sencilla, pensemos en una película:
Ingeniería de Prompts: Es como escribir una línea de diálogo brillante para un actor. Se centra exclusivamente en cómo se formula la pregunta para obtener una buena respuesta en ese instante. El problema es que el actor (la IA) no sabe nada más de la escena, su personaje o la trama. Esto lleva a sus limitaciones más conocidas: inconsistencia, falta de fiabilidad y las famosas "alucinaciones", donde la IA inventa respuestas que suenan plausibles pero son falsas.
Ingeniería de Contexto: Es como producir el guion completo: el escenario, la historia de fondo, las motivaciones de los personajes y las herramientas que pueden usar. No se centra solo en la línea de diálogo, sino en construir un sistema que le da al actor (la IA) toda la información que necesita antes de que se le pida actuar.
En resumen, la ingeniería de prompts se ha convertido en un subconjunto de la ingeniería de contexto. La primera se enfoca en qué decir al modelo, mientras que la segunda se enfoca en qué sabe el modelo cuando se lo dices.
Ingeniería de Prompts | Ingeniería de Contexto | |
El Foco | La pregunta perfecta. | El sistema de información perfecto. |
La Meta | Una buena respuesta ahora. | Un sistema fiable que siempre da buenas respuestas. |
La Mentalidad | Redacción creativa, ingenio verbal. | Arquitectura de sistemas, diseño de flujos de datos. |
La Analogía | Escribir un diálogo inteligente. | Producir la película entera. |
Las Herramientas | Editor de texto, plantillas. | Bases de datos vectoriales, APIs, módulos de memoria. |
Los Pilares de la Ingeniería de Contexto
Un sistema de ingeniería de contexto robusto se apoya en varios pilares que trabajan juntos para construir el "mundo mental" de la IA:
Conocimiento Externo (RAG): La Generación Aumentada por Recuperación (RAG) es la técnica clave. En lugar de depender solo de su memoria de entrenamiento (que puede ser obsoleta), el sistema primero recupera información relevante de una base de datos externa (documentos de tu empresa, manuales de producto, etc.) y la inyecta en el contexto. Esto ancla a la IA en la realidad y reduce drásticamente las alucinaciones.
Herramientas (Tools/APIs): Esto le da a la IA la capacidad de actuar. Son funciones que el modelo puede invocar para realizar acciones en el mundo digital: buscar en una base de datos en tiempo real, consultar el tiempo, enviar un correo o agendar una cita en tu calendario.
Memoria y Estado: Para que una conversación tenga sentido, la IA debe recordar lo que se ha dicho. La ingeniería de contexto gestiona esta memoria, ya sea el historial reciente del chat o una memoria a largo plazo con las preferencias del usuario guardadas entre sesiones.
Estructura y Compresión: La ventana de contexto (la "RAM" de la IA) es limitada. Por eso, es crucial cómo se presenta la información. Se usan técnicas para ordenar los datos (lo más importante al principio y al final), formatearlos con estructuras claras (como JSON o Markdown) y comprimir o resumir información larga para no saturar al modelo.
Un Ejemplo Práctico: El Asistente de Soporte de DoorDash
Un chatbot de soporte para los repartidores de DoorDash es un ejemplo perfecto. Un repartidor puede tener problemas muy específicos que un bot de preguntas frecuentes no puede resolver. La solución de DoorDash es un sistema de ingeniería de contexto avanzado que:
Usa RAG: Cuando un repartidor tiene un problema, el sistema busca en una base de conocimiento de casos resueltos y artículos de ayuda para encontrar la solución más relevante para esa situación específica.
Tiene "Barandillas" (Guardrails): Un sistema de monitoreo evalúa cada respuesta de la IA para asegurar que sea precisa y cumpla con las políticas de la empresa, evitando que dé consejos incorrectos o inapropiados.
Usa un "Juez" (LLM Judge): Otro LLM evalúa el rendimiento del chatbot en métricas clave, creando un bucle de retroalimentación para mejorar el sistema continuamente.
¿Por Qué Te Debe Importar? El Salto de Creador a Arquitecto
Este cambio de paradigma es crucial para cualquiera que construya con IA.
Fiabilidad y Escalabilidad: La ingeniería de contexto es lo que permite pasar de demos curiosas a aplicaciones de IA robustas, fiables y escalables que resuelven problemas de negocio reales.
Tu Verdadera Ventaja Competitiva: A medida que los grandes modelos de IA (de OpenAI, Google, Anthropic) se vuelven más accesibles, se convierten en una commodity. Tu verdadera ventaja competitiva y propiedad intelectual defendible no es el modelo que usas, sino la sofisticada infraestructura de contexto que construyes a su alrededor con tus datos, lógica de negocio y procesos únicos.
El Futuro son los Agentes Autónomos: Los agentes de IA, la próxima frontera, son sistemas que pueden razonar, planificar y actuar por sí mismos. Su eficacia depende al 100% de sistemas de contexto dinámicos y de alta calidad. La mayoría de los fallos de los agentes no son fallos del modelo, son fallos de contexto.
La conclusión es clara: la ingeniería de prompts te ayuda a obtener el primer buen resultado. La ingeniería de contexto se asegura de que el milésimo resultado siga siendo bueno. El rol del desarrollador de IA está evolucionando de ser un "artesano de las palabras" a un
"arquitecto de sistemas de información". El verdadero trabajo ya no es solo susurrarle al oído a la IA, sino construir el mundo inteligente en el que debe operar.
¿Quieres profundizar aún más? Hemos preparado un informe completo sobre la evolución de la ingeniería de prompts a la de contexto, con análisis detallado de los pilares técnicos y más casos de estudio. Envía e-mail a [email protected] para recibir el informe completo.
Reply