En la carrera por integrar inteligencia artificial en productos y procesos, una nueva disciplina se consolidó como diferencial competitivo: el prompting. Lejos de ser una simple interacción con un chatbot, se trata de diseñar instrucciones precisas que permitan a los modelos de lenguaje interpretar correctamente tareas complejas y devolver resultados útiles en entornos reales.
Ese es el eje de “Prompting 101”, una presentación realizada por el equipo de ingeniería aplicada de Anthropic en San Francisco, donde se abordaron las mejores prácticas para trabajar con modelos como Claude. El enfoque no fue teórico, sino práctico: mostrar cómo un mal prompt puede generar errores básicos, y cómo iteraciones sucesivas permiten construir sistemas confiables.
El punto de partida es simple, pero revelador. Cuando un modelo no recibe suficiente contexto, completa los vacíos con suposiciones. En una demostración en vivo, un sistema encargado de analizar un accidente de autos interpretó erróneamente la escena como un incidente de esquí. El problema no estaba en el modelo, sino en la instrucción.
A partir de ese ejemplo, la presentación deja en claro que el valor ya no está solo en el modelo, sino en cómo se lo utiliza. Y ahí es donde el prompting deja de ser una habilidad técnica marginal para convertirse en una pieza central en el desarrollo de aplicaciones de inteligencia artificial.
De hablar con la IA a diseñar instrucciones
La ingeniería de prompts se define como la práctica de escribir instrucciones claras, proporcionar el contexto adecuado y estructurar la información de forma que el modelo pueda ejecutar correctamente una tarea. En entornos productivos, esto implica abandonar la lógica conversacional típica de los chatbots y pasar a diseñar prompts como si fueran especificaciones técnicas.

El enfoque recomendado se basa en una estructura clara: primero, definir la tarea y el rol del modelo; luego, incorporar los datos o inputs; después, agregar instrucciones detalladas paso a paso; eventualmente incluir ejemplos; y, por último, reforzar las reglas críticas antes de ejecutar.
Este cambio de enfoque responde a una necesidad concreta: en aplicaciones reales no hay margen para iterar múltiples veces con el modelo. El sistema debe funcionar correctamente desde el primer intento.
El contexto como ventaja competitiva
Uno de los principales aprendizajes es que el contexto determina la calidad del resultado. Sin una descripción precisa del entorno, el modelo tiende a completar la información faltante con interpretaciones erróneas.
En el caso presentado, al agregar contexto, explicando que se trataba de un accidente automovilístico, describiendo el formulario y aclarando el objetivo del análisis, el modelo pasó de cometer errores básicos a identificar correctamente los elementos clave del caso.

Además, se introdujo un principio clave: el modelo no debe adivinar. Si la información no es suficiente, debe ser capaz de reconocer la incertidumbre en lugar de generar respuestas incorrectas.
Estructura, ejemplos y control del output
Otro de los pilares del prompting efectivo es la organización de la información. Los modelos responden mejor cuando los datos están claramente delimitados y estructurados, utilizando herramientas como etiquetas o formatos tipo XML o Markdown.
También se destaca el uso de ejemplos, conocido como few-shot prompting, como una de las herramientas más poderosas para mejorar resultados, especialmente en escenarios complejos o ambiguos.
A esto se suma un elemento clave en entornos empresariales: el formato de salida. No alcanza con que el modelo responda bien; debe hacerlo en un formato que pueda ser consumido por otros sistemas, como JSON o estructuras predefinidas.
Menos intuición, más método
El proceso de construcción de prompts es, por definición, iterativo. En la demostración, cada mejora, más contexto, mejor estructura, instrucciones paso a paso, redujo errores y aumentó la precisión del modelo.
El resultado final fue un sistema capaz de analizar correctamente un caso, justificar su razonamiento y entregar una respuesta estructurada lista para ser utilizada en una aplicación real.
La conclusión es clara: en la economía de la inteligencia artificial, no alcanza con tener acceso a los mejores modelos. La diferencia está en cómo se los instruye. Y en ese terreno, el prompting se perfila como una de las habilidades clave para empresas que buscan transformar capacidades tecnológicas en soluciones concretas.