6 pasos para simplificar los Prompts de la IA generativa

¿Qué podemos hacer para mejorar los prompts? ¿Qué se necesita para ser un buen prompt engineer? ¿Es necesario contar con una formación específica? ¿Cómo son en definitiva los ingenieros del prompt, capaces de crear imágenes alucinantes u obtener información de auténtico valor en una auténtica montaña de datos? Algunas de las claves os las contamos hace unos meses en «Prompt Engineer: qué es y qué habilidades necesitas para convertirte en uno»

Pero más allá de que ese sea nuestro perfil profesional o que queramos formarnos para mejorar nuestras habilidades en ese campo, lo cierto es que cualquier persona puede mejorar la forma en la que se relaciona con la Inteligencia Artificial Generativa, teniendo en cuenta algunos consejos que le pueden ayudar a, de forma sencilla, mejorar de forma radical los resultados que obtiene en sus peticiones.

Ofrecer el contexto adecuado

En cualquier petición que hagamos a un algoritmo de IA Generativa, importa y mucho, el contexto. ¿Y qué entendemos por contexto? El ser capaces de incluir toda la información relevante, desde detalles cruciales hasta cualquier instrucción adicional que pueda mejorar la calidad de la respuesta.

Así, no es lo mismo que la petición de información se produzca en el contexto de la atención médica, las finanzas o el desarrollo de software. Y en realidad, cuanto más específica sea la petición, mejores serán los resultados. Si necesitamos ayuda con un problema de ingeniería, no es lo mismo que la solicitud esté relacionada con ingeniería eléctrica, industrial, o de telecomunicaciones; y cambia si lo que precisamos es recopilar material «histórico», o lo que esperamos es una respuesta orientada «hacia el futuro».

La precisión e incluso la exhaustividad del contexto en el que realizamos la petición son claves para obtener un resultado óptimo.

Contexto General:

  • Prompt: «Háblame sobre inteligencia artificial.»

Contexto Específico:

  • Prompt: «Proporcióname detalles sobre cómo la inteligencia artificial ha transformado la atención médica en los últimos cinco años, centrándote en aplicaciones específicas, como diagnósticos médicos asistidos por IA y sistemas de gestión de registros de pacientes.»

Específico

Además de ofrecer el contexto adecuado, también es necesario ser capaz de ser preciso a la hora de definir qué es lo que queremos preguntar, incluyendo en el prompt incluso más detalles de los que crees que es necesario aportar.

Podemos especificar por ejemplo, qué tipo de cálculo esperamos que el LLM lleve a cabo con la información que vamos a aportar, qué tipo de datos va a necesitar para realizar ese cálculo o de qué forma lo hemos hecho en el pasado utilizando otras herramientas. Podemos aportar más información sobre el proyecto en el que estamos trabajando (contexto, una vez más) o «series históricas» de proyectos similares.

Pregunta general:

  • Prompt: «Háblame sobre el cambio climático.»

Pregunta específica:

  • Prompt: «Proporcióname información detallada sobre las causas y efectos del cambio climático, centrándote específicamente en el papel de las emisiones de gases de efecto invernadero y las medidas de mitigación sugeridas por la comunidad científica.»

Contempla las limitaciones

Incorpora a tu prompt las limitaciones o las restricciones que debería tener en cuenta, como por ejemplo el número de palabras aproximado que esperas obtener, el marco temporal en el que el LLM debería buscar y otros criterios que deberían ser tenidos en cuenta.

Teniendo en cuenta la enorme cantidad de información con la que trabajan estos modelos, el no incorporar restricciones provoca por un lado, que la respuesta nos ofrezca más información de la que necesitamos y por otra, que esta pueda estar «viciada» con fuentes que no nos interesan.

Sin limitaciones específicas:

  • Prompt: «Cuéntame sobre la historia de la informática.»

Con limitaciones específicas:

  • Prompt: «Proporcióname una breve historia de la informática, centrándote en los hitos más significativos de la década de 1980 y limitando la respuesta a un máximo de 200 palabras.»

Conoce el User Persona

Algunos modelos de lenguaje artificial pueden adaptar el tono de su respuesta en función del «User-Persona». Es decir, podemos indicar que rol o papel debe adoptar la «supuesta persona» que nos está dando la respuesta.

Puede ser un tono informal, humorístico, técnico…pero también puede asumir el papel de perfiles específicos como puede ser el de un ingeniero de sistemas, un profesor de primaria, o el CEO de Google. Al ser específicos en el estilo en el que deseamos obtener la respuesta, mejoraremos la calidad de la información con la que vamos a trabajar.

Sin especificar el Tono o User-Persona:

  • Prompt: «Háblame sobre la inteligencia artificial en la medicina.»

Especificando el Tono o User-Persona:

  • Prompt: «Proporcióname información sobre la inteligencia artificial en la medicina, presentándola en un tono accesible y amigable, como si estuvieras explicándoselo a un colega no especializado.»

Valores Top-K y Top-P

Los valores Top-K y Top-P son técnicas utilizadas para controlar la generación de texto en modelos de lenguaje. Estos valores son parámetros que afectan la diversidad y la probabilidad de las palabras generadas.

Top-K: En el método Top-K, el modelo selecciona las ? palabras más probables en cada paso de la generación de texto. Podemos ajustar el valor de ? según nuestras necesidades. Un valor más alto permitirá más diversidad, mientras que un valor más bajo conducirá a una generación más determinista. Así un valor entre 1 y 5 nos ofrece una respuesta centrada y concisa, entre 5 y 10 obtendremos una respuesta equilibrada y por encima de 20, la respuesta será especialmente creativa.

Sin especificar Top-K:

  • Prompt: «Háblame sobre la inteligencia artificial en la medicina.»

Especificando Top-K:

  • Prompt: «Proporcióname información sobre la inteligencia artificial en la medicina, limitando las opciones a las dos respuestas más probables (Top-K=2).»

Top-P: En el método Top-P (también conocido como «núcleo de probabilidad acumulativa» o «núcleo de pena acumulativa»), el modelo selecciona palabras hasta que la probabilidad acumulativa supere un cierto umbral ?, lo que significa que el modelo elige entre las palabras más probables hasta que la suma de sus probabilidades alcance o supere ?.

Un valor más alto permite más diversidad, mientras que un valor más bajo genera texto más determinista(en rangos que van desde el 0.0 para la respuesta más formal y menos creativa, al 1.0 para obtener una respuesta casi aleatoria).

Sin especificar Top-P:

  • Prompt: «Háblame sobre la inteligencia artificial en la medicina.»

Especificando Top-P:

  • Prompt: «Proporcióname información sobre la inteligencia artificial en la medicina, seleccionando palabras hasta que la probabilidad acumulativa alcance el 0.8 (Top-P=0.8).»

Iterar el Prompt

En última instancia los mejores prompts pasan por un proceso de prueba y error, que hay que trabajar de forma constante.

Una buena idea es probar con aproximaciones diferentes para intentar dar respuesta a un mismo problema, de modo que podamos analizar qué es lo que mejor funciona y cómo podemos seguir construyendo nuestro modelo de prompt para llevar a cabo tareas específicas.

Incluso si consideramos que las respuestas que estamos obteniendo son las adecuadas, nada nos impide seguir refinando el modelo, añadiendo nuevos parámetros o profundizar en el contexto, de modo que las respuestas que obtengamos sean aún más relevantes.