5 Interactuando con LLMs
Here’s the Spanish translation of week 4 content:
Los Modelos de Lenguaje Extensos están diseñados para proporcionar la secuencia más probable de tokens siguiendo los tokens dados como una secuencia de entrada. Podemos pensar en esta secuencia de entrada como el **contexto** dado al LLM. Justo como lo que sucede en conversaciones con extraños, el contexto juega un papel importante. Una forma de proporcionar contexto es construyendo *prompts* complejos y detallados que intenten describir completamente la información de fondo de la solicitud. Otra forma -más conversacional- es a través de interacciones de ida y vuelta.
Actualmente, la mayoría de los LLMs disponibles públicamente están diseñados como **chatbots**. Sus interfaces de usuario están diseñadas para interacciones conversacionales y los modelos de back-end están optimizados para desempeñarse mejor en estos tipos de configuraciones de interacciones.
[## Prompting]:#
## Conversación v. preguntas
Cuando hacemos una pregunta, se espera que descarguemos toda la información relevante necesaria para una respuesta precisa. Sin embargo, esto puede ser desafiante cuando las tareas o consultas son complejas y largas. Como los LLMs actuales (basados en web) tienen un diseño más conversacional, a menudo es más efectivo interactuar con ellos en una estructura conversacional.
Los seguimientos son una excelente manera de validar y refinar las salidas de los LLMs. Este es el complemento perfecto para *prompting*. En lugar de elaborar meticulosamente el prompt perfecto, podemos iniciar la tarea y proporcionar información de seguimiento, refinando solicitudes, o sugerir acciones.
> – > `dame un resumen de las Leyes del Movimiento de Newton`
> – > `hazlo de dos párrafos`
> – > `enmárcalo en un nivel universitario de primer año`
> – > `dame un ejemplo`
La estructura de conversación también es una buena manera de detectar errores o alucinaciones. También proporciona una forma de enfocarse en aspectos particulares en lugar de otros dados por el LLM.
Desde la perspectiva del aprendizaje, este enfoque conversacional también ayuda al usuario a participar en un método dialéctico para comprender. Al hacer seguimiento, hacer preguntas aclaratorias, proporcionar contexto de refinamiento, el usuario está *participando activamente* con el tema y no leyendo pasivamente una salida.
## Cadena de pensamiento (CoT)
No solo los usuarios se benefician de este enfoque dialéctico para interactuar con LLMs. El modelo mismo generalmente se desempeña mejor cuando proporciona un proceso de razonamiento paso a paso.
>|**Prompt regular** | **Prompt CoT**|
> |---|---|
> |`¿cuál es la mejor manera de estudiar para un examen parcial?`| `¿cuál es la mejor manera de estudiar para un examen parcial? apoya tu respuesta con investigación pedagógica e incluye pros y contras.` |
Aún más cuando las consultas son subjetivas, o nuestro propio conocimiento del tema es limitado, usar CoT puede proporcionar más contexto para valorar la salida del LLM.
## Comportamiento similar a un agente
Un agente es una entidad independiente que es capaz de tomar decisiones y acciones por sí misma. Aunque los LLMs no presentan todas las características de los agentes, es útil pensar en ellos como similares a agentes ya que están tomando activamente decisiones sobre qué texto, hechos o referencias usar para las salidas.
### Contexto
Proporcionar suficiente contexto sobre las solicitudes puede ser efectivo para obtener mejores salidas. Esto incluye dar un trasfondo claro de la tarea, tema, propósito y detalles del usuario.
>|**Estudiante** | **Instructor**|
> |---|---|
> | Asegúrate de incluir detalles sobre tu curso, tu especialidad, nivel de experiencia, el propósito de la consulta, si es para una tarea, para estudiar, etc. | Incluye el trasfondo de tu audiencia, el nivel de participación, objetivos de aprendizaje, resultados deseados, etc. |
En este sentido, es útil pensar en el LLM como una persona que te está asistiendo y no tiene idea de quién eres, cuál es tu objetivo, y qué es valioso para ti.
*Consejo profesional:* Guarda todo el contexto que estarás usando para tu curso como un archivo de texto para fácil reutilización. Alternativamente, algunos LLMs ofrecen crear bots especiales, agentes o proyectos (cada compañía tiene su propia terminología) que te permite guardar instrucciones generales que pueden ser pre-adjuntadas a todos tus prompts.
### Proceso
Es clave enfocarse en procesos y no solo en productos. Esto no solo mejora la calidad de las salidas, sino que también sirve mejor al usuario para obtener una comprensión más profunda de la tarea en cuestión.
Hacer prompts para que el LLM incluya pasos intermedios o para apoyar las respuestas es una buena manera de mejorar su efectividad. Aclarar seguimientos y agregar más contexto son también estrategias efectivas para aumentar la precisión y obtener salidas más útiles.
> **Práctica peligrosa**
>
> El extremo opuesto es peligroso. Cuando solicitamos a los LLMs que "respondan en una palabra" o "respondan en una oración", estamos abriendo la puerta a posibles alucinaciones. Omitir el contexto y los pasos de razonamiento aumenta las posibilidades de alucinaciones y ruido.
### Supervisando
Aunque no completamente autónomos, los LLMs pueden descargar tareas completa o parcialmente. En este sentido, los usuarios pueden asumir el rol de gerente o supervisor al interactuar con LLMs. Esto incluye proporcionar orientación e información clara, y evaluar e interpretar sus resultados.
Asegúrate de evaluar y reflexionar constantemente sobre el rendimiento de tu LLM. Esto puede ayudarte a identificar si necesitas proporcionar más contexto, ser más claro con tus direcciones, o quizás probar un modelo o implementación diferente.
[## Referencias]:#
[/Users/pedromorales/Dropbox/Projects/LLMs in Teaching and Learning/references/2201.11903v6.pdf]:#