8 Conceptos relevantes
Here’s the Spanish translation of week 7 content:
Invariablemente hay algunos conceptos que siguen apareciendo en la mayoría de las conversaciones, discusiones, paneles y eventos sobre inteligencia artificial. Más allá de implementaciones generales o específicas de IA, estos conceptos pueden usarse como reflexiones individuales o institucionales que pueden ayudarnos a navegar este panorama emergente, especialmente en la educación superior.
## Confianza
Este es uno de los conceptos más ubicuos que aparece en las discusiones sobre IA. Estamos experimentando una realineación en la confianza con respecto a las compañías e implementaciones de LLM. Esto incluye cuánto confiamos en los modelos, los datos usados para entrenamiento, la calidad de las salidas, y la forma en que los individuos y la sociedad están implementando esta tecnología. En general, puedo aventurarme a decir que todavía estamos descubriendo, como sociedad, la cantidad de confianza que podemos dar a las implementaciones de LLM.
Usualmente, la confianza y la reputación son conceptos que requieren tiempo para solidificarse. Aún así, los LLMs son muy nuevos para el público en general y podría requerir algo de tiempo para establecer su nivel de confianza. En este momento, considero saludable tener un cierto nivel de escepticismo mientras esta confianza societal se estabiliza.
## Pensamiento Crítico
Quizás como una respuesta natural al desarrollo de la *confianza*, el concepto de pensamiento crítico aparece en cada círculo que debate el uso e influencia de la IA en la educación superior. Entre el profesorado, estudiantes, e incluso la industria, todos coinciden en que el desarrollo del pensamiento crítico es una de las cualidades más importantes en esta era educativa habilitada por IA.
Sin embargo, el concepto de pensamiento crítico en sí mismo puede ser desafiante de definir con precisión. Enfocarse en qué significa el pensamiento crítico para ti como estudiante o instructor, aún más en relación con el uso de LLM, se volverá crucial.
## Agencia
En el lado más práctico, cuando se habla de implementaciones generales de IA y algunas implementaciones más recientes, el concepto de agencia es clave para entender y promover efectivamente el uso de LLM. En general, la agencia tiene que ver con la cualidad de tomar decisiones. La mayoría de las implementaciones de LLM tienen agencia mínima, limitando esto a tomar decisiones sobre caminos de razonamiento, qué fuentes de datos usar, y qué información es más relevante para el usuario. Sin embargo, siempre que se da más agencia a los LLMs (o sistemas de IA para el caso), se vuelve más relevante definir métodos claros de evaluación y supervisión para estos sistemas.
Cuanta más agencia tiene un sistema de IA, más los humanos adquieren un rol de supervisor o gerente. Este concepto también va a la par con la cantidad de confianza que se da -o se gana- por el sistema de IA.
## Responsabilidad
Cuando las decisiones son tomadas por IA, o usando IA (o LLMs) en el proceso de decisión, es importante pensar y definir dónde recae la responsabilidad. Cada vez que tomamos una decisión basada en la salida de un LLM, debe haber una línea clara de responsabilidad. Por ejemplo, al enviar una tarea, el estudiante debe tener la responsabilidad por información falsa, deducciones incorrectas y mala calidad. De manera similar, al crear diapositivas o materiales de clase, el instructor debe cargar con la responsabilidad de información incorrecta o insensible, o descripciones poco útiles.
## Atribución
Dependiendo del nivel de uso de LLM, la atribución se convierte en un concepto relevante que apoya implementaciones transparentes y toma de decisiones. Ya sea que los LLMs se usen para buscar información, como ayudas de escritura, u organización de contenido, la atribución se vuelve relevante para la confianza y responsabilidad de la implementación.
Los LLMs pueden citarse como una fuente de información, o atribuirse como un colaborador en un proyecto. Esto muestra el espectro de diferentes roles que los LLMs pueden desempeñar en un proyecto, y los diferentes niveles de atribución que pueden usarse.
## Datos
Finalmente, un concepto relevante que rodea a los LLMs son los datos. No solo con los datos usados para entrenar el modelo específico, sino también con la gestión de datos del usuario.
La conciencia de los datos de entrenamiento puede ayudar a gestionar posible sesgo de salida ya sea en los hechos usados o en la forma en que se presenta la información. Un desafío presentado con los LLMs es la tendencia hacia algún tipo de *voz promedio*. Muchos instructores se preocupan por que los estudiantes pierdan su voz de escritura.
Una consideración práctica es con respecto a las políticas particulares de privacidad de datos del LLM. Esto se vuelve muy relevante cuando se comparte información privada. Por ejemplo, para instructores, compartir datos de estudiantes. También, incluir información concerniente a investigación o material con derechos de autor podría potencialmente ser peligroso, ya que el LLM podría estar usando datos de usuario para mejorar su entrenamiento y estos datos con derechos de autor podrían convertirse en parte del conocimiento del LMM.
[## Referencias]:#
[/Users/pedromorales/Dropbox/Projects/LLMs in Teaching and Learning/references/winfield-jirotka-2018-ethical-governance-is-essential-to-building-trust-in-robotics-and-artificial-intelligence-systems.pdf]:#
[/Users/pedromorales/Dropbox/Projects/LLMs in Teaching and Learning/references/s40561-023-00269-3.pdf]:#
[/Users/pedromorales/Dropbox/Projects/LLMs in Teaching and Learning/references/FLOTPI-2v1.pdf]:#
[/Users/pedromorales/Dropbox/Projects/LLMs in Teaching and Learning/references/Chatting and cheating Ensuring academic integrity in the era of ChatGPT.pdf]:#