Archivo de la categoría: Alfabetización informacional

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Adolescentes, padres y la adopción de la IA generativa en casa y en la escuela

The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School. Common Sense, 2024

Descargar

El informe titulado The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School, publicado el 18 de septiembre de 2024, aborda el impacto de la inteligencia artificial generativa en la educación, especialmente desde la llegada de ChatGPT en 2022. Desde entonces, las escuelas han estado en el centro del debate sobre el uso de AI, con los estudiantes siendo pioneros en su aplicación para tareas escolares. A medida que los líderes educativos consideran cómo esta tecnología puede transformar el aprendizaje en el aula, se vuelve crucial entender cómo los jóvenes la adoptan en comparación con sus padres.

El informe destaca que los adolescentes están adoptando rápidamente la inteligencia artificial generativa, de manera similar a cómo se integró el uso de las redes sociales en sus vidas. La mayoría de los jóvenes utilizan estas herramientas principalmente para el trabajo escolar. Sin embargo, existe una desconexión significativa entre padres e hijos en este aspecto: muchos padres no están al tanto de que sus hijos utilizan la inteligencia artificial generativa. Se estima que siete de cada diez jóvenes han usado al menos un tipo de herramienta de AI generativa, lo que indica un uso generalizado que podría no ser evidente para los adultos a su alrededor.

Siete de cada diez adolescentes de entre 13 y 18 años afirman haber utilizado al menos un tipo de herramienta de inteligencia artificial generativa. Los motores de búsqueda con resultados generados por IA y los chatbots son considerablemente más populares que las herramientas que generan imágenes y videos. Al igual que con el crecimiento acelerado de las redes sociales, la adopción de herramientas de IA generativa entre los adolescentes ha sido rápida. A diferencia de otras tecnologías digitales, el uso de la IA generativa—que incluye motores de búsqueda con resultados generados por IA, chatbots y generadores de texto, así como generadores de imágenes y videos—es consistente en adolescentes de todas las edades, géneros y orígenes raciales y étnicos.

Los datos específicos son los siguientes:

  • El 56% de los adolescentes dice haber utilizado motores de búsqueda con resultados generados por IA, como Bing, Google SGE o Brave Summarizer.
  • El 51% ha utilizado chatbots o generadores de texto, como ChatGPT, Google Gemini o My AI de Snap.
  • El 34% ha utilizado generadores de imágenes, como DALL-E, Photoshop AI o Bing Image Creator.
  • El 22% de los adolescentes ha utilizado generadores de video IA, como Midjourney, Stable Diffusion o Google VideoPoet.

Las escuelas están teniendo dificultades para mantenerse al día con las implicaciones que estas tecnologías tienen sobre la enseñanza y el aprendizaje. La rapidez con que los estudiantes adoptan estas herramientas está superando la capacidad de las instituciones educativas para implementar políticas efectivas que aborden sus riesgos y beneficios.

Los adolescentes utilizan la inteligencia artificial generativa para una variedad de propósitos, siendo la ayuda con las tareas escolares el más común. En una encuesta, el 53% de los jóvenes afirmó usar IA generativa para recibir apoyo en sus deberes, mientras que el 42% la emplea para combatir el aburrimiento y el 41% para traducir de un idioma a otro.

La encuesta abarcó 14 actividades diferentes, clasificadas en dos categorías: actividades formales o educativas y actividades personales. Las actividades formales incluyen resumir o traducir contenido, crear imágenes o videos, generar ideas, ayudar con las tareas y redactar documentos, correos electrónicos y código. La mayoría de estas actividades son realizadas por aproximadamente un tercio a la mitad de los adolescentes, excepto la escritura de código, que solo ha sido utilizada por alrededor del 12%.

Dos de cada cinco adolescentes (40%) informan haber utilizado inteligencia artificial generativa para tareas escolares, con una división casi equitativa entre aquellos que lo hacen con el permiso de sus profesores y aquellos que no. Aunque el 70% de los adolescentes afirma usar IA generativa, solo un menor porcentaje la emplea específicamente para trabajos escolares.

  • El 40% de los adolescentes indica que ha utilizado IA generativa para ayudar con sus tareas, mientras que el 60% dice nunca haberlo hecho.
  • Además, los adolescentes latinos son más propensos a afirmar que han utilizado IA generativa para sus tareas escolares en comparación con sus compañeros blancos (45% frente a 36%).

Entre los adolescentes que han utilizado inteligencia artificial generativa para tareas escolares, el 63% afirma haber empleado chatbots o generadores de texto, mientras que un poco más de la mitad (57%) ha utilizado motores de búsqueda con resultados generados por IA. Los adolescentes que recurren a estas herramientas para apoyar su trabajo escolar utilizan diferentes tipos de sistemas:

  • 63% han usado chatbots o generadores de texto.
  • 57% han utilizado motores de búsqueda con resultados generados por IA.
  • 23% han recurrido a generadores de imágenes para sus tareas.
  • 13% han utilizado generadores de video para la escuela.

La mayoría de los padres no están al tanto del uso que sus hijos adolescentes hacen de la inteligencia artificial generativa. Entre los padres cuyos hijos informaron haber utilizado al menos una plataforma de IA generativa, solo el 37% pensaba que su hijo ya había utilizado dicha tecnología. Aproximadamente uno de cada cuatro (23%) de estos padres cree que su hijo no ha utilizado ninguna de estas plataformas, mientras que el 39% no está seguro de si su hijo ha usado estas herramientas.

Aproximadamente 6 de cada 10 adolescentes informan que su escuela no tiene reglas sobre cómo se puede usar la inteligencia artificial generativa o que no están seguros de si existen dichas reglas. Esto indica que muchas escuelas y maestros pueden no haber comunicado claramente o implementado políticas sobre el uso de IA generativa.

Entre los adolescentes que dijeron que sus profesores habían hablado sobre permitir o restringir el uso de IA generativa, el 29% mencionó que al menos un maestro había utilizado software para detectar el uso de IA en los escritos de los estudiantes. Aunque estas herramientas no siempre son precisas, algunos docentes dependen de ellas.

Los hallazgos incluyen:

  • El 10% de todos los adolescentes afirma que al menos un maestro ha marcado su trabajo como generado por IA cuando no era así.
  • Aproximadamente el 70% de los jóvenes cuya tarea fue marcada por un profesor también tuvo su trabajo sometido a software de detección de IA, mientras que el 27% indica que su trabajo no fue sometido.

Uno de los hallazgos más significativos del informe es la importancia de establecer canales de comunicación abiertos entre jóvenes, padres, cuidadores y educadores. Estos diálogos pueden influir en cómo tanto los jóvenes como sus padres perciben las oportunidades y los peligros que presenta la inteligencia artificial generativa en la educación. Fomentar una comunicación fluida puede no solo ayudar a crear políticas más consistentes en las aulas, sino también a educar a los jóvenes sobre las implicaciones de estas tecnologías.

El informe concluye que para preparar a los jóvenes para un futuro donde la inteligencia artificial tendrá un papel central, es fundamental promover una comprensión más profunda de sus capacidades y limitaciones. Alentar un diálogo abierto sobre el uso de la inteligencia artificial generativa puede ser clave para maximizar sus beneficios en el ámbito educativo y minimizar sus riesgos.

Buenas Prácticas en Educación en Prisiones de la Unesco

Prison Education Case Studies. Unesco, 2025

Ver

El Instituto de la UNESCO para el Aprendizaje a lo Largo de Toda la Vida (UIL) ha lanzado una colección en línea de prácticas innovadoras en educación en prisiones, presentada en la Conferencia Internacional de Educación en Prisiones en Montreal (16-18 de octubre de 2024). La colección incluye 16 estudios de caso que destacan iniciativas exitosas en bibliotecas carcelarias, promoviendo el derecho al aprendizaje continuo para las personas encarceladas.

Actualmente, unos 11 millones de personas están privadas de libertad en todo el mundo, muchas sin acceso a la educación. Investigaciones muestran que la educación en prisiones reduce la reincidencia al dotar a los internos de habilidades que mejoran sus oportunidades de reintegración. Además, disminuye la violencia en las cárceles y apoya el desarrollo personal.

Los estudios de caso, que abarcan países como Chile e Indonesia, incluyen programas innovadores que enseñan competencias digitales, ecológicas y emprendedoras, así como el fomento de la alfabetización. La colección destaca el impacto de estos programas y testimonios personales que ilustran el poder transformador de la educación en prisiones.

Los estudiantes universitarios no saben cómo y para que pueden utilizar herramientas de inteligencia artificial generativa (IA) para sus tareas académicas

Mowreader, Ashley. «Survey: When Should College Students Use AI? They’re Not SureInside Higher Ed, October 14, 2024. https://www.insidehighered.com/news/student-success/academic-life/2024/07/03/survey-college-student-academic-experience.

Una encuesta de Inside Higher Ed, realizada en mayo de 2024, reveló que el 31% de los estudiantes universitarios no está seguro de cuándo se les permite usar herramientas de inteligencia artificial generativa (IA) en sus trabajos académicos. Aunque las herramientas de IA son cada vez más comunes en la educación superior, muchas instituciones no han establecido políticas claras sobre su uso. Solo el 16% de los estudiantes indicó que sus universidades han publicado una política al respecto.

La encuesta incluyó a más de 5.000 estudiantes, y los datos muestran que la orientación sobre el uso de la IA proviene principalmente de los profesores, quienes son los responsables de decidir cuándo y cómo se puede utilizar. Sin embargo, una gran parte de los profesores aún no se siente segura sobre el uso de IA en la enseñanza.

Expertos como Afia Tasneem y Dylan Ruediger señalan que, aunque la IA inicialmente fue vista con preocupación por su potencial para facilitar el plagio, ahora se considera una habilidad crucial para el desarrollo profesional. Sin embargo, advierten que la falta de políticas claras podría generar desigualdades en el acceso y uso de estas herramientas, especialmente entre estudiantes de comunidades históricamente desfavorecidas.

Las instituciones de educación superior deben proporcionar formación sobre el uso adecuado de la IA y desarrollar políticas coherentes que equilibren el aprendizaje con la ética y la integridad académica.

Los chatbots de IA podrían ser más efectivos que los humanos para cambiar las creencias de los teóricos de la conspiración

Ouellette, Jennifer. 2024. «AI Chatbots Might Be Better at Swaying Conspiracy Theorists than Humans». Ars Technica. 12 de septiembre de 2024. https://arstechnica.com/science/2024/09/study-conversations-with-ai-chatbots-can-reduce-belief-in-conspiracy-theories/.

Se presenta un estudio que sugiere que los chatbots de inteligencia artificial podrían ser más efectivos que los humanos para cambiar las creencias de las personas que sostienen teorías de conspiración. El estudio, liderado por el psicólogo Gordon Pennycook, desafía la idea tradicional de que estas creencias son imposibles de cambiar. Los resultados muestran que las personas sí son receptivas a la evidencia cuando esta se presenta de manera personalizada.

En el estudio, los participantes que creían en al menos una teoría de conspiración mantuvieron conversaciones con un chatbot de IA basado en el modelo GPT-4 Turbo. Durante estas interacciones, el chatbot proporcionó contraargumentos basados en hechos, adaptados específicamente a las creencias individuales de los participantes. Estas respuestas fueron verificadas profesionalmente y mostraron una precisión muy alta. Como resultado, las creencias equivocadas de los participantes se redujeron en un 20%, y esta disminución persistió incluso dos meses después.

Una de las claves del éxito del chatbot fue su capacidad para personalizar los argumentos en función de las versiones específicas de las teorías que cada individuo sostenía. A diferencia de los humanos, el chatbot podía responder de manera continua y eficiente sin verse abrumado por múltiples falsedades. Además, el estudio mostró que los participantes no solo redujeron su adhesión a teorías conspirativas específicas, sino que también disminuyó su inclinación hacia otras creencias conspirativas en general.

Sin embargo, el chatbot fue menos efectivo cuando había poca información disponible, como en el caso de eventos recientes que generan nuevas teorías de conspiración. A pesar de esto, los autores sugieren que el uso de chatbots de IA podría ser una herramienta poderosa para combatir la desinformación, especialmente en foros de conspiración y redes sociales.

Inteligencia Artificial y alucinaciones: ¿Por qué alucinan los grandes modelos lingüísticos?

Waldo, Jim, y Soline Boussard. 2024. «GPTs and Hallucination: Why do large language models hallucinate?» Queue 22 (4): Pages 10:19-Pages 10:33. https://doi.org/10.1145/3688007.

Los modelos de lenguaje de gran escala (LLMs), como ChatGPT, han revolucionado la interacción entre humanos y la inteligencia artificial debido a su capacidad para generar texto coherente y comprensivo. Estos modelos se basan en aplicaciones transformadoras preentrenadas en grandes cantidades de datos sin procesar. Aunque tienen un rendimiento impresionante y pueden realizar tareas como responder preguntas y resumir textos, también tienen la tendencia a generar «alucinaciones». Estas ocurren cuando el modelo crea respuestas que parecen realistas pero que son incorrectas o no tienen sentido, lo que puede llevar a la diseminación de información falsa.

Las alucinaciones son preocupantes, especialmente en decisiones críticas o situaciones que requieren confianza en la IA. Un ejemplo destacado fue el de un abogado que utilizó ChatGPT para generar citas legales que resultaron ser ficticias. Estas alucinaciones, a menudo sutiles, pueden pasar desapercibidas, lo que plantea una pregunta importante: ¿Por qué los GPTs alucinan?

Los LLMs funcionan mediante aprendizaje automático entrenado en grandes cantidades de datos textuales. Este entrenamiento genera un conjunto de probabilidades que predice qué palabra es más probable que siga a otra en una secuencia. Sin embargo, esta predicción no se basa en la verdad o significado real del mundo, sino en las asociaciones estadísticas entre palabras. Esto explica por qué los modelos a veces generan respuestas erróneas: simplemente están siguiendo patrones previos de datos sin una verificación de los hechos.

La pregunta fundamental no es tanto por qué los GPTs alucinan, sino cómo logran acertar. Este dilema está vinculado a la «confianza epistémica», es decir, cómo confiamos en que algo expresado en lenguaje es verdadero. Históricamente, esta confianza ha sido establecida mediante la ciencia, que se basa en la experimentación, publicación y revisión por pares, pero los GPTs carecen de ese tipo de validación externa y generan respuestas basadas únicamente en probabilidades estadísticas.

Los GPTs basados en LLMs representan un paso más en este proceso, ya que generan respuestas basadas en el análisis de todas las preguntas y respuestas disponibles en Internet. Los modelos predicen la respuesta más probable basada en la co-ocurrencia de palabras, lo que en muchos casos refleja un consenso general.

Sin embargo, cuando hay consenso limitado o controversia sobre un tema, o cuando el tema es poco común, los GPTs son más propensos a generar respuestas incorrectas o «alucinaciones». Esto sugiere que la precisión de los GPTs depende de la disponibilidad de datos y del consenso sobre el tema en cuestión.

En este experimento se utilizaron cuatro modelos: Llama, accesible a través de la biblioteca de código abierto Llama-lib; ChatGPT-3.5 y ChatGPT-4, accesibles mediante el servicio de suscripción de OpenAI; y Google Gemini, disponible a través del servicio gratuito de Google.

Se realizaron pruebas con una variedad de temas sensibles y oscuros. Los prompts finales incluyeron: 1) solicitar artículos sobre polarización ferroelectric, 2) citas poco comunes de Barack Obama, 3) justificaciones políticas de Putin en relación con escritores rusos, 4) una descripción breve sobre el cambio climático, y 5) completar la frase «los israelíes son…». Estos prompts se presentaron semanalmente a cada modelo entre el 27 de marzo y el 29 de abril de 2024.

Los resultados mostraron variaciones en la consistencia de las respuestas, siendo ChatGPT-4 y Google Gemini los que presentaron cambios más significativos. A lo largo del experimento, se observó que, aunque los prompts eran independientes, algunos modelos utilizaban el contexto de preguntas anteriores para influir en sus respuestas. Llama a menudo repetía citas de Obama y fallaba en citar artículos científicos con precisión. ChatGPT-3.5 ofrecía citas precisas de Obama, pero también tenía dificultades para citar correctamente artículos científicos. ChatGPT-4 podía proporcionar citas precisas, aunque en ocasiones introducía términos no consensuados científicamente. Google Gemini tuvo dificultades para responder a las preguntas sobre las citas de Obama y las justificaciones de Putin, sugiriendo a menudo realizar búsquedas en Google para obtener respuestas. A pesar de todo, Gemini logró proporcionar artículos relevantes sobre polarización ferroelectric, aunque con citas incorrectas. En cuanto a la frase sobre los israelíes, Gemini ofreció diversas perspectivas y fomentó el diálogo.

En respuesta a las preguntas sobre artículos científicos, todas las aplicaciones pudieron proporcionar la sintaxis de citación correcta, pero las citas completas rara vez eran precisas. En particular, algunos autores citados por ChatGPT-4 habían publicado en el mismo campo, pero no en el artículo específico mencionado. Esto se puede entender como un reflejo de las respuestas como completaciones estadísticamente probables; el programa sabe cómo lucen las citas y qué grupos de autores tienden a aparecer juntos, aunque no necesariamente en el artículo citado. En general, la aplicación basada en Llama proporcionó las respuestas más consistentes, aunque de menor calidad que las otras, ya que no estaba en desarrollo activo y se basaba en un LLM temprano.

ChatGPT-3.5 y -4 ofrecieron consistentemente citas precisas de Obama, mientras que Llama repetía múltiples versiones de las mismas citas, muchas de las cuales eran incorrectas. En una ocasión, Google Gemini respondió correctamente a la pregunta sobre Obama, pero una de las citas era en realidad de Craig Ferguson, un comediante. La aplicación Llama tuvo dificultades para seguir restricciones gramaticales, como el requerimiento de dar una respuesta en tres palabras; a veces devolvía una sola palabra o una oración completa. Esto plantea preguntas sobre cómo la aplicación interpreta la gramática y la puntuación y cómo estas características no semánticas influyen en las respuestas.

Conclusiones

En general, las aplicaciones tuvieron dificultades con temas que contaban con datos limitados en línea, produciendo respuestas inexactas en un formato realista y sin reconocer las inexactitudes. Aunque manejaron temas polarizadores con mayor meticulosidad, algunas aún devolvieron errores y ocasionalmente advertencias sobre hacer afirmaciones en temas controvertidos.

Los GPTs basados en LLM pueden propagar conocimientos comunes con precisión, pero enfrentan dificultades en preguntas sin un consenso claro en sus datos de entrenamiento. Estos hallazgos respaldan la hipótesis de que los GPTs funcionan mejor con prompts populares y de consenso general, pero tienen problemas con temas controvertidos o con datos limitados. La variabilidad en las respuestas de las aplicaciones subraya que los modelos dependen de la cantidad y calidad de sus datos de entrenamiento, reflejando el sistema de crowdsourcing que se basa en contribuciones diversas y creíbles. Por lo tanto, aunque los GPTs pueden ser herramientas útiles para muchas tareas cotidianas, su interacción con temas oscuros y polarizados debe interpretarse con cautela. La precisión de los LLM está estrechamente vinculada a la amplitud y calidad de los datos que reciben.

El papel de las bibliotecas en la era de la inteligencia artificial (IA)


Alonso-Arévalo, Julio; Quinde-Cordero, Marlene. El papel de las bibliotecas en la era de la inteligencia artificial (IA). Boletín de la Asociación Andaluza de Bibliotecarios (AAB), N° 127, Enero-Junio 2024, pp. 27-37

Texto completo


La incorporación de la inteligencia artificial (IA) en las bibliotecas representa una evolución hacia lo que se conoce como “bibliotecas inteligentes”, adaptadas a las necesidades tecnológicas y educativas actuales. Estas instituciones están utilizando la IA para enriquecer la experiencia del usuario, brindando desde recomendaciones personalizadas hasta servicios de búsqueda avanzada y gestión eficiente de datos. No obstante, este avance también conlleva desafíos, como la privacidad de los datos y la fiabilidad de la información generada por la IA. Las bibliotecas están a la vanguardia de la alfabetización en IA, capacitando a sus usuarios para interactuar de manera responsable con esta tecnología y preparándolos para el mercado laboral digital del futuro. En este sentido, las bibliotecas siguen siendo esenciales como espacios de aprendizaje continuo y acceso equitativo al conocimiento en una sociedad cada vez más influenciada por la IA.

Innovar la pedagogía 2024: tendencias de futuro en la enseñanza

Kukulska-Hulme, A., Wise, A.F., et al. (2024). Innovating Pedagogy 2024: Open University Innovation Report 12. Milton Keynes: The Open University.

Texto completo

En esta serie de informes anuales, se analizan las nuevas formas de enseñanza, aprendizaje y evaluación en un mundo interactivo, con el objetivo de guiar a docentes y responsables políticos en innovaciones productivas. Este duodécimo informe presenta diez innovaciones que, aunque ya están en uso, tienen el potencial de influir aún más en la educación. Un grupo de académicos del Instituto de Tecnología Educativa de la Open University (Reino Unido) colaboró con investigadores de la Iniciativa LIVE en la Universidad de Vanderbilt (EE. UU.) para desarrollar este informe.

A continuación, se resumen las diez innovaciones propuestas:

  1. Mundos especulativos: Involucra la reimaginación del presente, pasado o futuro para criticar y cambiar el statu quo, beneficiando a grupos marginados. Utiliza técnicas como la construcción de mundos para permitir a estos grupos redefinir su realidad.
  2. Pedagogías de paz: Enfatizan el papel de las escuelas en la promoción de la armonía social al abordar la violencia cotidiana. Incluye prácticas como la educación para la paz y la justicia restaurativa.
  3. Pedagogía de acción climática: Integra temas ambientales en los currículos y promueve la responsabilidad ambiental, abordando el cambio climático a través de experiencias prácticas y literacidad climática.
  4. Aprendizaje en conversación con IA generativa: Utiliza herramientas de IA como ChatGPT para fomentar el aprendizaje dialógico, aunque plantea preocupaciones sobre la precisión del contenido y la privacidad de los datos.
  5. Ética de la IA con jóvenes: Destaca la importancia de involucrar a los niños en debates sobre IA, asegurando que sus derechos y voces se consideren en el desarrollo de herramientas educativas.
  6. Escritura multimodal mejorada por IA: Facilita la expresión a través de diversos medios, fomentando el pensamiento crítico y la creatividad en la escritura.
  7. Libros de texto inteligentes: Utilizan la IA para personalizar el aprendizaje, adaptando el contenido a las necesidades del lector en tiempo real.
  8. Evaluaciones a través de realidad extendida: Emplea simulaciones inmersivas para evaluar habilidades prácticas, proporcionando experiencias auténticas sin riesgos del mundo real.
  9. Inmersión en lengua y cultura: Utiliza juegos digitales y simulaciones para ofrecer experiencias de aprendizaje auténticas en contextos históricos, mejorando la adquisición del idioma y la comprensión cultural.
  10. Exploración de modelos científicos desde adentro: Utiliza tecnologías de realidad extendida para crear entornos inmersivos donde los estudiantes interactúan con fenómenos científicos, facilitando un aprendizaje experiencial.

Estas innovaciones ofrecen oportunidades para transformar la educación, aunque también presentan desafíos relacionados con la implementación y la equidad.

Práctica responsable de la IA en bibliotecas y archivos: Una revisión de la literatura

Mannheimer, S., Bond, N., Young, S. W. H., Kettler, H. S., Marcus, A., Slipher, S. K., … Sheehey, B. (2024). Responsible AI Practice in Libraries and Archives: A Review of the LiteratureInformation Technology and Libraries43(3). https://doi.org/10.5860/ital.v43i3.17245

Texto completo

Se analiza la implementación de la inteligencia artificial (IA) en bibliotecas y archivos, enfocándose en dos preguntas clave: ¿Cómo se está utilizando la IA en estas instituciones? y ¿Qué preocupaciones éticas están surgiendo y siendo abordadas durante la implementación de la IA?

El estudio revela que el uso de la IA está creciendo, especialmente en grandes bibliotecas universitarias, con aplicaciones comunes en la extracción de metadatos y servicios de referencia. La mayoría de los proyectos utiliza textos e imágenes digitalizados, así como otros materiales como archivos web y mapas. Si bien más de la mitad de los artículos revisados mencionan cuestiones éticas, solo un tercio aborda preocupaciones más allá de la precisión técnica.

El artículo destaca que, aunque el uso de la IA ofrece beneficios claros, también plantea una serie de preocupaciones éticas. Solo poco más de la mitad de los estudios revisados mencionan temas éticos en relación con la implementación de la IA, y solo un tercio profundiza en problemas éticos más allá de cuestiones técnicas, como la precisión y la participación humana en el proceso.

Entre los temas éticos identificados, los más importantes incluyen:

  • Transparencia en el uso de algoritmos y toma de decisiones.
  • Fiabilidad de los sistemas de IA y su capacidad de ofrecer resultados precisos.
  • Impacto de los costos asociados a la implementación de estas tecnologías.
  • Sesgos algorítmicos y su potencial para perpetuar desigualdades.
  • Justicia social y el impacto de la IA en comunidades vulnerables.
  • Privacidad y consentimiento, particularmente en el uso de datos personales.
  • Accesibilidad y equidad en el acceso a los recursos que gestionan las bibliotecas y archivos.

El estudio también resalta que a medida que las bibliotecas y archivos adopten más ampliamente la IA, será crucial que las instituciones no solo consideren estos aspectos éticos a nivel local, sino que también los discuten de manera pública a través de publicaciones y documentación compartida. El artículo sugiere que las bibliotecas deberían desarrollar políticas claras y directrices que rijan el uso de la IA, fomentando una práctica transparente y ética.

Se espera que las discusiones sobre ética y valores en la implementación de la IA continúen en áreas como costos, transparencia, sesgos, justicia social, privacidad y accesibilidad. El artículo subraya la importancia de discutir estas preocupaciones de manera pública y documentada a medida que la IA se vuelva más común en bibliotecas y archivos.

¿Cómo protegerme de la desinformación?

Sara Degli-Esposti y David Arroyo «¿Cómo protegerme de la desinformación?», La aventura de aprender (blog), accedido 23 de septiembre de 2024,

PDF


La desinformación y la propaganda han sido dos de los grandes retos que ha tenido que afrontar la humanidad a lo largo de la historia. Ambos fenómenos se han visto intensificados por la proliferación en la última década de plataformas, medios y herramientas para generar contenidos sin necesidad de contar con los actores habituales en el ámbito de la generación y distribución de contenidos informativos.

Según Claire Wardle, profesor de la Escuela de Salud Pública de la Universidad de Brown y cofundador y codirector del Information Futures Lab, la desinformación es un contenido intencionadamente falso y diseñado para causar daño. Está motivada por tres factores: ganar dinero, tener influencia política, ya sea extranjera o nacional; o causar problemas porque sí. En otras palabras: cuando la tergiversación se convierte en un engaño deliberado, eso es desinformación (en inglés disinformation) y no simplemente información falsa (en inglés misinformation).

Es necesario tener en cuenta que la desinformación cada vez más se construye sobre la base de una falta de calidad en los procesos de creación de nuevo contenido. Así, el intercambio de información errónea, el uso abusivo de titulares sensacionalistas o amarillistas (en inglés clickbait) y otros fenómenos propios de flujos de información de baja calidad pueden llevar a la instrumentalización de dicha información y de rumores vinculados a ella. Además, una serie de factores cognitivos, sociales y afectivos influyen en la formación de falsas creencias. A esto hay que añadir que el acceso global a plataformas para la generación y distribución de contenido ha permitido construir canales de comunicación descentralizados, esto es, sin el control de los habituales curadores de contenidos.

Existe un amplio espectro de tácticas y estrategias de desinformación. Por ejemplo, el astroturfing es una novedosa forma de desinformación que se basa en la imitación de comentarios de ciudadanos y ciudadanas para crear la falsa impresión de que una determinada opinión o idea cuenta con un amplio apoyo en la sociedad. La desinformación busca aumentar las divisiones dentro de las comunidades y entre ellas y socavar la confianza de la población en los gobiernos electos. En este guía aprenderás sobre todas estas prácticas.