Archivo de la categoría: Alfabetización informacional

Cambios en la percepción de la desinformación en Canadá: Tendencias en exposición, detección y confianza, 2025

Foran, Helen, y Howard Bilodeau. 2026. “Shifting Perceptions of Misinformation in Canada: Trends in Exposure, Detection and Trust.” Insights on Canadian Society. Statistics Canada, 13 de mayo de 2026. https://www150.statcan.gc.ca/n1/pub/75-006-x/2026001/article/00006-eng.htm

En 2025, el 80 % de los canadienses declaró haber visto noticias o información en internet que sospechaban que era engañosa, falsa o inexacta al menos una vez al mes. Estas experiencias son una de las principales preocupaciones de los canadienses, y la mayoría (61 %) manifestó estar «muy preocupada» o «extremadamente preocupada» por la desinformación en línea en 2025.

El estudio analiza cómo los canadienses perciben, detectan y experimentan la desinformación en el entorno digital, así como su relación con la confianza en los medios y la confianza interpersonal. A partir de datos de la Canadian Social Survey (2025) y comparaciones con la Survey Series on People and their Communities (2023), el informe explora la evolución de la exposición a noticias falsas, la capacidad de los ciudadanos para distinguir entre información verdadera y falsa, y el impacto de este fenómeno en la confianza social.

Uno de los hallazgos centrales es la alta exposición a la desinformación: en 2025, el 80% de los canadienses afirmó haber visto al menos mensualmente información que consideraba engañosa o falsa. Esta exposición es prácticamente transversal en términos de edad, género y nivel educativo, lo que indica que la desinformación es un fenómeno estructural del ecosistema informativo digital. Sin embargo, los mayores de 75 años reportan una menor exposición, posiblemente por diferencias en los hábitos de consumo informativo.

El estudio también muestra cómo los ciudadanos acceden a la información. Las fuentes más habituales son los medios de comunicación (66%), contactos cercanos (62%), redes sociales (54%) y la televisión (52%). Sin embargo, existen diferencias generacionales claras: los jóvenes (15–34 años) dependen principalmente de las redes sociales (78%), mientras que los mayores confían más en medios tradicionales como la televisión y los medios informativos. Estas diferencias reflejan una fragmentación del ecosistema mediático según la edad y el nivel educativo.

En cuanto a la percepción de la veracidad informativa, el 47% de los canadienses declara que en 2025 le resulta más difícil distinguir entre información verdadera y falsa que hace tres años. Además, el 61% expresa una preocupación alta o muy alta por la desinformación en línea. El informe destaca que esta dificultad no es uniforme, sino que se relaciona con variables como el nivel educativo, la confianza en los medios y la confianza interpersonal.

Otro aspecto relevante es la relación entre desinformación y confianza social. Los resultados muestran que las personas con mayor confianza en los medios canadienses y en otras personas tienden a tener más seguridad en su capacidad para detectar información falsa. Por el contrario, quienes muestran menor confianza en los medios o en los demás reportan mayores dificultades para identificar contenidos engañosos. Esto sugiere que la desinformación no solo es un problema informativo, sino también un fenómeno vinculado al capital social y la confianza institucional.

En conjunto, el estudio concluye que la desinformación es una experiencia común y persistente en la sociedad canadiense, y que sus efectos no se limitan a la exposición, sino que influyen en la percepción de la realidad y en la confianza en las instituciones. Aunque la preocupación por este fenómeno se mantiene estable entre 2023 y 2025, el reto principal es la creciente complejidad del entorno digital y la dificultad creciente para distinguir entre información fiable y falsa.

Opiniones del profesorado sobre la IA

The Chronicle of Higher Education. “Faculty Views on AI.” The Chronicle of Higher Education, consultado el 7 de mayo de 2026. The Chronicle of Higher Education

Texto completo

El informe presenta un panorama claro: la IA ya está transformando la enseñanza superior, pero su adopción está marcada por la tensión entre utilidad práctica y riesgo pedagógico. Los docentes valoran su capacidad para ahorrar tiempo, generar materiales y apoyar tareas rutinarias, pero temen que debilite el esfuerzo intelectual, favorezca el engaño y erosione competencias fundamentales. La conclusión implícita es que el problema no es solo tecnológico, sino estratégico: las universidades deberán decidir si la IA será un simple atajo operativo o una herramienta integrada críticamente dentro de un nuevo modelo educativo.

El informe Faculty Views on AI refleja una posición profundamente ambivalente del profesorado universitario ante la inteligencia artificial generativa. Por un lado, una mayoría reconoce que estas herramientas ya están siendo útiles para mejorar ciertos aspectos de la docencia; por otro, existe una preocupación muy fuerte por su impacto negativo en el aprendizaje, la ética académica y la falta de regulación institucional. El estudio combina datos de una encuesta de The Chronicle of Higher Education a 425 docentes en 2025 y otra de la American Association of Colleges and Universities (AAC&U) a 1.057 profesores de educación superior en 2025, lo que permite observar tendencias consolidadas en el ámbito universitario.

Uno de los datos más significativos es que el profesorado ya está incorporando la IA a su trabajo cotidiano. El 78 % afirma haber utilizado herramientas de IA para crear o editar textos, lo que indica que estas aplicaciones se están convirtiendo en asistentes habituales para redactar materiales, instrucciones o contenidos académicos. Además, el 55 % las ha empleado para crear o revisar cuestionarios, exámenes u otras evaluaciones, mientras que el 40 % dice haberlas usado para elaborar o modificar programas docentes (syllabi). También el 36 % las ha utilizado para crear o editar imágenes, señal de que la IA comienza a desempeñar un papel relevante en la producción de recursos visuales para las clases. Estos porcentajes muestran que, lejos de ser una novedad marginal, la IA ya forma parte de las prácticas docentes en muchas instituciones.

Sin embargo, junto a este uso creciente aparecen temores muy marcados sobre sus consecuencias educativas. El 90 % del profesorado considera que el uso de IA reducirá las capacidades de pensamiento crítico del alumnado, lo que revela una inquietud central: que los estudiantes deleguen procesos intelectuales complejos en la máquina y pierdan autonomía analítica. Asimismo, el 83 % cree que la IA disminuirá la capacidad de atención, reforzando la idea de que el acceso inmediato a respuestas puede fomentar hábitos de concentración superficial. Otro dato especialmente revelador es que el 78 % sostiene que el fraude académico o las trampas en el campus han aumentado desde que la IA se popularizó, lo que sitúa la integridad académica como una de las grandes preocupaciones actuales.

A estos temores se suma un problema institucional importante: la ausencia de normas claras. Más de seis de cada diez profesores afirman que sus universidades carecen de directrices claras sobre cómo debe usarse la IA por parte del profesorado. Esto genera incertidumbre y respuestas desiguales entre departamentos o facultades. En muchos casos, cada docente decide por su cuenta si la permite, la restringe o la integra, lo que produce incoherencia pedagógica y desconcierto entre los estudiantes. El informe subraya que las universidades necesitan definir con mayor claridad qué papel desean otorgar a estas tecnologías y comunicarlo de forma transparente a toda la comunidad académica.

Entre quienes todavía no utilizan IA para mejorar materiales docentes, las razones principales también resultan reveladoras. La objeción más citada son los problemas éticos, seguida de las dudas sobre si realmente ayuda a aprender mejor, las preocupaciones medioambientales y de sostenibilidad, y finalmente los temores relacionados con privacidad y derechos de autor. Esto demuestra que la resistencia no se debe únicamente a desconocimiento tecnológico, sino también a debates legítimos sobre valores, impacto social y calidad educativa.

Ten cuidado: Proyecto de alfabetización en el combate a la desinformación en la enseñanza superior

Lopes, Carlos, Maria Luz Antunes y Tatiana Sanches. 2025. Be Careful: Projeto de literacia no combate à desinformação no ensino superior. Lisboa: ISPA – Instituto Universitário. https://repositorio.ispa.pt/entities/publication/98969ba8-0360-4eac-b12b-7cc950d260c9.

Texto completo

Este trabajo presenta y analiza el proyecto «Be Careful», una iniciativa pedagógica y de investigación desarrollada en el contexto de la educación superior en Portugal. El objetivo central del proyecto es capacitar a los estudiantes universitarios con competencias críticas de alfabetización informacional y mediática para identificar y combatir la desinformación (noticias falsas, sesgos cognitivos y manipulación de datos).

El texto analiza cómo, pese a que muchos estudiantes universitarios pertenecen a generaciones acostumbradas al uso cotidiano de tecnologías digitales, ello no implica necesariamente que posean competencias avanzadas para evaluar críticamente la información que consumen. Los autores señalan que el entorno informativo actual está marcado por la sobreabundancia de contenidos, la circulación de noticias falsas y la influencia de algoritmos que refuerzan creencias previas mediante las llamadas “burbujas de filtro”. Esta situación supone un desafío tanto para la formación académica como para la participación ciudadana responsable.

Ante este panorama, el proyecto Be Careful se plantea como una iniciativa educativa destinada a fortalecer la alfabetización mediática e informacional del alumnado universitario. Para ello, comienza con un diagnóstico inicial que permite conocer el nivel de conciencia de los estudiantes frente a la desinformación y detectar carencias en sus hábitos de búsqueda, selección y validación de fuentes. Esta fase resulta esencial para adaptar posteriormente las acciones formativas a las necesidades reales de los participantes.

Uno de los ejes centrales del proyecto son los talleres prácticos, orientados a enseñar estrategias concretas de verificación de datos. En estas sesiones se trabajan técnicas de fact-checking, análisis crítico de titulares sensacionalistas, identificación de sesgos en mensajes digitales y evaluación de la autoridad y fiabilidad de autores y sitios web. El objetivo no es solo transmitir herramientas técnicas, sino promover hábitos intelectuales basados en la prudencia, la duda razonada y la contrastación de evidencias.

El programa también contempla la elaboración de Recursos Educativos Abiertos (REA), como guías, materiales didácticos y contenidos reutilizables, con el fin de facilitar que otras instituciones académicas puedan replicar la experiencia. Esta dimensión abierta amplía el alcance del proyecto y favorece la cooperación entre universidades, bibliotecas y profesionales de la información interesados en combatir la desinformación desde la educación superior.

El documento concede especial relevancia al papel de las bibliotecas universitarias y de los bibliotecarios como agentes formativos clave. Lejos de limitarse a funciones tradicionales de gestión documental, se les reconoce como mediadores expertos capaces de enseñar competencias informacionales, acompañar procesos de investigación y fomentar una relación crítica con la información digital.

Finalmente, los autores concluyen que la lucha contra la desinformación exige un esfuerzo continuo e interdisciplinario. La experiencia del proyecto demuestra que integrar estas competencias en el currículo universitario mejora notablemente la capacidad de los estudiantes para localizar información científica rigurosa, diferenciar fuentes fiables de contenidos engañosos y desenvolverse con mayor autonomía en un entorno mediático complejo. En consecuencia, la alfabetización informacional se presenta no solo como una destreza académica, sino como una condición necesaria para la salud democrática de las sociedades contemporáneas.

El impacto de la IA en las habilidades funcionales de alfabetización

Hargadon, Steve. “The Impact of AI Using Functional Literacy Skills.Steve Hargadon Blog, abril de 2026. https://www.stevehargadon.com/2026/04/the-impact-of-ai-using-functional.html

El debate sobre la inteligencia artificial desde la productividad hacia la formación humana. Más que preguntarse cuánto tiempo ahorra la IA, se pregunta qué capacidades dejamos de ejercitar cuando la usamos indiscriminadamente. Su tesis de fondo es clara: la alfabetización funcional sigue siendo indispensable, pero ahora debe protegerse y reinventarse en diálogo con las máquinas. La educación del futuro dependerá menos de prohibir la IA que de enseñar a usarla sin renunciar al pensamiento propio

En este ensayo, Steve Hargadon reflexiona sobre una de las transformaciones educativas más profundas del presente: la manera en que la inteligencia artificial está alterando las habilidades funcionales de alfabetización, es decir, aquellas capacidades prácticas vinculadas con leer, escribir, comprender, sintetizar información y expresarse de forma competente en la vida cotidiana. El autor no aborda la alfabetización como simple dominio técnico de la lectura y la escritura, sino como un conjunto de destrezas cognitivas esenciales para pensar, interpretar el mundo y participar de forma autónoma en la sociedad. Desde esa perspectiva, la irrupción de la IA no es solo un cambio tecnológico, sino un desafío cultural y pedagógico de gran alcance.

Hargadon sostiene que durante siglos las habilidades de lectura y escritura han requerido esfuerzo mental sostenido. Comprender un texto complejo implicaba concentración, paciencia, inferencia y capacidad crítica. Redactar suponía ordenar ideas, estructurar argumentos, buscar precisión léxica y revisar errores. Sin embargo, las herramientas de IA generativa modifican radicalmente este proceso al ofrecer resúmenes automáticos, textos completos redactados en segundos, reformulación instantánea de ideas y respuestas inmediatas a preguntas complejas. Lo que antes exigía trabajo intelectual ahora puede externalizarse hacia la máquina. Esta comodidad plantea un dilema central: ganar eficiencia sin perder capacidad humana.

Uno de los puntos más relevantes del texto es la distinción entre usar la IA como apoyo y depender de la IA como sustituto. El autor considera legítimo que un estudiante emplee herramientas inteligentes para aclarar conceptos, revisar gramática, recibir ejemplos o explorar nuevas perspectivas. En ese sentido, la IA puede democratizar el acceso al conocimiento, reducir barreras educativas y ofrecer acompañamiento constante. Pero el problema aparece cuando la herramienta reemplaza enteramente el proceso de pensar. Si un alumno pide a la IA que escriba un ensayo completo, resuelva la interpretación de una lectura o genere conclusiones sin intervención propia, el resultado puede parecer exitoso externamente, aunque internamente no haya existido aprendizaje real.

El texto advierte que las habilidades funcionales de alfabetización no se conservan automáticamente: se fortalecen mediante el uso. Igual que un músculo se debilita cuando no se ejercita, la capacidad para leer críticamente, argumentar por escrito o mantener atención prolongada puede erosionarse cuando se delega sistemáticamente en sistemas automáticos. La IA, por tanto, no solo ahorra tiempo; también puede reducir la práctica necesaria para desarrollar competencias profundas. Esta preocupación se vuelve especialmente importante en generaciones jóvenes que crecen utilizando asistentes inteligentes desde edades tempranas.

El autor también señala una paradoja contemporánea: muchas instituciones educativas siguen evaluando productos finales —redacciones, trabajos escritos, respuestas correctas— sin poder medir con claridad el proceso cognitivo que condujo a ellos. La IA encaja perfectamente en ese modelo, porque puede producir resultados aceptables sin que el estudiante haya comprendido realmente el contenido. Así, los sistemas de evaluación tradicionales corren el riesgo de premiar apariencias de competencia en lugar de competencias auténticas. La escritura entregada puede ser excelente, mientras que el pensamiento del alumno permanece estancado.

Otro aspecto central del ensayo es la necesidad de redefinir qué significa estar alfabetizado en la era digital. Ya no bastará con leer y escribir en sentido clásico. Será imprescindible saber formular preguntas de calidad, verificar respuestas automáticas, detectar errores plausibles, contrastar fuentes, interpretar sesgos algorítmicos y decidir cuándo conviene usar IA y cuándo pensar sin ella. En otras palabras, la alfabetización del futuro incluirá una dimensión metacognitiva: saber gobernar la relación entre mente humana y asistencia artificial.

Hargadon no adopta una postura tecnófoba. Reconoce que la IA puede ampliar enormemente las oportunidades educativas. Un estudiante curioso puede recibir explicaciones personalizadas, practicar idiomas, explorar temas especializados o profundizar en conocimientos que antes estaban reservados a expertos o instituciones prestigiosas. El problema no es la herramienta en sí, sino el marco cultural de uso. Si se emplea para expandir curiosidad, autonomía y pensamiento crítico, la IA se convierte en aliada. Si se usa para evitar esfuerzo intelectual, termina empobreciendo el desarrollo cognitivo.

En términos sociales, el artículo sugiere que se abrirá una brecha entre dos perfiles de usuarios. Por un lado, quienes usen IA para potenciar sus propias capacidades y aprender más rápido. Por otro, quienes la utilicen para simular competencia sin desarrollar criterio propio. Esa diferencia puede no ser visible de inmediato en notas académicas o certificados, pero sí aparecerá con fuerza en el trabajo, en la toma de decisiones complejas y en la adaptación a entornos inciertos. La verdadera ventaja competitiva no será “tener IA”, sino conservar juicio propio mientras se trabaja con ella

Las estafas en redes sociales provocaron pérdidas de 2.100 millones de dólares en 2025

Whittaker, Zack. «Consumers Lost $2.1 Billion to Social Media Scams in 2025, FTC ReportsTechCrunch, 27 abr. 2026, https://techcrunch.com/2026/04/27/consumers-lost-2-1-billion-to-social-media-scams-in-2025-ftc-reports/


Según el informe más reciente de la Comisión Federal de Comercio (FTC), las redes sociales se han convertido en la vía más costosa para el fraude al consumidor, alcanzando pérdidas récord de 2.100 millones de dólares en 2025. Esta cifra representa un alarmante incremento de ocho veces respecto a los niveles registrados en 2020, lo que demuestra que los delincuentes están aprovechando la accesibilidad y el bajo costo de las plataformas digitales para alcanzar a miles de víctimas potenciales con gran facilidad.

El reporte destaca que Facebook lidera las estadísticas como la plataforma donde se inician más fraudes, seguida por WhatsApp e Instagram. Casi el 30% de todas las personas que reportaron pérdidas financieras por estafas el año pasado señalaron que el contacto inicial ocurrió en una red social. Estas plataformas permiten a los estafadores hackear cuentas para suplantar identidades, utilizar herramientas publicitarias para segmentar víctimas por intereses y crear perfiles falsos que parecen legítimos.

En cuanto a las modalidades de fraude, las estafas de inversión fueron las más lucrativas, sumando 1.100 millones de dólares (más de la mitad del total). Estas suelen involucrar promesas de altos rendimientos mediante criptomonedas o falsos asesores financieros. Por otro lado, las estafas de compras en línea fueron las más frecuentes: miles de usuarios pagaron por productos anunciados en redes sociales que nunca fueron entregados. Asimismo, las estafas románticas siguen siendo una amenaza significativa, con casi el 60% de los casos iniciados a través de interacciones sociales digitales.

Finalmente, la FTC advierte que todos los grupos de edad son vulnerables, aunque existe una ligera excepción en los mayores de 80 años, quienes siguen siendo contactados principalmente a través de llamadas telefónicas. Para mitigar estos riesgos, las autoridades recomiendan encarecidamente ajustar las configuraciones de privacidad, limitar quién puede ver los contactos y desconfiar de cualquier solicitud de dinero o consejos de inversión que provengan de conocidos o extraños exclusivamente a través de mensajes digitales..

Tabla periódica de las APPS gratuitas de Inteligencia Artificial

Ver en tamaño original

Tabla periódica de las APPS gratuitas de Inteligencia Artificial

1. Chatbots y Procesamiento de Texto (Azul Oscuro)

Es el núcleo de la IA generativa. Se dividen en modelos generales y especialistas en documentos.

  • Los «Big Four»: ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft) y Claude AI (Anthropic). Son modelos de lenguaje general para razonamiento, programación y escritura creativa.
  • Investigación y Búsqueda: Perplexity y ResearchGPT. A diferencia de los anteriores, citan fuentes en tiempo real, ideales para trabajos académicos.
  • Análisis de Documentos: ChatPDF, Humata, PDF AI y Ask your PDF. Permiten «hablar» con archivos PDF para extraer resúmenes o datos específicos sin leer todo el texto.
  • Escritura y Corrección: Grammarly (corrección gramatical), Quillbot (paráfrasis) y DeepL (el mejor traductor basado en redes neuronales).

2. Imágenes y Diseño Visual (Azul Claro)

Aquí la IA se divide entre generación desde cero y edición de fotos existentes.

  • Generadores Artísticos: Leonardo AI y Stable Diffusion. Ofrecen un control inmenso sobre el estilo, la iluminación y la composición.
  • Diseño Rápido: Microsoft Designer y Adobe Express. Ideales para crear posts de redes sociales o carteles sin ser diseñador.
  • Utilidades de Edición: Cutout pro (eliminar fondos), AI image enlarger (reescalar imágenes sin perder calidad) y Pikaso (generación en tiempo real mientras dibujas).

3. Presentaciones (Cian / Turquesa)

Herramientas que eliminan el «miedo a la diapositiva en blanco».

  • Gamma y Tome: Son las más potentes. Escribes un tema y la IA genera la estructura, el texto y las imágenes de toda la presentación en segundos.
  • Slides AI y SlidesGPT: Extensiones directas para Google Slides o PowerPoint que ayudan a formatear contenido existente.

4. Video y Animación (Verde)

El sector con mayor crecimiento tecnológico actualmente.

  • Avatares Realistas: HeyGen y Vizard. Permiten crear videos de personas hablando simplemente escribiendo el guion.
  • Generación de Video: LumaLabs (creación de video 3D y cinemático) y Fliki (convierte artículos de blog en videos con voz).
  • Creatividad: Animated drawings (da vida a dibujos hechos a mano) y Monster Mash (animación 3D basada en bocetos 2D).

5. Audio y Música (Rosa / Magenta)

Desde clonación de voz hasta composición musical.

  • Música: Suno (capaz de crear canciones completas con letra y voz) y Music FX (de Google, para bases ambientales).
  • Voz (Text-to-Speech): ElevenLabs (la voz más humana del mercado) y Speechify (lee textos largos, ideal para audiolibros personales).
  • Productividad de Audio: Adobe Podcast (limpia el ruido de fondo como si estuvieras en un estudio profesional) y Krisp (cancela ruido en llamadas en vivo).

6. Educación (Morado)

Herramientas diseñadas para el aula, tanto para el profesor como para el alumno.

  • Cuestionarios y Exámenes: Conker, QuestionWell y Formative. Generan preguntas y evaluaciones automáticamente a partir de un texto.
  • Tutoría: Wolfram Alpha (el motor de conocimiento computacional para matemáticas y física) y Socratic (ayuda visual para resolver tareas).
  • Gestión de Clase: Magic School (asistente integral para planificación docente) y Edpuzzle (para hacer videos interactivos).

Explorando el comportamiento informacional

Wilson, T. D. (2026). Explorando el comportamiento informacional. (Trad. Martha Sabelli y José Vicente Rodríguez Muñoz). (Ed. y Trad. Francisco Javier Martínez Méndez). Editum. Ediciones de la Universidad de Murcia. https://doi.org/10.6018/editum.3204

Texto completo

Original en inglés

El autor revisa los principales modelos teóricos del campo e incorpora enfoques de disciplinas como la psicología, la sociología y la comunicación, destacando la influencia de factores contextuales, cognitivos y emocionales. Además, amplía la visión tradicional centrada en la “búsqueda de información” hacia un concepto más amplio de “comportamiento informacional”, que incluye tanto la búsqueda intencional como el descubrimiento accidental de información.

En conjunto, el libro ofrece una introducción estructurada que combina teoría y evidencia, consolidando un enfoque centrado en el usuario clave para la investigación, la enseñanza y el diseño de sistemas de información.

Laboratorio de Alfabetización y Acción en IA

University of Virginia Library y College and Graduate School of Arts & Sciences. “AI Literacy and Action Lab Announcement.” 17 de abril de 2026 https://library.virginia.edu/ai/lab

AI Literacy and Action Lab representa una evolución natural del papel de las bibliotecas de investigación en la era digital. Como señala Leo S. Lo, la misión fundamental de estas instituciones —ayudar a encontrar información y a evaluarla— permanece intacta, aunque las herramientas hayan cambiado. Lejos de diluirse, esta misión se vuelve aún más relevante en un contexto dominado por la inteligencia artificial, donde la capacidad de discernimiento crítico se convierte en una competencia esencial para estudiantes, docentes e investigadores.

El 17 de abril de 2026, la Biblioteca de la Universidad de Virginia, en colaboración con el College and Graduate School of Arts & Sciences, anunció la creación del AI Literacy and Action Lab, una iniciativa destinada a abordar de forma directa y estructurada los desafíos que plantea la inteligencia artificial en la educación superior. Este laboratorio surge como respuesta a la necesidad urgente de comprender no solo el funcionamiento de las herramientas de IA, sino también sus implicaciones éticas, pedagógicas y sociales. Con el lanzamiento de cuatro proyectos piloto durante la primavera y el verano de 2026, y la incorporación de cursos en otoño, el programa se posiciona como un espacio dinámico de experimentación, reflexión y producción de conocimiento aplicado.

Los proyectos piloto abarcan ámbitos diversos como el futuro del trabajo, el pensamiento crítico y ético, y la integración de la IA en la planificación docente tanto en humanidades como en disciplinas STEM. Un rasgo distintivo del laboratorio es la participación de bibliotecarios como facilitadores, quienes no solo aportan su experiencia en alfabetización informacional, sino que también actúan como mentores a lo largo de todo el proceso. Esta figura refuerza el papel de la biblioteca como agente activo en la formación académica, más allá de su función tradicional. En este contexto, profesionales como Meridith Wolnick destacan la importancia de guiar a los estudiantes hacia un uso reflexivo y crítico de la IA, fomentando debates basados en casos que permitan explorar sus implicaciones más profundas.

El laboratorio también persigue objetivos institucionales más amplios, como reducir las desigualdades entre facultades y departamentos en el acceso y uso de la IA, promover un juicio informado en su utilización y generar resultados estructurados basados en evidencia que respalden tanto la investigación como la innovación educativa. Mira Waller subraya que la clave no está en dictar normas rígidas sobre el uso de la IA, sino en capacitar a la comunidad universitaria para desarrollar criterios propios en un entorno tecnológico que evoluciona más rápido que las propias instituciones académicas. Este enfoque conecta directamente con la misión histórica de las bibliotecas: enseñar a evaluar la información y fomentar el pensamiento crítico.

AI Literacy and Action Lab representa una evolución natural del papel de las bibliotecas de investigación en la era digital. Como señala Leo S. Lo, la misión fundamental de estas instituciones —ayudar a encontrar información y a evaluarla— permanece intacta, aunque las herramientas hayan cambiado. Lejos de diluirse, esta misión se vuelve aún más relevante en un contexto dominado por la inteligencia artificial, donde la capacidad de discernimiento crítico se convierte en una competencia esencial para estudiantes, docentes e investigadores.

La IA contra sí misma: Google intensifica la lucha contra los anuncios fraudulentos

Huamani, K. “AI Is a Gold Mine for Spammers and Scammers, but Google Is Using It as a Tool to Fight Back.” AP News, 16 de abril de 2026.

Leer artículo

Este articulo analiza la creciente paradoja de la inteligencia artificial en el ecosistema digital: la misma tecnología que facilita la proliferación de fraudes y estafas en internet se ha convertido también en la principal herramienta para combatirlos. En particular, se centra en el informe anual de seguridad publicitaria de Google, que revela cómo el uso de sistemas avanzados de IA —como Gemini— está permitiendo detectar y bloquear anuncios maliciosos antes de que lleguen al público.

El texto de Kaitlyn Huamani analiza cómo la expansión de la inteligencia artificial generativa ha intensificado un problema antiguo: el de los fraudes y el spam en internet. Aunque estos engaños existen desde los inicios de la red, la accesibilidad de herramientas de IA ha permitido a los estafadores producir contenidos mucho más sofisticados —como anuncios de productos milagro o vídeos con voces falsas de celebridades— a una velocidad y escala sin precedentes. Expertos como Nate Elliott destacan que la gran diferencia actual no es la naturaleza del problema, sino su aceleración exponencial, que beneficia tanto a actores legítimos como a los maliciosos. Esta tendencia tiene un impacto real: según el Federal Bureau of Investigation, en el último año se registraron más de 22.000 denuncias por estafas relacionadas con IA, con pérdidas que superan los 893 millones de dólares.

Frente a este escenario, grandes empresas tecnológicas como Google están reforzando sus sistemas de defensa mediante el uso de su propia inteligencia artificial. En su informe anual de seguridad publicitaria, la compañía reconoce el aumento de anuncios fraudulentos cada vez más complejos, pero subraya la eficacia de sus herramientas basadas en IA. Su sistema, impulsado por Gemini, logró detectar más del 99% de los anuncios que infringían las políticas antes de que llegaran a los usuarios. En 2025, Google bloqueó o eliminó más de 8.300 millones de anuncios y suspendió cerca de 24,9 millones de cuentas de anunciantes, de las cuales más de 4 millones estaban vinculadas a actividades fraudulentas. Estas cifras reflejan tanto la magnitud del problema como el esfuerzo creciente por contenerlo.

El artículo también explica cómo funcionan estas herramientas defensivas. Gracias a Gemini, Google puede analizar cientos de miles de millones de señales —como la antigüedad de las cuentas, patrones de comportamiento o características de las campañas— para evaluar la intención real de los anunciantes. Esto permite distinguir con mayor precisión entre negocios legítimos y actores maliciosos, reduciendo además los errores: las suspensiones indebidas de anunciantes se han reducido en un 80%. Otro avance clave es la velocidad, ya que procesos que antes llevaban segundos o minutos ahora se realizan en milisegundos, lo que permite bloquear amenazas antes incluso de que se publiquen.

Aun así, el problema sigue siendo complejo y dinámico. Los anuncios fraudulentos adoptan múltiples formas y evolucionan constantemente, replicando estrategias tradicionales pero con mayor volumen y rapidez gracias a la IA. Google insiste en que no clasifica los anuncios en función de si han sido generados por inteligencia artificial, sino según si incumplen sus políticas, ya que muchas empresas legítimas también utilizan estas herramientas de forma correcta. En este contexto, los expertos coinciden en que la confrontación entre estafadores y sistemas de defensa continuará intensificándose.

En última instancia, el texto plantea un escenario en el que la lucha contra el fraude digital se convierte en una especie de “IA contra IA”. Como señala Matt Seitz, el volumen del problema es ya tan grande que no puede gestionarse únicamente con intervención humana. Esto anticipa un futuro en el que la automatización será clave tanto para la creación de amenazas como para su detección, consolidando una carrera tecnológica permanente entre ataque y defensa en el entorno digital.

ZODIAC: un nuevo marco para evaluar la información en la era de la inteligencia artificial generativa

Reagan, Kevin, Kay Coates, y Jessica Swaringen. “Your Information ZODIAC: An Information Evaluation Framework for the Age of Generative AI.” Journal of New Librarianship 10, no. 2 (2025): 94–109. https://newlibs.org/index.php/jonl/article/view/3107/3189

Se propone un nuevo marco conceptual para la evaluación crítica de la información en un contexto profundamente transformado por la inteligencia artificial generativa. Partiendo de modelos ya consolidados en alfabetización informacional —como CRAAP, SIFT o ACT UP—, los autores desarrollan el modelo ZODIAC, un acrónimo que sintetiza seis dimensiones clave: Zooming in, Other opinions, Dataset, Intent, Authenticity y Consistency.

Este enfoque responde a la necesidad urgente de adaptar las herramientas de evaluación tradicionales a un entorno en el que los contenidos no solo son abundantes, sino también generados automáticamente por sistemas complejos como los modelos de lenguaje.

El primer componente, Zooming in, invita a examinar detenidamente los detalles de la información generada, prestando atención a elementos que pueden pasar desapercibidos en una lectura superficial. Other opinions enfatiza la importancia de contrastar la información con otras fuentes, reforzando la idea de que ningún contenido —especialmente el generado por IA— debe considerarse aislado. Uno de los aportes más innovadores del modelo es la inclusión de Dataset, que introduce a los estudiantes en la necesidad de reflexionar sobre los datos de entrenamiento de los sistemas de inteligencia artificial, un aspecto ausente en marcos anteriores pero crucial para comprender los sesgos y limitaciones de estas herramientas.

Asimismo, el criterio de Intent se centra en analizar la finalidad del contenido generado: no solo qué dice, sino por qué y para qué ha sido producido. Este punto es especialmente relevante en sistemas de IA, donde la intencionalidad puede no ser evidente y está mediada por los objetivos del diseño del sistema. Por su parte, Authenticity y Consistency abordan dos problemas característicos de la inteligencia artificial generativa: la dificultad para verificar la autenticidad de los contenidos y la tendencia de estos sistemas a generar respuestas plausibles pero no siempre coherentes o veraces. En conjunto, estos criterios permiten a los estudiantes desarrollar una mirada crítica más afinada frente a textos, imágenes o datos producidos por IA.

Se subraya que el modelo ZODIAC está diseñado como una herramienta introductoria, especialmente orientada a estudiantes de primer año universitario. Su objetivo no es ofrecer un sistema exhaustivo, sino proporcionar una base accesible que permita comenzar a desarrollar competencias críticas en un entorno informativo cada vez más complejo. En este sentido, los autores reconocen explícitamente las limitaciones del modelo, señalando que no aborda de manera completa aspectos sociales y medioambientales relacionados con la inteligencia artificial, como el impacto energético de los sistemas o las implicaciones éticas de su uso.

En la discusión final, los autores amplían el marco conceptual e invitan a la comunidad profesional —bibliotecarios, docentes e investigadores— a avanzar hacia modelos más holísticos de alfabetización informacional y alfabetización en IA. Este llamamiento es especialmente relevante en el contexto actual, donde la capacidad de evaluar información ya no puede separarse del conocimiento sobre cómo funcionan las tecnologías que la generan. En definitiva, el artículo sitúa el modelo ZODIAC como una propuesta pedagógica innovadora que, aunque inicial, abre nuevas vías para repensar la enseñanza del pensamiento crítico en la era de la inteligencia artificial.