Teléfonos móviles, smartphones, tabletas y otros dispositivos se emplean cada vez más para acceder a internet. El estar permanentemente conectados tiene ya unas implicaciones en el mundo de la información que en este libro se desvelan con claridad. El uso de los dispositivos móviles, las diferentes aplicaciones existentes, la web móvil, los servicios basados en localización, los códigos bidimensionales o la realidad aumentada son algunas de las novedades de los últimos años que se abordan en este texto de forma precisa, con la intención de ofrecer al profesional una visión clara del nuevo mundo de la información móvil.
Si una palabra define con acierto el mundo de la información, esa es cambio. Las bibliotecas, como parte esencial del ecosistema informativo, están inmersas en un proceso acelerado de transformación de muchos de los valores y conceptos que históricamente han definido qué es una biblioteca. Esta evolución impacta directamente tanto en lo que hacemos como en la manera en que lo hacemos.
En el momento actual, cuando la mayor parte de la información es accesible a través de la red y la biblioteca empieza a perder la exclusividad como uno de los principales proveedores de información para su comunidad, la estrategia fundamental de la biblioteca del siglo XXI consiste en ofrecer aquello que Internet no puede proporcionar: convertirse en un espacio de encuentro para aprender, compartir experiencias y socializar.
De este modo, las bibliotecas más innovadoras —sin renunciar a su esencia— están reimaginando sus espacios para convertirse en lugares convocantes y dinamizadores de sus comunidades. ¡El movimiento maker está en marcha!
El artículo explora un fenómeno emergente en las bibliotecas universitarias: la combinación de fatiga por IA y la cultura profesional conocida como vocational awe, término acuñado por Fobazi Ettarh para describir la visión idealizada de la labor bibliotecaria como una vocación sagrada que exige sacrificio y entrega más allá de lo razonable.
La rápida llegada y expansión de herramientas de inteligencia artificial generativa ha intensificado esta dinámica, pues al mismo tiempo que se espera que el personal adopte y enseñe sobre estas tecnologías, no se ha proporcionado un apoyo institucional adecuado para gestionar la carga de trabajo adicional, las expectativas cambiantes y las implicaciones éticas y de política que conllevan estos sistemas.
La fatiga por IA se describe como una forma de agotamiento mental que surge de la exposición continua a nuevas tecnologías, expectativas de adaptación constante y presión por dominar vocabulario y procedimientos técnicos sin suficiente formación ni recursos. En el contexto de las bibliotecas universitarias, esto se entrelaza con responsabilidades tradicionales —como acceso a información, alfabetización digital, privacidad y equidad— creando una carga laboral que supera las capacidades de muchos trabajadores, lo que puede provocar estrés, desmotivación e incluso agotamiento profesional.
El concepto de vocational awe agrava la situación al enmarcar la adopción de IA como deber moral y profesional, algo que se espera implícitamente de los bibliotecarios en nombre del servicio educativo y comunitario. Se señala que este enfoque puede marginar a quienes no logran “mantener el ritmo”, percibiéndose su resistencia o disgusto como falta de compromiso con la misión institucional. Esta narrativa idealizada también puede oscurecer la necesidad de establecer límites claros, políticas sólidas y estructuras de apoyo que reconozcan tanto la complejidad de la tecnología como el valor del personal humano.
Finalmente, el autor advierte que sin políticas claras, formación adecuada y una conversación honesta sobre la integración ética y sostenible de la IA, las bibliotecas corren el riesgo de perpetuar una cultura laboral insostenible que combina expectativas desmedidas con escasa preparación institucional. La pieza llama a los líderes de bibliotecas a repensar estrategias de implementación de IA que no solo busquen innovación, sino que también prioricen el bienestar del personal, la equidad educativa y la misión de preservar la confianza y accesibilidad a la información.
La detección de videos generados o manipulados por inteligencia artificial (IA) en un entorno en el que estas tecnologías se han vuelto extremadamente sofisticadas y aún más difíciles de distinguir del material real. Su tesis central es que, aunque las herramientas de IA continúan mejorando, todavía existen ciertos indicadores confiables que pueden ayudar a identificar contenido sintético —siempre y cuando los espectadores sepan qué observar.
El autor introduce la idea de que los avances recientes en generación de video mediante IA han erosionado nuestra confianza tradicional en las imágenes como prueba de realidad: “Lo que parece real ya no es garantía de autenticidad”. En este contexto, advierte que la audiencia probablemente será engañada repetidamente con videos falsos antes de que llegue a cuestionar sistemáticamente todo lo que ve.
El artículo presenta la opinión de Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley y pionero en el estudio forense de medios digitales. Farid destaca que el aspecto más revelador de un video generado por IA, en muchos casos, es su calidad visual: los materiales sintéticos suelen exhibir baja resolución, imágenes borrosas o apariencia “grumosa” que se asemeja a grabaciones de muy mala calidad. Esta característica se vuelve particularmente evidente en clips que emulan estilo doméstico o de “found footage”, como cámaras de seguridad o grabaciones improvisadas, donde la compresión y los artefactos introducidos para ocultar imperfecciones pueden ser un signo de síntesis.
Germain también explora cómo los generadores de video por IA deliberadamente reducen la calidad de imagen como técnica para ocultar artefactos o fallos, lo cual puede ser paradójicamente una pista de que el contenido no proviene de una cámara real. La lógica detrás de este fenómeno es que las imperfecciones artificiales se camuflan mejor en clips de mala calidad que en aquellos nítidos y bien definidos: cuando un video parece demasiado familiar o responde a patrones genéricos sin una procedencia clara, esto debería activar las alertas del espectador.
El artículo contextualiza la discusión dentro de un panorama en el que las tecnologías de generación de video han alcanzado tal nivel que incluso expertos pueden ser engañados si no se presta atención a señales sutiles o a la procedencia del material. Este análisis forma parte de un esfuerzo más amplio por promover una alfabetización mediática crítica: es decir, la capacidad de evaluar no solo la calidad visual, sino también la fuente, la metadata disponible y el contexto en que aparece un video antes de aceptarlo como genuino.
Aunque no existe un método infalible para detectar todo video generado por IA, la principal señal —imágenes con mala calidad o artefactos visuales contradictorios con la supuesta fuente del video— ofrece un punto de partida valioso para discernir contenido potencialmente sintético en la era de los deepfakes avanzados.
El informe del Pew Research Center revela una integración significativa de los chatbots de inteligencia artificial en la vida cotidiana de los adolescentes estadounidenses de 13 a 17 años. Actualmente, el 64% de los jóvenes reporta haber utilizado estas herramientas, una cifra que supera notablemente la percepción de sus padres, quienes creen que solo el 51% de sus hijos las emplea.
Entre las actividades más comunes se encuentra la búsqueda de información (57%), el apoyo en tareas escolares (54%) y el entretenimiento o diversión (47%). La mayoría de los adolescentes considera que la IA es una herramienta valiosa para el aprendizaje; aproximadamente la mitad de los usuarios afirma que los chatbots les han ayudado de manera significativa a completar sus deberes, mientras que solo una mínima fracción del 3% los considera inútiles. No obstante, existe una dependencia variable: mientras el 10% confía en la IA para la mayor parte de su trabajo escolar, un 45% aún no ha recurrido a ella con fines académicos.
El estudio profundiza en las marcadas diferencias demográficas y de género respecto a la adopción y visión del futuro de esta tecnología. Los adolescentes varones tienden a mostrar un optimismo más elevado que las mujeres, tanto sobre el impacto de la IA en sus propias vidas (41% frente a 30%) como en la sociedad en general (35% frente a 27%). Asimismo, se observan variaciones en el uso según el origen étnico y el nivel de ingresos del hogar, lo que sugiere que factores socioeconómicos influyen en cómo se aprovechan estas herramientas para el aprendizaje o el acceso a noticias. En cuanto a las capacidades de la IA frente a los humanos, los jóvenes son mayoritariamente escépticos en áreas que requieren juicio humano complejo, como la contratación de personal, donde el 50% cree que la tecnología tendría un peor desempeño que una persona.
El informe analiza la perspectiva parental y el consenso sobre los límites éticos del uso de la IA. Existe una aceptación mayoritaria entre los padres para que sus hijos utilicen chatbots en búsquedas de información y tareas escolares (aprobado por cerca del 60%), pero el nivel de comodidad desciende drásticamente cuando se trata de interacciones más personales, como conversaciones casuales. A pesar de los beneficios en eficiencia que los adolescentes reconocen —similares a los que percibe el público adulto—, persiste una preocupación compartida sobre las consecuencias a largo plazo, incluyendo el temor a la pérdida de empleos en el futuro. Este panorama refleja una generación que abraza la IA como una herramienta de productividad esencial, pero que mantiene una cautela crítica sobre su capacidad para replicar la esencia del comportamiento y la toma de decisiones humanas.
Aspectos más destacados:
Uso generalizado: El 64% de los adolescentes estadounidenses de entre 13 y 17 años ha utilizado chatbots de IA en algún momento.
Brecha de percepción parental: Existe una desconexión entre padres e hijos; mientras que el 64% de los jóvenes afirma haber usado IA, solo el 51% de sus padres cree que sus hijos lo han hecho.
Propósitos principales del uso:
Búsqueda de información: 57% de los adolescentes.
Tareas escolares: 54% de los adolescentes.
Entretenimiento: 47% de los adolescentes.
Impacto en la educación:
Alrededor de la mitad de los usuarios de IA (un 52% de los adolescentes que han usado chatbots) considera que estas herramientas han sido «muy» o «algo» útiles para completar sus tareas escolares.
Un 10% de los adolescentes confía en la IA para realizar la mayor parte de su trabajo escolar.
Diferencias de género: Los chicos adolescentes muestran un mayor optimismo que las chicas. El 41% de los varones cree que la IA tendrá un impacto positivo en su vida personal, frente al 30% de las mujeres.
Opinión sobre las capacidades de la IA: El 50% de los adolescentes considera que la IA haría un peor trabajo que los humanos en tareas que requieren juicio, como la contratación de empleados.
Postura de los padres: La mayoría de los padres se siente cómoda con que sus hijos usen IA para aprender cosas nuevas o para labores académicas, pero la aprobación disminuye significativamente cuando se trata de usar la tecnología para interacciones personales o casuales.
Se describe el reciente Marco de Alfabetización en Inteligencia Artificial publicado por el Departamento de Trabajo de los Estados Unidos como una nueva guía federal voluntaria que define qué significa ser alfabetizado en IA y qué competencias y métodos de formación deberían promoverse tanto en educación como en la fuerza laboral.
Según la autora, el Departamento de Trabajo ha planteado la alfabetización en IA no como un conjunto de herramientas o una lista de recursos tecnológicos, sino como un marco de competencias fundamentales centrado en la capacidad para usar y evaluar tecnologías de IA de forma responsable y eficaz. Este marco es importante porque, aunque es voluntario, su lenguaje y sus definiciones pueden influir en políticas educativas, alineación curricular, solicitudes de financiamiento y expectativas laborales a largo plazo.
El marco se estructura en torno a dos pilares principales: áreas de contenido fundamentales y principios de entrega. Las cinco áreas de contenido que el Departamento considera esenciales para la alfabetización en IA son: comprender los principios de la IA, explorar sus usos, dirigir la IA de forma eficaz (por ejemplo, mediante la elaboración de preguntas y prompts claros), evaluar los resultados que genera y usar la IA de manera responsable. Estas competencias no implican necesariamente codificación ni ingeniería de IA avanzada, sino una fluidez básica que permita interactuar críticamente con estas tecnologías en múltiples contextos.
En cuanto a los principios de entrega, el documento federal enfatiza la importancia de enfoques como el aprendizaje experiencial práctico, la integración del aprendizaje en contextos reales, el desarrollo de habilidades humanas complementarias (como pensamiento crítico y comunicación), y la creación de rutas de aprendizaje continuas y flexibles. También se subraya la necesidad de abordar barreras previas, como la falta de alfabetización digital o de acceso a infraestructura, y de preparar a quienes desempeñan roles de apoyo, como educadores y consejeros.
La autora señala que estos elementos sí coinciden con muchas prácticas ya existentes en educación y bibliotecas, pero que el marco fue diseñado con un enfoque explícitamente orientado al mercado laboral y no aborda de forma profunda cuestiones como la libertad intelectual, la integridad académica o los sesgos algorítmicos en contextos civiles. Esto podría limitar la visión sobre alfabetización en IA si no se complementa con discusiones más amplias sobre ética y crítica social dentro de las escuelas y bibliotecas.
Finalmente, el artículo sostiene que, dada la inclusión explícita de sistemas educativos hasta la capacitación laboral, es un momento estratégico para que educadores y bibliotecarios participen activamente en definir cómo debe interpretarse la alfabetización en IA. De lo contrario, la definición podría quedar reducida a una visión estrecha enfocada en productividad y competencia técnica, sin abordar críticamente el impacto más amplio de la IA en la sociedad, la ética y la equidad educativa.
Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.
Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.
Un pasaje destacado del artículo se refiere a un caso en el que la cuenta oficial de la Casa Blanca en X (antes Twitter) publicó una fotografía digitalmente alterada de la abogada de derechos civiles Nekima Levy Armstrong en la que aparecía aparentemente llorando tras un arresto. La imagen original había sido compartida por una secretaria de Seguridad Nacional, pero la versión difundida por el canal oficial fue retocada para acentuar las lágrimas, lo que provocó críticas de que se estaba utilizando la IA para manipular la percepción pública de eventos reales. Críticos como académicos en estudios de información sostienen que etiquetar estas publicaciones como “memes” puede ser una táctica para minimizar la crítica, aunque su difusión desde canales oficiales les confiere una legitimidad peligrosa.
El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.
Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.
En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.
Data Literacy: Navigating the Shift from Hype to Reality. Library Trends, Vol. 74, Núm. 3 (febrero de 2026) https://muse.jhu.edu/issue/56412
El número 3 del volumen 74 de la revista Library Trends explora el concepto de alfabetización de datos más allá del entusiasmo tecnológico, enfocándose en cómo las bibliotecas y los profesionales de la información están integrando esta competencia en sus prácticas educativas y de servicio. La edición parte de la premisa de que la creciente complejidad de los ecosistemas de información —lo que algunos investigadores describen como la “sobrecarga de datos”— desafía a las bibliotecas a redefinir su papel formativo más allá de la alfabetización informacional tradicional. El propósito es comprender hasta qué punto las bibliotecas han desarrollado estrategias críticas y efectivas para preparar a sus usuarios a interpretar, evaluar y usar datos de forma ética en contextos diversos.
El contenido incluye artículos que analizan tanto perspectivas teóricas como experiencias prácticas: desde enfoques críticos sobre la enseñanza de la alfabetización de datos en entornos de desconfianza hasta iniciativas comunitarias dirigidas a poblaciones específicas, como inmigrantes o estudiantes universitarios. Se presentan estudios de caso sobre programas de formación interdisciplinaria, pedagogías inclusivas y proyectos que vinculan la alfabetización de datos con necesidades sociales, como la comprensión de la inseguridad alimentaria. Además, se examina cómo los planes de estudio en biblioteconomía y ciencias de la información están evolucionando para incorporar competencias de datos de manera más sistemática.
El papel cada vez más importante que están desempeñando los bibliotecarios como educadores en alfabetización de inteligencia artificial (IA), adaptándose a un entorno digital en rápida transformación.
En un contexto donde herramientas como ChatGPT, Gemini y otros modelos generativos se vuelven omnipresentes, profesionales de las bibliotecas están ampliando sus funciones tradicionales —más allá de ayudar a las personas a encontrar y evaluar información— para incluir la enseñanza sobre cómo identificar, evaluar y utilizar inteligencias artificiales de manera crítica y responsable.
Históricamente, las bibliotecas han sido centros de alfabetización en información, enseñando habilidades que permiten a los usuarios discernir fuentes fiables y navegar recursos complejos. Hoy, esa misión se extiende a la alfabetización en IA, que abarca no solo comprender qué hacen estas tecnologías y cómo funcionan, sino también sus limitaciones y sus posibles impactos éticos y sociales —por ejemplo, cómo distinguir contenido generado por IA de aquel creado por humanos y reconocer posibles sesgos o errores en los resultados que producen.
El artículo subraya que distintos bibliotecarios trabajan con estudiantes y comunidades de todas las edades para integrar este tipo de educación. En escuelas y universidades, por ejemplo, estos profesionales colaboran con docentes para enseñar a los estudiantes no solo a usar herramientas de IA para la investigación académica, sino también a objetivar críticamente sus beneficios y riesgos, incluyendo cuestiones como el plagio, la integridad académica y la búsqueda responsable de información.
Además, el papel del bibliotecario se extiende a iniciativas comunitarias más amplias. Algunos programas públicos de bibliotecas han empezado a ofrecer recursos y talleres gratuitos para personas que desean entender mejor cómo las IA influyen en la vida diaria, desde las noticias y las redes sociales hasta cuestiones laborales y de privacidad de datos. En este sentido, se enfatiza la importancia de que las bibliotecas no solo enseñen técnicas de uso, sino que también fomenten habilidades de pensamiento crítico y evaluación ética frente a sistemas que generan contenido automáticamente.
La discusión del artículo también apunta a que, en un momento en que el público general y los estudiantes muestran una necesidad creciente de entender estas tecnologías —como reflejan encuestas que señalan brechas en pensamiento crítico relacionadas con el uso de IA—, los bibliotecarios están bien posicionados para asumir este rol educativo debido a su experiencia histórica en alfabetización informacional. Su labor, por tanto, se percibe no solo como una extensión natural de su función, sino como una respuesta esencial a las demandas educativas y sociales del entorno digital contemporáneo.
Rismanchian, S., Razia Babar, E. T., & Doroudi, S. (2026). What undergraduate students need to know and actually know about generative AI.Computers and Education: Artificial Intelligence, artículo 100554. https://doi.org/10.1016/j.caeai.2026.100554
Este artículo analiza la alfabetización en inteligencia artificial generativa (GenAI) entre estudiantes de pregrado, un tema crítico dada la rápida adopción de herramientas como ChatGPT desde su lanzamiento en 2022.
Los autores proponen un marco teórico integral para evaluar la alfabetización en GenAI, que combina tres tipos de conocimiento conceptual: las bases de los modelos de lenguaje a gran escala (LLMs), sus capacidades y limitaciones, y su impacto social. Este marco se utiliza para desarrollar una encuesta validada que incluye ítems de conocimiento y percepciones, diseñada con revisión de expertos y modelado de teoría de respuesta al ítem (IRT) para asegurar su rigor metodológico.
Mediante dos estudios complementarios realizados en Estados Unidos —uno con estudiantes de cursos universitarios en una gran universidad pública de investigación (R1) y otro con una muestra nacional reclutada en línea— los autores investigan cuánto saben realmente los estudiantes sobre GenAI y cómo calibran sus percepciones sobre estas herramientas. Los resultados muestran que aproximadamente el 60% de los estudiantes usan chatbots de IA semanal o diariamente, pero muchos sobreestiman las capacidades de estos sistemas, especialmente en tareas que requieren razonamiento o cálculo, y tienden a antropomorfizarlos o tratarlos como simples motores de búsqueda.
Los hallazgos indican además que los estudiantes con formación en ciencias de la computación y aquellos que usan con mayor frecuencia estas herramientas obtienen puntajes de conocimiento más altos, aunque esto no garantiza una percepción exacta de sus capacidades. Un hallazgo clave es que un mayor conocimiento conceptual se asocia con una menor sobreestimación de las capacidades de los sistemas de IA generativa, lo que sugiere que las iniciativas educativas deben ir más allá del uso instrumental de las herramientas y abordar profundamente los conceptos fundamentales, las limitaciones técnicas y las implicaciones sociales de la IA.
La investigación identifica 5 dimensiones clave de alfabetización en GenAI necesarias para un estudiante actual:
Conocimiento Técnico: Cómo funcionan los modelos (tokens, predicción probabilística).
Uso Práctico: Ingeniería de prompts y aplicaciones académicas.
Evaluación Crítica: Identificar alucinaciones, sesgos y limitaciones.
Ética y Responsabilidad: Plagio, derechos de autor y privacidad.
Impacto Social: Cómo la IA afecta al mercado laboral y a la sociedad.