Archivo de la categoría: Tecnologías de la información

IA centrada en la ciudadanía

Tafoya, Valeria. 2025. “Citizen-first AI: How youth can shape AI in public services.” World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/citizen-first-ai-youth-shape-ai-public-services/

La IA en los servicios públicos solo será beneficiosa si se diseña poniendo a la ciudadanía en el centro, no solo en la eficiencia administrativa. Con buena gobernanza, transparencia y supervisión humana, la IA puede mejorar el acceso a derechos y fortalecer la confianza en las instituciones.

El artículo plantea que la incorporación de la inteligencia artificial en los servicios públicos solo será verdaderamente transformadora si se diseña desde una perspectiva centrada en la ciudadanía. Esto significa que la tecnología no debe orientarse únicamente a hacer más eficientes los procesos administrativos, sino a mejorar de manera tangible la vida de las personas, facilitar su acceso a derechos y fortalecer su confianza en las instituciones. Bajo esta visión, la IA se convierte en una herramienta para democratizar oportunidades y reducir desigualdades, siempre que su implementación esté guiada por valores sociales y no solo por la lógica técnica.

La idea de “soberanía digital” ocupa un lugar central. No se trata simplemente de que un país disponga de sus propios datos o infraestructura tecnológica, sino de que cuente con capacidad real para controlar, supervisar y adaptar los sistemas de IA de forma autónoma. Esto implica formar a equipos públicos competentes, disponer de sistemas robustos ante fallos o ataques, y establecer normas claras que garanticen la protección de la privacidad y la seguridad de la información. Cuando estos elementos se consolidan, los gobiernos pueden avanzar hacia un modelo tecnológico que responda a sus propios principios democráticos.

Un elemento clave del artículo es el papel de la juventud. Las nuevas generaciones no solo son usuarias avanzadas de tecnología: también tienen la sensibilidad necesaria para identificar riesgos éticos, imaginar usos públicos innovadores y exigir mayor transparencia en la toma de decisiones automatizadas. Su participación aporta creatividad, urgencia y una mirada más inclusiva, lo cual ayuda a moldear servicios públicos que sean verdaderamente útiles, accesibles y responsables. En lugar de ser simples destinatarios de las políticas, los jóvenes se presentan como co-constructores de un futuro digital más equitativo.

El texto también detalla los beneficios potenciales de la IA en la administración pública. La automatización puede reducir trámites innecesarios, agilizar el acceso a ayudas sociales, mejorar la gestión sanitaria y facilitar la creación de políticas basadas en datos reales. Esto permite que los gobiernos respondan más rápido a las necesidades cambiantes de la sociedad y liberen tiempo de los empleados públicos para tareas de mayor valor humano, como la atención personalizada.

Sin embargo, también se señala que un despliegue tecnológico sin supervisión ni controles adecuados puede generar riesgos serios. Una dependencia excesiva de sistemas automatizados puede exponer a la población a fallos masivos, decisiones opacas, discriminaciones algorítmicas o abusos de poder. Por ello, la IA en el sector público debe acompañarse siempre de transparencia, auditorías, mecanismos de rendición de cuentas y una supervisión humana constante. La confianza ciudadana depende de que los sistemas sean comprensibles, justos y verificables.

Suben las calificaciones de los trabajos de clase y bajan las notas en los exámenes presenciales

Oatley, Gabe. 2025. “The New Learning Curve: How Student AI Use Is Changing Teaching at UofT.” TorontoToday.ca, November 24, 2025. https://www.torontotoday.ca/local/education/learning-curve-student-artificial-intelligence-use-changing-teaching-uoft-11532998

Estudio

El uso creciente de herramientas de inteligencia artificial por parte del alumnado está transformando profundamente la enseñanza en la University of Toronto. Los profesores han detectado un fenómeno especialmente llamativo: mientras que las calificaciones de los trabajos para casa han subido de forma notable, los resultados en los exámenes presenciales finales han caído de manera significativa. Esta divergencia, según apuntan, se explica por un uso extendido —y en muchos casos no declarado— de modelos de lenguaje avanzados para elaborar tareas que antes exigían un esfuerzo de lectura, análisis y redacción personal.

Datos clave:

  • El 59 % de los estudiantes canadienses encuestados usan IA generativa para sus trabajos escolares — un aumento respecto al 52 % del año anterior.
  • De entre los estudiantes que usan IA, un 67 % dice que no cree estar aprendiendo o reteniendo tanto conocimiento como antes.
  • A pesar de ello, el 75 % considera que las herramientas de IA han mejorado la calidad de sus trabajos escolares.
  • El uso frecuente: el 63 % dice usar IA generativa varias veces por semana.
  • El 82 % admite que presenta como propio contenido generado por IA.
  • Un 70 % prefiere recurrir a la IA antes que pedir ayuda a sus profesores.
  • Entre quienes usan IA, aproximadamente un 65 %–67 % sienten que su uso equivale a hacer trampa.
  • El 63 % teme ser descubierto por su institución por depender de IA en sus trabajos.

Ante esta realidad, los docentes han comenzado a observar patrones de comportamiento nuevos en su alumnado. Muchos estudiantes recurren a herramientas como ChatGPT o Gemini para resolver dudas, generar ideas iniciales o mejorar la coherencia de sus textos, lo que en algunos casos puede tener un efecto positivo, especialmente cuando se usa para reforzar el aprendizaje. Sin embargo, un número creciente de estudiantes emplea la IA como sustituto del propio proceso cognitivo: delegan totalmente la elaboración de trabajos escritos o incluso la resolución de ejercicios técnicos. Esto ha generado una sensación de falsa competencia, pues los trabajos parecen impecables pero el rendimiento en evaluaciones sin asistencia tecnológica revela lagunas importantes de comprensión.

El artículo también subraya que detectar el uso indebido de IA es una tarea compleja. Las herramientas de detección disponibles no son fiables, y los profesores encuentran difícil —y muchas veces imposible— demostrar que un texto ha sido producido o modificado sustancialmente por un sistema automático. Además, la dinámica de aprendizaje ha cambiado: los estudiantes hacen menos preguntas en clase, participan menos en foros y asisten menos a tutorías, ya que encuentran en la IA una fuente inmediata de respuestas, disponible en cualquier momento. Para parte del profesorado, esta sustitución del diálogo pedagógico por consultas a modelos generativos supone la pérdida de una dimensión esencial de la educación universitaria: la interacción humana, que permite matizar conceptos, plantear dudas profundas y construir pensamiento crítico.

Frente a estos desafíos, los profesores de la universidad están rediseñando sus estrategias docentes. Una respuesta habitual ha sido aumentar el peso de las evaluaciones presenciales, incluyendo exámenes escritos en el aula, defensas orales o entrevistas breves vinculadas a trabajos entregados. De este modo, se busca comprobar que los estudiantes realmente dominan los contenidos que presentan en sus tareas. Otra estrategia consiste en diseñar actividades “auténticas”, vinculadas a experiencias reales, análisis de campo, estudios de caso o ejercicios creativos basados en situaciones concretas que resultan más difíciles de delegar a una IA. En algunas asignaturas se ha optado por dividir las tareas en fases: por ejemplo, primero marcar y comentar un texto leído, y solo después elaborar una reflexión personal. Esto permite observar el proceso de pensamiento del estudiante y no solo el producto final.

A lo largo del artículo se destaca que el uso de IA en la educación superior ya no es una tendencia pasajera, sino un cambio estructural que obliga a repensar la evaluación y la enseñanza. Según los profesores entrevistados, la forma tradicional de asignar trabajos y corregirlos ha dejado de ser viable en un contexto donde una herramienta automatizada puede producir textos correctos en segundos. La cuestión ya no es si permitir o prohibir estas tecnologías, sino cómo integrarlas de manera responsable, enseñando a los estudiantes a utilizarlas como apoyo sin renunciar a la comprensión profunda, el razonamiento propio y el desarrollo de habilidades intelectuales fundamentales. En definitiva, la universidad se enfrenta a una nueva curva de aprendizaje institucional, en la que conviven innovación, preocupación y la necesidad urgente de adaptar la pedagogía a un entorno educativo donde la inteligencia artificial es parte del día a día.

Un nuevo paradigma para la biblioteconomía: una revisión del trabajo de las asociaciones bibliotecarias y la IA desde 2019 hasta hoy

Garcia-Febo, Loida. “A New Paradigm for Librarianship: A Review of Library Associations’ Work and AI from 2019 Until the Present.” IFLA Management of Library Associations, noviembre 24, 2025. IFLA. https://repository.ifla.org/handle/20.500.14598/6927

Texto completo

a autora sostiene que las asociaciones bibliotecarias —en especial ALA, IFLA, ARL, ACRL y CENL— han sido actores fundamentales para interpretar, orientar y liderar la introducción de la IA en bibliotecas, actuando como conectores entre iniciativas locales y agendas globales. Estas asociaciones han impulsado marcos éticos, programas de capacitación, alianzas internacionales y documentos estratégicos que guían la adopción responsable y humana de estas tecnologías.

El texto comienza situando a la profesión frente a un momento histórico: la transición desde un modelo basado en colecciones físicas hacia instituciones tecnológicas capaces de influir en la sociedad digital. La autora expone su propia implicación internacional en conferencias y comités desde 2019 para explicar la perspectiva desde la que observa el fenómeno: la de un liderazgo activo en el diálogo global entre bibliotecas y tecnología. Insiste en que la IA no solo introduce herramientas nuevas, sino que redefine el papel del bibliotecario, los valores profesionales —como la equidad, la privacidad y la libertad intelectual— y la misión social de las bibliotecas.

A continuación se describe cómo la IA se ha incorporado rápidamente al ecosistema bibliotecario: chatbots para atención en tiempo real, herramientas de accesibilidad y búsqueda multilingüe, analíticas para la comunicación científica y sistemas de evaluación de necesidades comunitarias. Paralelamente, alerta sobre riesgos como el sesgo algorítmico, la opacidad o la distribución desigual de recursos; de ahí que las asociaciones hayan priorizado la creación de guías éticas y políticas responsables. Documentos como la IFLA Statement on Libraries and AI, los principios de ARL sobre IA o las competencias en IA de ACRL ilustran estos esfuerzos por mantener la centralidad del juicio humano y la transparencia.

Un foco clave del artículo es la transformación educativa. La autora detalla cómo las asociaciones influyen en la formación a través de estándares, acreditaciones y colaboraciones con universidades. Programas de instituciones como San José State University, University of North Carolina, University of Washington y University of Illinois muestran la creciente integración de ciencia de datos, análisis sociotécnico y ética de la IA en la educación bibliotecaria. Al mismo tiempo, asociaciones como ACRL han creado grupos de trabajo para desarrollar competencias específicas y llenar las lagunas formativas que todavía existen en el colectivo profesional.

La dimensión global ocupa otra parte sustancial del análisis. Garcia-Febo describe cómo las asociaciones bibliotecarias se han convertido en interlocutores relevantes en debates internacionales sobre movilidad digital, gobernanza algorítmica y derechos humanos. A través de iniciativas como la participación de IFLA en la ONU, el trabajo del AI SIG, los simposios internacionales y la alineación con la Agenda 2030, las bibliotecas se posicionan como agentes que pueden influir en políticas públicas de tecnología ética. Las encuestas y redes europeas impulsadas por CENL, así como los eventos multilaterales organizados entre 2024 y 2025, muestran un movimiento coordinado y creciente hacia la institucionalización de la IA en la profesión.

El documento incluye además una línea temporal detallada de los principales hitos desde 2019: publicaciones pioneras de ALA, la creación del IFLA AI SIG, los informes y encuestas de CENL, libros especializados, programas de reskilling como el GPT-4 Exploration Program, y el lanzamiento del documento Entry Point to Libraries and AI en 2025. Esta cronología permite ver cómo la atención a la IA ha evolucionado desde una fase exploratoria inicial hacia una etapa madura, donde existen políticas, competencias, foros estables y cooperación internacional estructurada.

Se identifica tres direcciones estratégicas clave para el futuro:

  • Políticas ágiles y gobernanza adaptativa: generar documentos vivos, promover pilotos experimentales y ampliar la mirada hacia nuevas tecnologías como el metaverso o la publicación computacional.
  • Alfabetización en IA y competencia ética: crear marcos de formación continua que incluyan comprensión técnica, reflexión ética, diseño centrado en las personas y mecanismos de rendición de cuentas; incluso proponiendo microcredenciales.
  • Colaboración global y multisectorial: ampliar redes con asociaciones, consorcios, universidades, sociedad civil y actores tecnológicos, con especial atención al Sur Global.

Para la autora, el reto no es solo integrar la IA en bibliotecas, sino garantizar que lo haga de forma ética, inclusiva y orientada al bien público. Bibliotecas y bibliotecarios, apoyados por sus asociaciones, no son meros usuarios de tecnología: son guías capaces de moldear el futuro digital con responsabilidad y visión social.

El uso de la IA en el trabajo casi se ha duplicado en dos años.

Pendell, Ryan, y Andy Kemp. “AI Use at Work Has Nearly Doubled in Two Years.” Gallup, 15 de junio de 2025. Gallup. https://www.gallup.com/workplace/691643/work-nearly-doubled-two-years.aspx

El uso de la inteligencia artificial (IA) en el ámbito laboral ha aumentado significativamente en los últimos dos años. La proporción de empleados que usan IA al menos ocasionalmente ha pasado del 21 % al 40 %, mientras que el uso frecuente y diario también se ha duplicado, lo que indica una integración creciente de estas herramientas en las tareas cotidianas de trabajo.

Este incremento se concentra especialmente en trabajadores de oficina y líderes, donde el uso frecuente alcanza el 27 % y 33 % respectivamente, mostrando que los roles con mayor responsabilidad tienden a adoptar antes estas tecnologías.

A pesar de la mayor adopción, muchas organizaciones carecen de estrategias claras para integrar la IA de manera efectiva. Solo una minoría de empleados reporta que su empresa ha comunicado un plan sólido o establecido políticas formales sobre el uso de IA, lo que limita el potencial de estas herramientas. Esta falta de estructura también se refleja en la percepción de utilidad: apenas el 16 % de los usuarios considera que las herramientas de IA proporcionadas por su empresa son realmente útiles para su trabajo.

Los beneficios percibidos son claros a nivel individual y organizativo: muchos empleados reportan mejoras en productividad y eficiencia, y los líderes observan ventajas en la eficiencia operativa. Sin embargo, la comodidad y confianza para trabajar con IA sigue siendo limitada. Solo un pequeño porcentaje se siente muy cómodo usando estas herramientas, mientras que alrededor de un tercio se siente muy incómodo, indicando la necesidad de formación y comunicación más efectiva sobre su uso.

Por último, las preocupaciones sobre la pérdida de empleo por automatización se mantienen moderadas. Solo un 15 % de los empleados considera que es muy o bastante probable que la IA elimine su trabajo en los próximos cinco años, mostrando que, aunque la adopción crece, los temores sobre la sustitución laboral no se han incrementado de manera significativa.

Optimización para motores de IA: cómo Mejorar la visibilidad y las citaciones de tu contenido

Search Engine Journal. “A Step‑By‑Step AEO Guide For Growing AI Citations & Visibility.Search Engine Journal, 15 de noviembre de 2023. https://www.searchenginejournal.com/aeo-guide-seo-visibility-tac-spa/559880/

Se aborda la creciente importancia de optimizar contenidos no solo para los buscadores tradicionales, sino también para los sistemas de inteligencia artificial (IA), como ChatGPT, Perplexity o Claude. Estos motores de IA utilizan la web para entrenar sus modelos y para generar respuestas en tiempo real, por lo que lograr que tu contenido sea rastreado y citado por ellos se está convirtiendo en un factor clave para aumentar la visibilidad online.

Para abordar este reto, se propone un enfoque estructurado llamado Answer Engine Optimization (AEO). Este enfoque consiste en entender cómo los crawlers de IA interactúan con tu sitio y, a partir de esos datos, optimizar el contenido. Los pasos principales incluyen: analizar los logs del servidor para identificar qué bots visitan qué páginas, monitorizar la actividad con herramientas específicas y analizar qué tipo de contenido atrae más a los crawlers.

Los crawlers de IA son bots desarrollados por empresas de inteligencia artificial que navegan por la web para recopilar datos. Algunos de los más relevantes son GPTBot (OpenAI), PerplexityBot y ClaudeBot. Su función principal es recoger información para entrenar los modelos y recuperar contenido en tiempo real para responder preguntas de usuarios. Por ello, que tus páginas sean visitadas por estos bots aumenta la probabilidad de que tu contenido sea citado por sistemas de IA.

El análisis de logs del servidor es la manera más precisa de entender la actividad de estos bots, aunque puede ser técnico y complejo para sitios grandes. Alternativamente, se puede usar el plugin SEO Bulk Admin en WordPress, que permite monitorizar la actividad de los crawlers de IA de forma más accesible, aunque quizá menos exhaustiva que el análisis de logs. Esta herramienta ofrece información a nivel de página sobre qué URLs están siendo rastreadas y permite tomar decisiones de optimización basadas en datos reales.

Con la información obtenida de los crawlers, se puede mejorar la estrategia de contenido. Es recomendable analizar qué páginas son más visitadas por bots de IA, identificar patrones de contenido efectivo (como guías, preguntas frecuentes o definiciones), añadir datos estructurados (schema), hacer el contenido más claro y conciso, aumentar la autoridad mediante fuentes fiables y mejorar el enlazado interno para conectar contenido relevante.

En conclusión, los SEOs no pueden ignorar el comportamiento de los crawlers de IA. Tanto mediante el análisis de logs como mediante herramientas más sencillas, es posible diseñar estrategias basadas en datos reales que aumenten la probabilidad de que el contenido sea citado por IA. La clave está en identificar el contenido exitoso, optimizar el menos rastreado y aplicar mejoras estructurales que maximicen la visibilidad en motores de IA.

El impacto de la IA sobre el empleo es mixto: algunas empresas han reducido plantilla, otras están contratando más personal.

McKinsey. The State of AI in 2025: Agents, Innovation, and Transformation. McKinsey & Company, 2025. Artículo de ZDNet: “Is AI a career killer? Not if you have these skills, McKinsey research shows”. Enlace

Un informe de McKinsey, titulado The State of AI in 2025: Agents, Innovation, and Transformation, analiza cómo la inteligencia artificial (IA) está transformando el mundo laboral. Según la investigación, el impacto de la IA sobre el empleo es mixto: mientras algunas empresas han reducido plantilla, otras están contratando más personal.

En la encuesta realizada, menos del 20 % de los encuestados reportó reducciones de más del 3 % en sus equipos, pero se espera que en el próximo año el 32 % de las organizaciones reduzca empleados debido a la IA, mientras que un 13 % anticipa aumentos en sus contrataciones.

Algunos datos clave:

  • Reducción de plantilla por IA actual: <20 % reporta caídas ≥3 %
  • Proyección próximo año: 32 % reducirá personal, 13 % aumentará contrataciones
  • Roles más demandados: ingenieros de datos, científicos de datos, gestores de producto de IA, arquitectos de datos, desarrolladores
  • Habilidades críticas: análisis y preparación de datos, rediseño de procesos, aplicación estratégica de IA

No todos los trabajos están amenazados de la misma manera. Los roles técnicos relacionados con datos y desarrollo de IA están en auge, incluyendo ingenieros de datos, científicos de datos, gestores de producto de IA, arquitectos de datos y desarrolladores. Este crecimiento responde a la necesidad de contar con infraestructuras de datos sólidas y operaciones de machine learning (MLOps) que permitan implementar la IA de forma efectiva en las empresas.

Para protegerse de que la IA reemplace sus funciones, los trabajadores deben desarrollar habilidades clave. Estas incluyen competencias en análisis y preparación de datos, así como la capacidad de rediseñar procesos y aplicar la IA de manera estratégica. No basta con ser técnico: es esencial combinar habilidades técnicas con visión para optimizar flujos de trabajo y generar valor empresarial.

Por otro lado, muchas organizaciones aún no han gestionado adecuadamente los riesgos asociados a la IA, como privacidad, explicabilidad y posibles errores de los modelos. Aquellas que lideran en adopción de IA (“high performers”) son las que cuentan con liderazgo comprometido, procesos de validación robustos y estrategias claras para escalar la IA de manera transformadora.

Según McKinsey, los trabajadores que desarrollen las habilidades adecuadas en datos, IA aplicada y gestión de cambio pueden convertir esta tecnología en una oportunidad, en lugar de una amenaza, para su futuro profesional.

El “Blob” de la IA: concentración de poder y riesgos sistémicos en la industria tecnológica

Levy, Steven. “There Is Only One AI Company. Welcome to the Blob.” WIRED, 21 de noviembre de 2025. https://www.wired.com/story/ai-industry-monopoly-nvidia-microsoft-google/

La industria de la IA se ha convertido en un ecosistema altamente interconectado donde unas pocas grandes empresas dependen entre sí mediante inversiones y acuerdos tecnológicos. Esta red, descrita como un “Blob”, concentra poder y reduce la competencia real. Las compañías actúan simultáneamente como proveedoras, clientes e infraestructuras críticas del sector. Se advierte que, debido a esta interdependencia, una crisis en una de ellas podría desestabilizar a toda la industria.

El artículo analiza cómo la industria de la inteligencia artificial ha evolucionado hacia una estructura casi monolítica en la que los grandes actores —principalmente empresas tecnológicas y compañías dedicadas a modelos de IA— funcionan como una red interdependiente. Esta red, descrita como un “Blob”, se caracteriza por alianzas financieras y tecnológicas que conectan a fabricantes de chips, desarrolladores de modelos fundacionales y proveedores de servicios en la nube. Aunque cada organización mantiene su identidad corporativa, la forma en que invierten unas en otras, se proveen servicios mutuamente y dependen de la misma infraestructura genera una concentración de poder sin precedentes.

Un ejemplo clave es el reciente acuerdo entre Microsoft, Nvidia y Anthropic: Microsoft invertirá al menos 5.000 millones USD en Anthropic; a su vez, Anthropic se compromete a comprar 30.000 millones USD en capacidad informática en la nube de Microsoft; mientras, Nvidia invierte en Anthropic, que usa sus chips para entrenar modelos. Esta relación circular —donde las empresas son inversoras, clientes y proveedoras entre sí— genera lo que Levy describe como “una máquina gigante de dinero y computación”.

El artículo subraya que esta interdependencia ha transformado a las empresas de IA en entidades que ya no solo crean productos, sino que también actúan como infraestructuras esenciales. Las inversiones multimillonarias cruzadas entre compañías consolidan este ecosistema cerrado, donde las decisiones de unas afectan directamente a la salud financiera y operativa del resto. Aunque no existen indicios de colusión explícita, el comportamiento coordinado que emerge de esta red crea un entorno de competencia limitada cercano a un oligopolio.

Finalmente, se advierte sobre los riesgos que implica esta estructura para la economía y la innovación. La concentración de recursos —chips, centros de datos, talento, computación en la nube— en manos de unas pocas empresas podría volverse inestable si la burbuja de la IA se desinfla. Debido a la naturaleza interconectada del sistema, la caída de una gran compañía podría desencadenar un efecto dominó que afectara a todo el sector.

Google Scholar Labs, un nueva versión de búsqueda académica potenciada por IA

Google Scholar Labs

Google ha lanzado Google Scholar Labs, una nueva versión de búsqueda académica potenciada por IA. La herramienta analiza la pregunta del usuario para identificar los temas clave, sus relaciones y aspectos relevantes

Google ha presentado Google Scholar Labs, una nueva función experimental que incorpora tecnología de inteligencia artificial generativa directamente en Google Scholar. Hasta ahora, no estaba claro si la compañía integraría IA en su buscador académico, pero desde el 18 de noviembre de 2025 ya está disponible —aunque solo para un grupo limitado de usuarios con sesión iniciada, con lista de espera para el resto. Actualmente está disponible solo para usuarios que hayan iniciado sesión y en inglés, y es una función experimental.

Este proyecto realiza búsquedas más sofisticadas en Google Scholar considerando todos esos elementos. A continuación, evalúa los resultados y selecciona los artículos más relevantes para responder de forma concreta a la consulta, explicando para cada uno cómo contribuye a la respuesta. Además, permite hacer preguntas de seguimiento para profundizar.

Scholar Labs está diseñado para transformar la forma en que se responden preguntas de investigación complejas que requieren analizar un tema desde diferentes ángulos. La herramienta interpreta la consulta del usuario para identificar sus conceptos clave, relaciones y aspectos relevantes. Luego realiza búsquedas en Google Scholar considerando todos esos elementos. Tras valorar los resultados obtenidos, selecciona los artículos que mejor responden a la pregunta inicial y explica para cada uno de ellos cómo contribuye a resolverla. Por ejemplo, si alguien pregunta cómo afecta el consumo de cafeína a la memoria a corto plazo, Scholar Labs busca estudios sobre ingesta de cafeína, retención de memoria y factores cognitivos relacionados con la edad, filtrando la información para ofrecer la respuesta más completa posible.

Esta función mantiene además todas las características habituales de Google Scholar, como enlaces a las fuentes originales, indicaciones claras del sitio de procedencia (arXiv, bioRxiv, editoriales académicas, etc.) y uso del texto completo del artículo cuando esté disponible para elaborar las explicaciones. De momento, Scholar Labs solo admite preguntas en inglés y se encuentra en fase experimental, con la intención de ampliarse progresivamente en función de la experiencia de los usuarios y del feedback recibido. Finalmente, la noticia destaca que esta apuesta por la IA de Google se suma al ecosistema ya existente de herramientas impulsadas por IA en el ámbito científico, como las desarrolladas por el Allen Institute for AI, creador de Semantic Scholar.

La plataforma Alma integra la inteligencia artificial para optimizar el trabajo bibliotecario

Ex Libris. “Shaping Tomorrow: Introducing Alma’s AI Vision – Chapter II.Ex Libris Blog, 12 de noviembre de 2025.

Texto completo

Ex Libris presenta cómo la inteligencia artificial (IA) se integra en la plataforma Alma para apoyar a los bibliotecarios en sus tareas diarias. La IA se concibe como una herramienta colaborativa que facilita la toma de decisiones, agiliza procesos y permite extraer información útil a partir de los datos de la biblioteca, liberando tiempo para que los profesionales se centren en conectar a las personas con el conocimiento.

Uno de los usos principales es la catalogación, donde la IA sugiere detalles faltantes y encabezamientos de materia, proporcionando un punto de partida para que los bibliotecarios revisen y ajusten los registros según su experiencia y normas locales. Esto permite generar registros más completos y precisos en menos tiempo, contribuyendo a mantener la consistencia en colecciones en constante crecimiento.

La IA también ayuda a reducir los retrasos en la catalogación, identificando y emparejando automáticamente registros, y en el futuro podrá generar borradores de registros revisables por los bibliotecarios, facilitando el descubrimiento de colecciones ocultas.

Otro enfoque importante es convertir los datos en información útil mediante Alma Insights, que transforma análisis complejos en información clara y accionable, mostrando tendencias y patrones clave sin necesidad de elaborar informes extensos. Esto permite decisiones más informadas sobre adquisiciones, circulación y optimización de flujos de trabajo.

Asimismo, herramientas como el Alma Assistant simplificarán tareas cotidianas mediante lenguaje natural, permitiendo a los usuarios consultar, por ejemplo, saldos de fondos o disponibilidad de recursos, sin navegar por múltiples menús, lo que mejora la eficiencia del personal.

Finalmente, todas las funcionalidades de IA de Alma están diseñadas para mantener a los bibliotecarios en el centro, respetando principios de responsabilidad, transparencia y ética, y asegurando que cada sugerencia pueda ser revisada y ajustada por los profesionales. La IA complementa la experiencia humana, refuerza la integridad de los datos y optimiza los flujos de trabajo de manera segura y efectiva, con el objetivo de que las bibliotecas puedan continuar su misión de compartir conocimiento y facilitar el aprendizaje.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.