Archivo de la etiqueta: Inteligencia artificial

Chatbots para los servicios de referencia en bibliotecas universitarias: aplicaciones, tendencias y desafíos éticos

Liu, Guoying, y Shu Liu. 2026. “Chatbots for Reference Services in Academic Libraries: Applications and Trends.” The Journal of Academic Librarianship 52: 103197. https://doi.org/10.1016/j.acalib.2025.103197

El artículo analiza la adopción y el funcionamiento de los chatbots en los servicios de referencia de bibliotecas universitarias a nivel mundial, en un contexto de transformación digital y creciente incorporación de la inteligencia artificial en el ámbito bibliotecario. A través de un estudio comparativo, las autoras examinan tanto sistemas basados en reglas como chatbots impulsados por IA, con el objetivo de identificar tendencias, capacidades tecnológicas y prácticas éticas en su implementación.

La investigación se apoya en un diseño metodológico en dos fases. En primer lugar, se realiza un escaneo ambiental de 205 instituciones académicas de referencia —incluyendo universidades del ranking QS, instituciones chinas de “Doble Primera Clase”, bibliotecas canadienses de investigación y casos destacados en Estados Unidos—, de las cuales solo 31 contaban con chatbots funcionales y accesibles al público. En una segunda fase, estos chatbots fueron evaluados mediante consultas estandarizadas que permitieron analizar su rendimiento en servicios básicos, recuperación de información, recomendaciones complejas y experiencia de usuario.

Los resultados muestran una adopción global limitada de chatbots en bibliotecas universitarias(15 %), con notables diferencias regionales. Mientras que China continental presenta tasas de implantación significativamente más altas, la adopción en América del Norte sigue siendo baja, pese a la abundante literatura sobre casos piloto. La mayoría de los sistemas analizados son chatbots híbridos o basados en IA generativa, capaces de manejar consultas rutinarias con eficacia, aunque presentan dificultades en tareas más complejas como la recuperación semántica avanzada o la generación de recomendaciones contextualizadas.

El estudio también pone de relieve importantes carencias en materia de transparencia y ética. Solo una minoría de los chatbots informa explícitamente sobre políticas de privacidad o el uso de datos, lo que plantea riesgos para la confianza del usuario y la responsabilidad institucional. Las autoras concluyen que, aunque los chatbots ofrecen un notable potencial para ampliar y mejorar los servicios de referencia, su desarrollo futuro debe apoyarse en estándares compartidos, una mejor integración con los sistemas bibliotecarios y un compromiso más firme con los principios de transparencia, inclusión y gobernanza ética.

Cómo utiliza la gente la IA generativa en 2025

Eliot, Lance. “HBR’s Top 10 Uses of AI Puts Therapy and Companionship at the No. 1 Spot.Forbes, May 14, 2025. https://www.forbes.com/sites/lanceeliot/2025/05/14/top-ten-uses-of-ai-puts-therapy-and-companionship-at-the-1-spot/?utm_source=chatgpt.com

El infirme visualiza los principales usos que las personas están dando a la inteligencia artificial generativa en 2025, según un análisis de miles de publicaciones en foros recogido por Harvard Business Review y presentado por Marc Zao-Sanders. La IA generativa experimenta un giro hacia usos más centrados en las personas.

Las tareas tradicionales como generar ideas o búsquedas específicas han sido desplazadas por usos más personales y orientados al bienestar, destacando que la primera posición la ocupa “Therapy & Companionship” (terapia y compañía). Esto indica que muchas personas están recurriendo a la IA no solo como herramienta productiva, sino como apoyo emocional o interlocución constante.

En los nuevos rankings aparecen casos de uso inéditos como “Organize Life” (organizar la vida) y “Find Purpose” (encontrar propósito), posicionándose en segundo y tercer lugar, respectivamente. Estas categorías reflejan que la IA se está integrando en aspectos cotidianos y existenciales de la vida de las personas, ayudando en planificación, reflexión y toma de decisiones personales.

Además, otros usos como “Enhance Learning” (mejorar el aprendizaje) han subido posiciones, lo que sugiere una mayor adopción de la IA para profundizar en comprensión y educación. Usos técnicos como generar código también siguen presentes, aunque más abajo, y categorías lúdicas o creativas como fun & nonsense (diversión y tonterías) siguen teniendo relevancia.

En conjunto, estas tendencias reflejan una evolución desde aplicaciones centradas en tareas específicas o de productividad hacia aplicaciones de bienestar, auto-gestión y apoyo emocional, lo que tiene implicaciones tanto para educadores como para diseñadores de tecnología y políticas públicas.

La IA en 2026: predicciones de analistas y consultoras

Grothaus, Michael. «What Will AI Look Like in 2026? Deloitte, Gartner, Perplexity, and OpenAI Weigh In.» Fast Company, 10 de diciembre de 2024. https://www.fastcompany.com/91454789/2026-ai-deloitte-gartner-perplexity-chatgpt.

En 2025, la inteligencia artificial (IA) —especialmente modelos como ChatGPT y herramientas como Perplexity y Google Gemini— atravesó una etapa de adopción masiva, con cientos de millones de usuarios interactuando semanalmente con sistemas de generación de texto y respuestas. Con 2026 apenas comenzando, expertos de la industria y firmas consultoras han compartido sus previsiones sobre cómo evolucionará la influencia de la IA en tecnología, negocios y sociedad en general.

Uno de los puntos optimistas viene de analistas como Dan Ives de Wedbush, quien afirma que las preocupaciones sobre una “burbuja de IA” están exageradas. Según él, la revolución de la IA apenas empieza y se espera que continúe impulsando el crecimiento del mercado tecnológico durante toda la década, especialmente con la expansión de la automatización y los robots, así como con la adopción empresarial y global de estas soluciones. En su opinión, 2026 será solo el tercer año de un ciclo de diez años de desarrollo y crecimiento sostenido.

No todas las proyecciones son igualmente entusiastas. Gartner advierte sobre un efecto secundario cultural de la creciente dependencia en chatbots y sistemas de IA: una posible “atrofia del pensamiento crítico”. La firma predice que muchas organizaciones podrían confiar demasiado en las respuestas generadas automáticamente por IA, reduciendo la capacidad de evaluar información de forma independiente. Con esta preocupación, Gartner sugiere que hasta la mitad de las organizaciones puedan introducir evaluaciones de habilidades sin IA para contrarrestar esta tendencia.

Otro cambio significativo que se anticipa es la integración más profunda de la IA generativa en herramientas cotidianas, especialmente los motores de búsqueda. Según Deloitte, el uso de IA incrustada directamente en buscadores o aplicaciones populares será mucho más común que el acceso a chatbots independientes. Se proyecta que, a medida que los motores de búsqueda incorporen capacidades de síntesis de lenguaje natural, estas funciones integradas serán utilizadas al menos tres veces más que plataformas de IA aisladas como sitios web de chatbots. Esto podría transformar cómo las personas buscan y procesan información digital en su vida diaria.

En conjunto, estas perspectivas indican que 2026 será un año de consolidación y expansión para la IA, con impactos importantes en mercados financieros, habilidades laborales, comportamiento de los usuarios y arquitectura de las herramientas digitales. La IA no solo seguirá siendo un tema dominante en tecnología, sino que también planteará nuevos desafíos sociales y culturales sobre cómo interactuamos con la información y las máquinas.

Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.

¿Qué está pasando con la lectura? Para muchas personas la IA podría estar poniendo fin a la era del texto tradicional.

Rothman, Joshua. “What’s Happening to Reading?The New Yorker, junio, 2025. https://www.newyorker.com/culture/open-questions/whats-happening-to-reading

El ensayo reflexiona sobre cómo ha cambiado radicalmente la experiencia de la lectura en la era digital. Durante décadas, leer un libro —práctica sostenida y profunda— era una actividad relativamente constante. Sin embargo, la omnipresencia de los teléfonos inteligentes, la diversidad de contenidos y la velocidad de la información han fragmentado ese acto. La lectura intensa, entendida como el seguimiento paciente y reflexivo de un texto, ya no es lo habitual; en su lugar, predomina una lectura dispersa, alternando entre distintos formatos, plataformas y dispositivos.

Hoy, leer implica interactuar con múltiples medios: libros impresos o digitales, audiolibros, blogs, redes sociales y mensajes breves. Este cambio ha creado una lectura que es a la vez dispersa y concentrada: difusa en su distribución, pero intensamente personalizada en su consumo. La competencia de otros entretenimientos —series, videojuegos, podcasts o videos— reduce la disponibilidad de tiempo y concentración para la lectura profunda, modificando la manera en que los lectores se relacionan con los textos.

El ensayo también aborda el impacto de la inteligencia artificial. Con herramientas capaces de resumir, condensar o reformular textos, la lectura se convierte en una experiencia modular y pragmática. Muchos lectores podrían depender de versiones abreviadas o reinterpretadas generadas por máquinas, lo que podría desplazar el hábito de enfrentarse directamente a la obra original. Esto redefine lo que significa leer, privilegiando la eficiencia y la utilidad sobre la comprensión profunda y sostenida.

Finalmente, se reflexiona sobre las consecuencias culturales de estos cambios. La lectura tradicional podría convertirse en una práctica minoritaria, apreciada por unos pocos, mientras que la mayoría interactúa con textos a través de formatos asistidos por IA o simplificados. La lectura no desaparece, pero su naturaleza y propósito se transforman: deja de ser un ejercicio de concentración y pensamiento crítico para convertirse en una práctica más flexible, inmediata y mediada por la tecnología.

Inteligencia artificial y huella ambiental

Crownhart, Casey. “In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, 21 ago. 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy/

Un análisis basado en un informe técnico de Google que desglosa, por primera vez con detalle, la huella ambiental de las consultas al sistema de inteligencia artificial Gemini.

Google reveló que una consulta de texto típica —evaluada por la mediana de uso, es decir, aquella que se sitúa en el centro de la distribución de todos los prompts— consume aproximadamente 0,24 vatios-hora (Wh) de electricidad, genera cerca de 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y requiere alrededor de 0,26 mililitros de agua, lo que equivale a unas cinco gotas. Para ponerlo en perspectiva cotidiana, la compañía equiparó esa cifra energética con la que emplea encender una televisión durante menos de nueve segundos. Estas métricas son parte de una metodología “full stack” desarrollada por Google, que intenta medir no solo el consumo directo de los procesadores de IA, sino también el uso de energía en sistemas auxiliares, memoria, infraestructura en reposo y refrigeración.

Google además destacó que la eficiencia de Gemini ha mejorado de forma dramática en el último año: desde mayo de 2024 hasta mayo de 2025, el consumo energético por consulta se redujo 33 veces y la huella de carbono se redujo 44 veces, mientras que, paralelamente, la calidad de las respuestas del modelo fue incrementándose. Estos avances se atribuyen a mejoras tanto de software —optimización de los modelos y algoritmos— como de hardware e infraestructura en los centros de datos de Google. La divulgación de estos datos se presenta como un paso hacia una mayor transparencia en el sector tecnológico, dada la creciente preocupación global por el impacto ambiental de los grandes modelos de IA y el uso masivo de energía de los centros de datos que los soportan.

Sin embargo, este enfoque también ha generado debate entre expertos ambientales. Algunos especialistas señalan que las cifras oficiales de Google, aunque impresionantes, pueden quedar cortas si no consideran factores indirectos más amplios, como la energía consumida por la generación eléctrica o el impacto del entrenamiento de los modelos a gran escala, que históricamente ha requerido volúmenes de energía y recursos muchísimo mayores que la inferencia diaria. Además, la extrapolación del consumo por prompt individual a escala global —con miles de millones de interacciones diarias— subraya que incluso pequeños valores por consulta pueden traducirse en una carga energética significativa cuando se multiplican por volumen de uso. Estas discusiones ponen de relieve la complejidad de medir con precisión el impacto ecológico de las tecnologías de IA y la necesidad de métricas estandarizadas en toda la industria.

De la IA a los chips: las grandes tecnológicas están consiguiendo lo que quieren de Trump.

Kang, Cecilia. New York Times. “From AI to Chips, Big Tech Is Getting What It Wants From Trump.The New York Times, 28 de diciembre de 2025. https://www.nytimes.com/2025/12/28/technology/tech-trump.html

Donald Trump ha impulsado políticas favorables a las grandes empresas tecnológicas, particularmente en el contexto de la inteligencia artificial (IA) y los semiconductores.

En un contexto en que las políticas tecnológicas de Estados Unidos ocupan un papel central en la agenda política de 2025, el New York Times describe cómo la administración de Donald Trump ha implementado decisiones que favorecen ampliamente a las grandes empresas tecnológicas (Big Tech) en temas clave como inteligencia artificial (IA) y semiconductores. Aunque Trump llegó al poder con promesas de dinamizar la economía y restablecer la competitividad nacional, muchas de sus acciones han coincidido con las demandas y prioridades estratégicas de compañías como Nvidia, Google, Meta y otras, consolidando una alianza práctica entre el gobierno y el sector tecnológico que ha desbloqueado políticas regulatorias, cambios en comercio internacional y promoción de inversiones en infraestructura tecnológica.

Según la cobertura disponible, Trump ha eliminado o debilitado diversas restricciones a la exportación de chips semiconductores avanzados, como los fabricados por Nvidia, y ha promovido la expansión de la infraestructura tecnológica —incluidos centros de datos y producción de chips— con el argumento de mantener la competitividad estadounidense en la carrera global por la IA. Estos movimientos reflejan una clara alineación con las prioridades de Silicon Valley y otros gigantes tecnológicos, que han visto beneficios en la reducción de regulaciones y la apertura de mercados internacionales

Uno de los elementos más destacados de esta relación es la revocación o debilitación de restricciones que limitaban la exportación de chips avanzados y la regulación de tecnologías emergentes. La administración ha eliminado barreras regulatorias, acelerado la construcción de centros de datos y aprobado la venta de chips de IA más potentes en mercados sensibles, como China, medidas que muchos ejecutivos tecnológicos consideran esenciales para mantener la dominancia global de la industria estadounidense en IA y hardware. Esto se ha logrado tras esfuerzos coordinados entre líderes del sector y altos funcionarios de la Casa Blanca, que integran a la industria en posiciones de influencia técnica y política.

Además, el gobierno ha emitido órdenes ejecutivas y desarrollado un “AI Action Plan” nacional, orientado a impulsar la innovación de IA eliminando lo que Trump y sus asesores consideran barreras burocráticas y políticas que podrían frenar la competitividad de Estados Unidos frente a rivales como China. Estas políticas priorizan la expansión de la infraestructura tecnológica, la expansión de exportaciones y la coordinación federal única de normativas, reduciendo el papel de regulaciones estatales y enfocando el crecimiento en un marco de mercado libre que favorece a los grandes actores establecidos. Si bien estas medidas han sido aplaudidas por sectores empresariales como impulsores del crecimiento económico, también han generado críticas desde sectores que advierten sobre riesgos de falta de regulación, concentración de poder corporativo y posibles impactos negativos en la protección de derechos y seguridad pública.

Aulas inteligentes: experiencias y propuestas educativas con IA y herramientas digitales.

Palacios, Solangel Materón, María Naranjo-Crespo y Miguel Valdivia Pinto, eds. Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales. Barquisimeto, Venezuela: Fondo Editorial Red Holos XXI, 2025

Texto completo

Aulas Inteligentes: Experiencias y propuestas educativas con IA y herramientas digitales es una obra colectiva que invita a repensar críticamente la educación en el marco de la transformación digital contemporánea. El libro articula experiencias y propuestas pedagógicas que conciben la inteligencia artificial y las herramientas digitales como mediaciones al servicio del aprendizaje, la reflexión docente y la formación integral. A través de investigaciones, experiencias situadas y marcos metodológicos diversos, los capítulos evidencian cómo la planificación, la investigación formativa, el currículo y la práctica pedagógica pueden enriquecerse cuando la tecnología dialoga con principios éticos, pedagógicos y humanistas sólidos.

La obra destaca por su pluralidad de voces y contextos, abarcando desde la educación superior hasta la educación primaria, así como campos como la formación docente, la investigación cualitativa, la neurodidáctica y la educación médica. En su conjunto, el libro no solo muestra usos innovadores de la IA, sino que problematiza sus tensiones —autoría, citación académica, ética y toma de decisiones—, reafirmando que la verdadera inteligencia del aula reside en la capacidad de los educadores para diseñar experiencias significativas, reflexivas y responsables. En este sentido, Aulas Inteligentes se consolida como un referente para docentes e investigadores que buscan integrar la tecnología sin renunciar al sentido profundamente humano de la educación.

Un 21% del contenido recomendado a usuarios en YouTube es contenido basura generado por IA

PCMag. “Over 21 % of YouTube Is Now AI Slop, Says Report.” PCMag, 29 de diciembre de 2025. https://www.pcmag.com/news/over-21-of-youtube-is-now-ai-slop-says-report?utm_source=flipboard&utm_content=user%2FPCMag

Más de 21 % de los vídeos recomendados a nuevos usuarios en YouTube son contenido de baja calidad generado por IA, conocido como AI slop, según un informe de Kapwing.

Un nuevo informe del sitio de análisis tecnológico Kapwing revela que más de uno de cada cinco videos que aparecen en las recomendaciones de YouTube para nuevos usuarios es “AI slop”, es decir, contenido generado por inteligencia artificial de baja calidad diseñado para obtener visualizaciones y suscripciones sin aportar valor real al espectador. Para medirlo, los investigadores crearon una cuenta nueva en la plataforma y analizaron los primeros 500 videos en el feed de YouTube Shorts, encontrando que alrededor del 21 % de ese contenido estaba compuesto por videos generados automáticamente, mientras que otro 33 % entraba en la categoría más amplia de “brainrot”, contenido trivial o repetitivo que persigue la atención del usuario.

El estudio también examinó 15 000 de los canales más populares en YouTube (los 100 principales en cada país) y determinó que 278 canales publican exclusivamente contenido AI slop. Estos canales, aunque de baja calidad en términos de aporte creativo o informativo, han acumulado decenas de miles de millones de visualizaciones y cientos de millones de suscriptores en total, generando ingresos estimados en decenas de millones de dólares al año.

Geográficamente, la presencia de “AI slop” es global: algunas regiones como España lideran el número de suscriptores de este tipo de canales, mientras que países como Corea del Sur o Pakistán registran cifras extraordinarias de visualizaciones de videos generados por IA. Estos hallazgos han encendido el debate sobre la calidad del contenido en plataformas dominadas por algoritmos de recomendación, así como las implicaciones para creadores humanos y la experiencia de los usuarios, especialmente cuando dichos sistemas priorizan volumen e interacción sobre contenido útil o auténtico.

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.