Archivo de la etiqueta: Inteligencia artificial

Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas

LOPEZOSA, Carlos. Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas. Informe. Universitat de Barcelona, 2026. Consulta del 12 de enero de 2026. https://hdl.handle.net/2445/225202

Texto completo

Se analiza cómo la inteligencia artificial (IA) está transformando y puede seguir transformando los procesos técnicos dentro de las bibliotecas y centros de documentación. El estudio se centra en profundizar en los fundamentos conceptuales de la IA, sus aplicaciones principales y los desafíos que plantea su adopción responsable en contextos bibliotecarios.

El informe analiza el impacto creciente de la inteligencia artificial en las bibliotecas, centrándose especialmente en los procesos técnicos tradicionales. Parte de la idea de que la IA, y en particular los modelos de lenguaje de gran tamaño, ya forman parte del ecosistema informacional y están modificando de manera profunda la forma en que se gestionan, describen y organizan los recursos documentales. El texto ofrece una aproximación clara a los fundamentos conceptuales de la IA, explicando su funcionamiento general y su relevancia para el ámbito bibliotecario y documental.

A lo largo del trabajo se examinan las principales aplicaciones prácticas de la inteligencia artificial en tareas como la catalogación, la gestión y normalización de metadatos y el enriquecimiento semántico de los registros bibliográficos. El autor muestra cómo estas tecnologías permiten automatizar procesos repetitivos, detectar inconsistencias y mejorar la calidad descriptiva de los fondos, lo que repercute directamente en una mejor recuperación de la información. No obstante, se insiste en que la IA debe entenderse como una herramienta de apoyo y no como un sustituto del criterio profesional del personal bibliotecario.

El documento también aborda la integración de la IA en los flujos de trabajo técnicos, destacando su utilidad como sistema de asistencia avanzada para el análisis de datos, la generación de informes y la toma de decisiones técnicas. Desde esta perspectiva, la inteligencia artificial se presenta como un recurso estratégico que puede aumentar la eficiencia y liberar tiempo para tareas de mayor valor intelectual, siempre que exista una supervisión humana adecuada.

Un apartado relevante del estudio está dedicado a los retos éticos, legales y organizativos que plantea el uso de la IA en bibliotecas. Se analizan cuestiones como la protección de datos personales, la seguridad de la información y el riesgo de sesgos algorítmicos, subrayando la necesidad de una evaluación crítica y continua de estas herramientas. El texto advierte sobre los peligros de una dependencia tecnológica excesiva y reclama políticas claras que garanticen un uso responsable, transparente y alineado con los valores profesionales de la biblioteconomía.

Como conclusión, el informe propone un modelo de adopción híbrida de la inteligencia artificial, en el que la tecnología complementa el trabajo humano sin sustituirlo. Se defiende una incorporación progresiva y reflexiva de la IA en los procesos técnicos bibliotecarios, basada en la formación del personal, la supervisión ética y la adaptación a las necesidades reales de cada institución. De este modo, la IA se concibe como un instrumento para mejorar la calidad del servicio bibliotecario y reforzar su papel en la gestión del conocimiento en la era digital.

Inteligencia artificial generativa: buenas prácticas docentes en educación superior

Vivas Urias, María Dolores, y María Auxiliadora Ruiz Rosillo, eds. Inteligencia artificial generativa: Buenas prácticas docentes en educación superior. Barcelona: Octaedro, 2025. ISBN 978‑84‑10282‑57‑5.

Texto completo

El libro ofrece una visión amplia y práctica de cómo la inteligencia artificial generativa (IAG) está transformando la educación superior, mostrando experiencias reales de innovación docente desarrolladas en la Universidad Alfonso X el Sabio durante el curso 2023‑2024. A través de múltiples aportes, el texto examina la manera en que estas herramientas no solo apoyan la creación de contenidos educativos, sino que también replantean la pedagogía y la evaluación.

El primer bloque del libro se centra en el papel de la IAG en la alfabetización digital y en el diseño pedagógico, explorando cómo los docentes pueden integrar estas tecnologías para potenciar la enseñanza y reducir incertidumbres en proyectos complejos como trabajos de fin de estudios. Se analizan ejemplos concretos como concursos de creación artística o generación automática de materiales de autoevaluación, destacando tanto oportunidades como desafíos éticos.

Otros capítulos muestran casos de uso específicos en materias como ciencias sociales, biotecnología o farmacología, donde la generación de contenidos y la gamificación asistida por IA facilitan procesos de enseñanza más dinámicos y adaptados a los estudiantes. Además, se aborda la evaluación de competencias con rúbricas enriquecidas por IA y estrategias para fomentar el pensamiento crítico en los futuros profesionales.

Finalmente, la obra no se limita a presentar herramientas, sino que también reflexiona sobre el uso ético y responsable de la IAG por parte de la comunidad educativa. Pone de relieve la necesidad de formación docente, la adaptación de metodologías y la convivencia entre creatividad humana y automatización inteligente, con el objetivo de maximizar el aprendizaje sin perder de vista valores formativos esenciales.

El impacto de la IA en la comunicación académica, informes sobre la aparición de «revistas imaginarias» hasta el punto de crear revistas y citas fantásticas

Linacre, Simon. 2026. “Land of Make Believe.” Cabells Blog, 7 de enero de 2026. https://blog.cabells.com/2026/01/07/land-of-make-believe/

A finales de 2025 empezaron a surgir informes sobre algo que han llamado revistas imaginarias. La IA generativa puede “alucinar”, es decir, inventar hechos o datos presentándolos como reales, pero que llegue al punto de generar títulos de revistas y citas que no existen en absoluto ha sorprendido a muchos.

Se han detectado referencias a publicaciones que nunca han existido en trabajos académicos. Estamos acostumbrados a las revistas falsas o depredadoras, pero estos nuevos títulos sólo aparecen en bibliografías generadas por IA, sin rastro real de su existencia.

Además, también se han encontrado artículos atribuidos a autores que no existen. Incluso algunos de estos textos se han presentado a revistas legítimas. Esto podría formar parte de pruebas para evaluar sistemas de revisión o detección de plagio, aunque también podría responder a fines más oscuros.

Aunque suene sorprendente, la aparición de artículos completamente generados por IA está alterando las normas tradicionales de la investigación y la publicación académica. Muchos repositorios de preprints han tenido que restringir envíos ante el aumento de trabajos de baja calidad generados por IA.

El impacto podría ser serio: si se difunden investigaciones inventadas y otros investigadores las citan o usan como referencia, el daño se propaga rápidamente. Incluso se han visto casos en los que artículos falsos han sido citados decenas de veces, sin que los autores supieran que su nombre aparecía en esos documentos.

Frente a esta situación, las fuentes verificadas de publicaciones científicas se vuelven más importantes a medida que el uso de IA se expande. Las fronteras entre investigación humana, híbrida o generada exclusivamente por IA se están desdibujando, con implicaciones profundas para editores, autores, instituciones y financiadores.

Ética de la inteligencia artificial: consideraciones fundamentales para bibliotecas universitarias

Hart, Brandi. 2025. “Keeping Up With… AI Ethics.Association of College and Research Libraries. American Library Association. https://www.ala.org/acrl/publications/keeping_up_with/ai_ethics

El texto aborda la creciente presencia de la inteligencia artificial en el ámbito de la educación superior y, en particular, en las bibliotecas académicas, subrayando la necesidad de reflexionar sobre sus implicaciones éticas.

La Inteligencia Artificial (IA) se ha integrado cada vez más en casi todas las facetas de la vida, lo que plantea numerosos problemas éticos urgentes en relación con su diseño y uso, así como sus impactos en la sociedad y el medio ambiente. Si bien la IA, el campo científico dedicado a crear sistemas que puedan igualar el rendimiento humano (realizar acciones que un ser humano puede realizar), existe desde la década de 1950, el lanzamiento público de la herramienta de IA generativa ChatGPT en noviembre de 2022 y su comercialización acelerada desde entonces la han situado en el centro de la concienciación y la preocupación pública.

Dada su capacidad para generar contenido que antes solo se creaba mediante la inteligencia humana, la IA generativa también ha tenido un gran impacto en la educación superior, las bibliotecas académicas y la investigación académica. Por lo tanto, este artículo presenta algunos de los aspectos fundamentales de la ética de la IA que los bibliotecarios académicos deben comprender como necesarios para fundamentar sus decisiones individuales e institucionales sobre la adopción o el uso de la IA, la formación y las políticas, a fin de evitar perjuicios éticos, dada la naturaleza disruptiva de la IA como tecnología sin precedentes.

¿Qué es la ética de la IA?

La ética de la IA aborda las cuestiones éticas de la IA, incluidas qué normas morales se deben codificar en la IA para intentar que sea segura (alineación), qué constituye usos moralmente buenos y moralmente malos de la IA a nivel social (gobernanza, políticas, leyes) y a nivel individual, y las consecuencias éticas y el daño de la IA ya sea por su diseño o por cómo se utiliza. La ética de la IA aborda ampliamente:

  1. Cuestiones éticas derivadas de las características de la IA (p. ej., problemas de privacidad, ya que la IA depende de datos personales para su entrenamiento).
  2. Cuestiones éticas derivadas de cómo los humanos deciden usar la IA (p. ej., la definición de estándares éticos para un uso responsable de la IA frente a su uso para perjudicarse mutuamente).
  3. El impacto social y ambiental de las cuestiones éticas de la IA (p. ej., el uso de la automatización de la IA para sustituir el trabajo humano). [2]

Dado que este breve artículo no puede abordar todas las cuestiones de la ética de la IA, hay que centrarse en el uso ético de la IA (no en su diseño ético) en función de cada categoría:

  1. Las cuestiones éticas que surgen de la naturaleza de la IA como una forma de agencia sin precedentes. A saber, la erosión de los principios fundamentales de la dignidad humana debido al uso de la IA.
  2. Los casos de uso ético de la IA (el bueno, el malo y el uso excesivo) para guiar su uso.
  3. El daño social y ambiental causado por el uso excesivo irresponsable de la IA.

(A menos que se especifique lo contrario, «IA» se referirá a la IA generativa en la siguiente sección, dado que es la forma predominante de IA utilizada en las bibliotecas académicas).

La IA es agencia sin inteligencia.

La IA abarca una variedad de sistemas, algoritmos y modelos que destacan en la realización de tareas en áreas específicas con metas y objetivos claros. Sin embargo, la IA solo «imita el pensamiento y el razonamiento»; por lo tanto, no es inteligente. De hecho, la IA es simplemente una forma sin precedentes de agencia (la capacidad de actuar, interactuar con y manipular el mundo físico) que carece de inteligencia (la capacidad de pensar racionalmente).[4]

Por diseño, la IA es incapaz de comprender; no puede discernir el bien del mal, la verdad de la falsedad, la realidad de la invención, ni otros conceptos que requieren inteligencia. De hecho, la IA simplemente los ignora por completo. Debido a su propia naturaleza, la IA a menudo «alucina» o genera información falsa que presenta como un hecho. De igual manera, su capacidad para producir contenido de forma automática y rápida con una «personalización sin precedentes» y un «poder predictivo» nos hace sobreestimar considerablemente sus capacidades y pasar por alto sus defectos.

Agencia Humana, Inteligencia y Responsabilidad

La capacidad generalizada de la IA para moldear sutilmente nuestros pensamientos y acciones «predeterminados por algoritmos subyacentes» está oculta y está llevando a muchas personas a renunciar a parte de su autonomía humana sin darse cuenta. Por lo tanto, es esencial que protejamos nuestros principios fundamentales de dignidad humana: agencia: lo que podemos hacer; capacidad: lo que podemos lograr; autorrealización: en quiénes podemos convertirnos; y cuidado: cómo nos tratamos unos a otros (conexión) y a nuestro entorno. La erosión de estos principios no solo conduce a la desigualdad social y económica, sino que también amenaza con limitar aquello que nos hace humanos.

Desafortunadamente, esto ya ha sucedido, como lo demuestran las empresas con ánimo de lucro, atraídas por la «eficiencia» de la IA, que han optado por reemplazar los empleos de muchas personas con la automatización de la IA, devaluando así su inteligencia, experiencia, habilidades y creatividad, y provocando desempleo y subempleo. A nivel individual, considere cuánto se vinculan la identidad personal, la autoestima y las aspiraciones de vida con el trabajo, y cuán negativamente afecta esta valoración de la agencia artificial sobre la agencia humana a las personas a nivel personal, social y económico.

Prioridades de la comunidad global para la IA agencial en la investigación

Research Data Alliance, “Global community priorities for agentic AI in research: Consultation results available,” Research Data Alliance, Jan. 8, 2026. [Online]. Available:

Texto completo

Research Data Alliance (RDA) ha publicado los resultados de una consulta global dirigida a identificar las prioridades de la comunidad investigadora respecto al uso de la IA agente —es decir, sistemas de inteligencia artificial capaces de operar con un alto grado de autonomía y mínima supervisión humana— a lo largo del ciclo de la investigación científica.

Esta consulta, abierta desde noviembre de 2025 y sin requerir experiencia previa en IA, combinó cuatro sesiones informativas online con una encuesta anónima de 15 minutos en la que participaron 83 personas de diversos perfiles y regiones. La iniciativa buscaba comprender cómo se está utilizando actualmente la IA agente en la investigación y qué herramientas autónomas podrían aportar más valor en tareas como planificación, búsqueda de información, gestión de datos, financiación, publicación e impacto.

De los 11 posibles agentes inteligentes propuestos, tres herramientas surgieron como prioridades claras para la comunidad global de investigación.

  1. Literature Librarian, se plantea como un asistente capaz de buscar literatura científica mediante consultas en lenguaje natural integradas con suscripciones de bibliotecas, facilitando y acelerando la revisión de antecedentes y la exploración bibliográfica.
  2. Data Director obtuvo alta valoración por su potencial para apoyar la preparación y el intercambio de datos de investigación conforme a los principios FAIR (Findable, Accessible, Interoperable, Reusable), lo que podría mejorar la calidad, disponibilidad y reutilización de los datos científicos.
  3. Funding Finder, propone una herramienta que identifique oportunidades de financiación relevantes y apoye la preparación de solicitudes, ayudando a investigadores y equipos a acceder a recursos financieros con mayor eficiencia.

Estos tres agentes se destacaron de manera consistente tanto en análisis por región como por tipo de participante.. Más allá de las prioridades concretas, los participantes expresaron una visión matizada y ambivalente sobre el futuro de la IA agente en la investigación, reconociendo tanto sus beneficios potenciales como los retos éticos, organizativos y técnicos que supone su adopción generalizada. Los resultados de la consulta serán utilizados por la RDA como base para avanzar en 2026 en el desarrollo colaborativo de un marco de referencia abierto y tecnológicamente agnóstico para al menos una herramienta prioritaria de IA agente, asegurando que este trabajo futuro se alinee con los principios y el marco de actuación de la organización y refleje las necesidades de la comunidad investigadora global.

La IA y el problema de la retractación de artículos científicos

Worlock, David. 2026. AI and the Issue of Science Article Retraction.” DavidWorlock.com, 6 de enero de 2026. https://www.davidworlock.com/2026/01/ai-and-the-issue-of-science-article-retraction/

Se ofrece una reflexión crítica sobre los desafíos que la inteligencia artificial (IA) plantea al sistema de publicación científica, especialmente en lo referente a la integridad del registro científico y el proceso de retractación de artículos académicos.

Worlock parte de una observación fundamental: aunque la IA está transformando profundamente la creación, difusión y análisis de conocimiento, muchos de los problemas estructurales que afectan a la ciencia —como la proliferación de artículos defectuosos, revisiones por pares ineficaces o la falta de mecanismos eficaces para gestionar retractaciones— no se resolverán simplemente mediante la automatización o la adopción de nuevas herramientas tecnológicas.

El autor contextualiza el tema en un contexto más amplio de crisis de confianza en las publicaciones científicas. Señala que la incapacidad del sistema para proporcionar estándares claros y verificables de calidad y autenticidad ha permitido que proliferan trabajos de mala calidad o incluso fraudulentos, muchos de los cuales permanecen en la literatura científica sin una retractación adecuada. Este problema no se limita a casos aislados, sino que forma parte de un sistema que continúa replicando y amplificando errores debido a la presión por publicar y a la ausencia de una infraestructura de retractación centralizada y transparente.

Worlock también examina el rol de la IA en este contexto. Aunque los sistemas de IA tienen la capacidad de procesar grandes volúmenes de información, Worlock advierte que la IA no sustituye la evaluación crítica humana y que los algoritmos pueden incluso exacerbar algunos de los problemas existentes si se utilizan sin criterio. Por ejemplo, las IA pueden integrar contenido repleto de errores metodológicos o datos falsos como si fuera válido, ya que carecen de un juicio epistemológico real para discernir la calidad científica, un reto que otros expertos han también identificado recientemente como un riesgo serio para la confianza en la literatura científica automatizada.

Además, el artículo subraya la importancia de reforzar los mecanismos de retractación. Worlock plantea que la mera existencia de retractaciones no basta si estas no son accesibles, claras y eficientemente comunicadas, algo que muchos investigadores experimentan cuando intentan rastrear qué artículos han sido retirados y por qué. El problema, según él y otros especialistas, radica en que las retractaciones a menudo no están bien etiquetadas ni se integran en los flujos de datos primarios que usan los motores de búsqueda, las bases de datos académicas y los propios sistemas de entrenamiento de modelos de IA.

Una vez que se introducen datos en el modelo de formación de un LLM, no se pueden eliminar. No quiero escribir aquí sobre los actos de piratería cometidos por los actores de la IA de Silicon Valley al retirar masivamente artículos académicos de sitios web a menudo pirateados e ilegales. Sin duda, esos datos incluían artículos retractados que nunca se habían eliminado ni etiquetado como retractados en línea. De hecho, en el mundo anterior a la IA, una de las quejas sobre la búsqueda de artículos académicos era que los artículos retractados rara vez eran evidentes. Solo en épocas más recientes, Retraction Watch y Open Alex comenzaron a señalar qué datos no eran confiables en las bases de datos académicas. En otras palabras, fue la comunidad académica y sin fines de lucro la que acudió al rescate, no el sector editorial con fines de lucro. Se podría considerar cómo podríamos construir modelos más efectivos y precisos en el futuro y cómo podríamos asegurarnos de que el material retractado no se incluya en ellos.

En esencia, Worlock llama a una reforma profunda del ecosistema de publicación científica, donde la IA se utilice no como sustituto de la evaluación humana, sino como complemento que apoye una mayor transparencia, responsabilidad y calidad en la ciencia publicada. Su análisis enfatiza que los avances tecnológicos deben ir acompañados de estructuras éticas y metodológicas que preserven la integridad del registro científico y protejan la confianza pública en la investigación académica.

Chatbots para los servicios de referencia en bibliotecas universitarias: aplicaciones, tendencias y desafíos éticos

Liu, Guoying, y Shu Liu. 2026. “Chatbots for Reference Services in Academic Libraries: Applications and Trends.” The Journal of Academic Librarianship 52: 103197. https://doi.org/10.1016/j.acalib.2025.103197

El artículo analiza la adopción y el funcionamiento de los chatbots en los servicios de referencia de bibliotecas universitarias a nivel mundial, en un contexto de transformación digital y creciente incorporación de la inteligencia artificial en el ámbito bibliotecario. A través de un estudio comparativo, las autoras examinan tanto sistemas basados en reglas como chatbots impulsados por IA, con el objetivo de identificar tendencias, capacidades tecnológicas y prácticas éticas en su implementación.

La investigación se apoya en un diseño metodológico en dos fases. En primer lugar, se realiza un escaneo ambiental de 205 instituciones académicas de referencia —incluyendo universidades del ranking QS, instituciones chinas de “Doble Primera Clase”, bibliotecas canadienses de investigación y casos destacados en Estados Unidos—, de las cuales solo 31 contaban con chatbots funcionales y accesibles al público. En una segunda fase, estos chatbots fueron evaluados mediante consultas estandarizadas que permitieron analizar su rendimiento en servicios básicos, recuperación de información, recomendaciones complejas y experiencia de usuario.

Los resultados muestran una adopción global limitada de chatbots en bibliotecas universitarias(15 %), con notables diferencias regionales. Mientras que China continental presenta tasas de implantación significativamente más altas, la adopción en América del Norte sigue siendo baja, pese a la abundante literatura sobre casos piloto. La mayoría de los sistemas analizados son chatbots híbridos o basados en IA generativa, capaces de manejar consultas rutinarias con eficacia, aunque presentan dificultades en tareas más complejas como la recuperación semántica avanzada o la generación de recomendaciones contextualizadas.

El estudio también pone de relieve importantes carencias en materia de transparencia y ética. Solo una minoría de los chatbots informa explícitamente sobre políticas de privacidad o el uso de datos, lo que plantea riesgos para la confianza del usuario y la responsabilidad institucional. Las autoras concluyen que, aunque los chatbots ofrecen un notable potencial para ampliar y mejorar los servicios de referencia, su desarrollo futuro debe apoyarse en estándares compartidos, una mejor integración con los sistemas bibliotecarios y un compromiso más firme con los principios de transparencia, inclusión y gobernanza ética.

Cómo utiliza la gente la IA generativa en 2025

Eliot, Lance. “HBR’s Top 10 Uses of AI Puts Therapy and Companionship at the No. 1 Spot.Forbes, May 14, 2025. https://www.forbes.com/sites/lanceeliot/2025/05/14/top-ten-uses-of-ai-puts-therapy-and-companionship-at-the-1-spot/?utm_source=chatgpt.com

El infirme visualiza los principales usos que las personas están dando a la inteligencia artificial generativa en 2025, según un análisis de miles de publicaciones en foros recogido por Harvard Business Review y presentado por Marc Zao-Sanders. La IA generativa experimenta un giro hacia usos más centrados en las personas.

Las tareas tradicionales como generar ideas o búsquedas específicas han sido desplazadas por usos más personales y orientados al bienestar, destacando que la primera posición la ocupa “Therapy & Companionship” (terapia y compañía). Esto indica que muchas personas están recurriendo a la IA no solo como herramienta productiva, sino como apoyo emocional o interlocución constante.

En los nuevos rankings aparecen casos de uso inéditos como “Organize Life” (organizar la vida) y “Find Purpose” (encontrar propósito), posicionándose en segundo y tercer lugar, respectivamente. Estas categorías reflejan que la IA se está integrando en aspectos cotidianos y existenciales de la vida de las personas, ayudando en planificación, reflexión y toma de decisiones personales.

Además, otros usos como “Enhance Learning” (mejorar el aprendizaje) han subido posiciones, lo que sugiere una mayor adopción de la IA para profundizar en comprensión y educación. Usos técnicos como generar código también siguen presentes, aunque más abajo, y categorías lúdicas o creativas como fun & nonsense (diversión y tonterías) siguen teniendo relevancia.

En conjunto, estas tendencias reflejan una evolución desde aplicaciones centradas en tareas específicas o de productividad hacia aplicaciones de bienestar, auto-gestión y apoyo emocional, lo que tiene implicaciones tanto para educadores como para diseñadores de tecnología y políticas públicas.

La IA en 2026: predicciones de analistas y consultoras

Grothaus, Michael. «What Will AI Look Like in 2026? Deloitte, Gartner, Perplexity, and OpenAI Weigh In.» Fast Company, 10 de diciembre de 2024. https://www.fastcompany.com/91454789/2026-ai-deloitte-gartner-perplexity-chatgpt.

En 2025, la inteligencia artificial (IA) —especialmente modelos como ChatGPT y herramientas como Perplexity y Google Gemini— atravesó una etapa de adopción masiva, con cientos de millones de usuarios interactuando semanalmente con sistemas de generación de texto y respuestas. Con 2026 apenas comenzando, expertos de la industria y firmas consultoras han compartido sus previsiones sobre cómo evolucionará la influencia de la IA en tecnología, negocios y sociedad en general.

Uno de los puntos optimistas viene de analistas como Dan Ives de Wedbush, quien afirma que las preocupaciones sobre una “burbuja de IA” están exageradas. Según él, la revolución de la IA apenas empieza y se espera que continúe impulsando el crecimiento del mercado tecnológico durante toda la década, especialmente con la expansión de la automatización y los robots, así como con la adopción empresarial y global de estas soluciones. En su opinión, 2026 será solo el tercer año de un ciclo de diez años de desarrollo y crecimiento sostenido.

No todas las proyecciones son igualmente entusiastas. Gartner advierte sobre un efecto secundario cultural de la creciente dependencia en chatbots y sistemas de IA: una posible “atrofia del pensamiento crítico”. La firma predice que muchas organizaciones podrían confiar demasiado en las respuestas generadas automáticamente por IA, reduciendo la capacidad de evaluar información de forma independiente. Con esta preocupación, Gartner sugiere que hasta la mitad de las organizaciones puedan introducir evaluaciones de habilidades sin IA para contrarrestar esta tendencia.

Otro cambio significativo que se anticipa es la integración más profunda de la IA generativa en herramientas cotidianas, especialmente los motores de búsqueda. Según Deloitte, el uso de IA incrustada directamente en buscadores o aplicaciones populares será mucho más común que el acceso a chatbots independientes. Se proyecta que, a medida que los motores de búsqueda incorporen capacidades de síntesis de lenguaje natural, estas funciones integradas serán utilizadas al menos tres veces más que plataformas de IA aisladas como sitios web de chatbots. Esto podría transformar cómo las personas buscan y procesan información digital en su vida diaria.

En conjunto, estas perspectivas indican que 2026 será un año de consolidación y expansión para la IA, con impactos importantes en mercados financieros, habilidades laborales, comportamiento de los usuarios y arquitectura de las herramientas digitales. La IA no solo seguirá siendo un tema dominante en tecnología, sino que también planteará nuevos desafíos sociales y culturales sobre cómo interactuamos con la información y las máquinas.

Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.