Archivo de la etiqueta: Inteligencia artificial

La IA ya está muy presente en los flujos de trabajo de la publicación académica

Dolechek, Melanie. “AI in Scholarly Publishing — SSP Pulse Check Report.The Scholarly Kitchen (blog), 9 de enero de 2026. https://scholarlykitchen.sspnet.org/2026/01/09/ai-in-scholarly-publishing-ssp-pulse-check-report/

Texto completo

El objetivo del informe es explorar cómo las organizaciones del ámbito de la publicación académica están adoptando y respondiendo a la inteligencia artificial (IA). La encuesta, realizada entre el 1 y el 12 de diciembre de 2025 entre 563 profesionales de distintas organizaciones, revela que la IA ya está muy presente en los flujos de trabajo de la publicación académica, aplicándose principalmente en tareas relacionadas con la creación y resumen de contenidos, revisión de integridad y detección de plagio, así como en herramientas de accesibilidad y descubrimiento de contenidos.

A pesar de esta adopción generalizada, el informe subraya que la preparación institucional para gestionar el impacto de la IA sigue rezagada respecto al uso tecnológico. La mayoría de las organizaciones se encuentran en un estado de preparación parcial, con políticas, capacidades y conocimientos aún en desarrollo, lo que refleja que el entusiasmo por la IA va acompañado de incertidumbre y retos organizativos. Entre los principales obstáculos se encuentran preocupaciones éticas y legales, problemas de privacidad y seguridad de datos, y una insuficiente capacidad especializada dentro de los equipos.

Las respuestas a la encuesta muestran que la adopción de IA ya está en marcha en las organizaciones de publicación académica, y la gran mayoría reporta al menos un caso de uso activo. Las aplicaciones más comunes se centran en los flujos de trabajo relacionados con el contenido, particularmente la creación o resumen de contenido (48%) y la verificación de plagio o integridad de la investigación (43%). Estos usos reflejan áreas donde la IA puede ofrecer ganancias inmediatas de eficiencia y ampliar el soporte a los procesos editoriales existentes sin alterar fundamentalmente la autoridad en la toma de decisiones.

Las herramientas de accesibilidad y traducción (34%) y el descubrimiento de contenido (34%) también son muy relevantes, subrayando el papel creciente de la IA en mejorar el alcance, la usabilidad y la encontrabilidad del contenido académico.

Más allá de las funciones editoriales principales, las organizaciones aplican cada vez más la IA a actividades empresariales y operativas. Más de una cuarta parte de los encuestados informa que utiliza IA para marketing o interacción con clientes (27%) y para análisis de datos o previsiones (27%), lo que indica una mayor comodidad con los conocimientos generados por IA para informar estrategias y alcance de la audiencia. La asistencia en la revisión por pares o la asignación de revisores (22%) y la generación o etiquetado de metadatos (18%) aparecen como aplicaciones emergentes, pero aún no universales, lo que sugiere tanto oportunidad como cautela en áreas que interfieren más directamente con el juicio académico y el control de calidad.

De acuerdo con los datos mostrados, las categorías con mayor peso son:

  • Creación o resumen de contenido: Es la aplicación más destacada con un 48%.
  • Controles de plagio o integridad: Ocupa el segundo lugar con un 43%.
  • Descubrimiento de contenido: Representa un 34%.
  • Herramientas de accesibilidad o traducción: Empata con el descubrimiento de contenido con un 34%.
  • Marketing o compromiso del cliente: 27%.
  • Análisis de datos o pronósticos: 27%.
  • Asistencia en revisión por pares o emparejamiento de revisores: 22%.
  • Generación de metadatos o etiquetado: 18%.
  • Licencia de contenido a terceros: 13%.
  • Personalización o inteligencia predictiva: 13%.
  • Finalmente, la imagen indica que un 14% corresponde a otros usos y un 12% de los consultados no utiliza IA actualmente.

Actitudes hacia la IA

Las respuestas indican que la mayoría de las organizaciones abordan la IA con interés medido, más que con entusiasmo incondicional. La mayoría (51%) describe su postura como exploración cautelosa de oportunidades, lo que sugiere experimentación activa junto con consideración cuidadosa de riesgos, gobernanza y adecuación. Al mismo tiempo, más de un tercio de los encuestados muestra una postura fuertemente positiva hacia la IA: 19% adopta activamente e invierte en IA y 16% se identifica como adoptante entusiasta y proactivo — juntos indican un impulso significativo hacia una integración más profunda.

Solo una pequeña minoría permanece al margen o en contra. Solo el 6% reporta una postura neutral de esperar y ver, otro 6% se declara escéptico o resistente, y solo 2% evita activamente las herramientas de IA. En conjunto, estos resultados sugieren que, aunque la cautela sigue siendo dominante, la resistencia a la IA en la publicación académica es limitada y la trayectoria general apunta hacia una adopción más amplia con el tiempo.

Preparación ante la IA

Las respuestas sugieren que la mayoría de las organizaciones se sienten parcialmente preparadas para enfrentar el impacto de la IA en el próximo año. Casi la mitad (45%) reporta estar moderadamente preparada, mientras otro 27% se siente solo ligeramente preparada, lo que indica que muchas organizaciones todavía están construyendo habilidades, políticas y confianza interna. Un porcentaje menor se siente altamente preparado: 16% se describe como muy preparado y solo 3% como completamente preparado, lo que subraya lo rara que sigue siendo la sensación de preparación total. Al mismo tiempo, 9% reporta no estar preparado en absoluto, destacando la necesidad de orientación, buenas prácticas compartidas y desarrollo de capacidades en toda la comunidad.

El sondeo también identifica oportunidades importantes asociadas con la IA, entre ellas la eficiencia de los flujos de trabajo —que puede liberar tiempo para tareas de mayor valor añadido—, el fortalecimiento de la revisión por pares mediante herramientas de apoyo o asignación de revisores, y el uso de IA para reforzar la integridad y calidad de la investigación a través de la detección de plagio o de prácticas poco éticas. Asimismo, la IA se percibe como una herramienta valiosa para mejorar la descubribilidad del contenido científico y para apoyar a autores de distintas lenguas mediante traducción y servicios lingüísticos.

Barreras para la adopción de IA

Los encuestados identificaron preocupaciones legales/éticas, privacidad/seguridad y falta de experiencia/capacidad como las principales barreras para la adopción de IA.

A pesar de los altos niveles de adopción e interés en IA, las organizaciones de publicación académica todavía albergan serias preocupaciones sobre su uso en el sector. Las preocupaciones éticas o legales (63%) y los problemas de privacidad o seguridad de los datos (61%) encabezan la lista, reflejando cautela generalizada respecto a cumplimiento, propiedad intelectual y uso responsable — preocupaciones especialmente agudas en la publicación académica. La preparación organizacional también emerge como un desafío significativo, con la mitad de los encuestados (50%) citando la falta de experiencia o capacidad del personal, lo que subraya que las capacidades humanas e institucionales a menudo quedan detrás del interés tecnológico.

Consideraciones prácticas y financieras forman un segundo nivel de barreras. Restricciones presupuestarias (28%), calidad o disponibilidad de datos (25%) y un ROI o caso de negocio poco claros (25%) sugieren que muchas organizaciones todavía evalúan costos frente a beneficios inciertos. Los problemas culturales y de herramientas —como la resistencia al cambio (23%) y la falta de herramientas adecuadas (19%)— son menos dominantes pero todavía significativos. Casi todas las organizaciones reportan algún tipo de fricción al adoptar IA.

No obstante, las preocupaciones sobre los riesgos son profundas y existenciales. Muchos encuestados expresan inquietudes sobre la posibilidad de que la IA degrade la calidad y la integridad de la literatura académica, dificultando la detección de contenidos generados por IA sin rigor científico, y erosionando la confianza en el proceso de revisión por pares tradicional. También existe ansiedad sobre la falta de transparencia en el uso de IA y la autenticidad de las contribuciones cuando las herramientas automatizadas participan en la producción o evaluación de trabajos. En conjunto, estas respuestas reflejan una comunidad editorial que navega entre la oportunidad de mejorar procesos y la necesidad de proteger los valores fundamentales de la comunicación científica.

Potencial de la inteligencia artificial para acelerar el impacto de la investigación en el mundo real

Higher Education Policy Institute (HEPI) & Taylor & Francis (8 de enero de 2026). Using Artificial Intelligence (AI) to Advance Translational Research (HEPI Policy Note 67). Disponible en HEPI Insights

Texto completo

El informe analiza de manera exhaustiva cómo la inteligencia artificial puede transformar el proceso de investigación académica para acelerar su impacto en el mundo real, especialmente en lo que se conoce como investigación traslacional, es decir, la que busca convertir descubrimientos científicos en aplicaciones prácticas y beneficios tangibles para la sociedad.

Un nuevo informe elaborado por HEPI y Taylor & Francis explora el potencial de la inteligencia artificial (IA) para impulsar la investigación traslacional y acelerar el camino que va desde el descubrimiento científico hasta su aplicación práctica en la sociedad.

Using Artificial Intelligence (AI) to Advance Translational Research (Nota de política HEPI n.º 67), elaborado por Rose Stephenson, directora de Política y Estrategia de HEPI, y Lan Murdock, directora sénior de Comunicación Corporativa en Taylor & Francis, se basa en los debates mantenidos en una mesa redonda con responsables del ámbito de la educación superior, investigadores, innovadores en IA y organismos financiadores, así como en una serie de estudios de caso de investigación, para evaluar el papel futuro de la IA en la investigación traslacional.

Principales conclusiones

El informe concluye que la IA tiene el potencial de reforzar el sistema de investigación traslacional del Reino Unido, pero que la materialización de estos beneficios requerirá una implementación cuidadosa, una gobernanza adecuada y una inversión sostenida.

Entre las principales conclusiones se incluyen las siguientes:

  • La IA podría acelerar la investigación traslacional al permitir un análisis más rápido de grandes y complejos conjuntos de datos, apoyar la síntesis del conocimiento y mejorar los vínculos entre disciplinas. Sin embargo, la disponibilidad y la calidad de estos conjuntos de datos siguen siendo desiguales, lo que limita en algunos ámbitos la capacidad de las herramientas de IA para apoyar la traducción de la investigación.
  • El acceso a competencias y experiencia en IA es cada vez más importante, y la integración de estas capacidades en marcos interdisciplinarios será un componente clave para impulsar la investigación traslacional.
  • La IA puede mejorar la accesibilidad y la visibilidad de la investigación, entre otras cosas mediante resúmenes en lenguaje claro, sistemas de búsqueda semántica (funciones de búsqueda que utilizan conceptos e ideas, y no solo palabras clave, ofreciendo resultados más precisos) y nuevos formatos dirigidos a públicos más allá del ámbito académico.
  • Existen riesgos claros asociados al uso de la IA, incluidos los desafíos relacionados con la reproducibilidad, los sesgos, la pérdida de competencias, la integridad académica, la propiedad intelectual y la rendición de cuentas.

Recomendaciones

Para garantizar que la IA respalde una investigación traslacional de alta calidad y realizada de manera responsable, el informe formula una serie de recomendaciones dirigidas a organismos financiadores de la investigación, instituciones y editoriales, entre las que se incluyen:

  • Establecer expectativas claras para el uso responsable de la IA, incluida su alineación con orientaciones como Embracing AI with Integrity de la UK Research Integrity Office.
  • Invertir en una IA fiable y ética, incluyendo acciones para mejorar la transparencia, reducir los sesgos y apoyar la reproducibilidad.
  • Reforzar el apoyo a la investigación interdisciplinaria, con un mayor reconocimiento del trabajo en equipo y vías más claras para acceder a conocimientos y experiencia en IA.
  • Apoyar infraestructuras compartidas y abiertas de investigación en IA para reducir duplicidades y facilitar que las herramientas desarrolladas por investigadores estén disponibles de forma más amplia.
  • Fomentar el intercambio y la reutilización de datos, junto con la inversión en infraestructuras que permitan un acceso seguro y responsable a los datos.

Rose Stephenson, directora de Política y Estrategia de HEPI y coautora del informe, afirmó: «El Reino Unido cuenta con fortalezas extraordinarias en investigación, pero demasiadas ideas tienen dificultades para recorrer el camino desde el descubrimiento hasta su uso en el mundo real. La IA tiene el potencial de apoyar este proceso acelerando el análisis, conectando disciplinas y mejorando el acceso a la investigación. Sin embargo, estos beneficios solo se harán realidad si la IA se utiliza de manera transparente, ética y de formas que refuercen, en lugar de sustituir, la experiencia humana».

Por su parte, Rebecca Lawrence, vicepresidenta de Traducción del Conocimiento en Taylor & Francis, señaló: «Estamos muy agradecidos a todos los participantes de la mesa redonda y a quienes compartieron aportaciones para los estudios de caso. Los valiosos debates y el proceso posterior de elaboración de la nota de política han puesto de relieve los beneficios de trabajar de manera colectiva para aprovechar el poder y las oportunidades que puede ofrecer el uso responsable de la IA en la investigación traslacional».

Mediante la inversión en conocimiento interdisciplinario, gobernanza ética e infraestructuras, las partes interesadas pueden contribuir a transformar la investigación traslacional y permitir que un mayor número de investigaciones recientes genere beneficios sociales significativos.

La IA marca un punto de inflexión en el reconocimiento de la escritura a mano

Cohen, Dan. “The Writing Is on the Wall for Handwriting Recognition.” Humane Ingenuity (newsletter), November 25, 2025. https://newsletter.dancohen.org/archive/the-writing-is-on-the-wall-for-handwriting-recognition

Uno de los problemas más difíciles en las humanidades digitales —el reconocimiento preciso de escritura a mano— parece haber sido finalmente resuelto gracias a los avances recientes en inteligencia artificial. Tradicionalmente, los sistemas de reconocimiento óptico de caracteres (OCR) alcanzaron casi un 99 % de precisión con texto impreso, pero los sistemas de reconocimiento de texto manuscrito (HTR) apenas rozaban un 80 % debido a la enorme variabilidad y complejidad de las escrituras humanas. Esto obligaba a historiadores y paleógrafos a invertir mucho tiempo descifrando documentos antiguos, como cartas de figuras históricas, antes de llegar a la etapa analítica de sus investigaciones.

Cohen ilustra el punto con ejemplos personales de su trabajo con cartas manuscritas del siglo XIX, mostrando cómo herramientas como Transkribus requerían extensas preparaciones y seguían generando transcripciones con errores persistentes. Sin embargo, al emplear modelos de IA avanzados como Gemini 3 Pro, constató transcripciones sorprendentemente precisas de textos complejos, con la capacidad adicional de generar explicaciones sobre cómo la IA llegó a ciertas interpretaciones al analizar rasgos gráficos específicos de la escritura. Esta evolución tecnológica sugiere que la IA puede transformar la forma en que los documentos manuscritos digitalizados se hacen buscables y legibles de manera automática.

Más allá de las implicaciones técnicas, Cohen reflexiona sobre el papel de estas herramientas en la investigación académica. Señala que, al reducir la monotonía y labor manual de transcripción, los estudiosos pueden dedicar más tiempo a la comprensión profunda de los textos y a la interacción humana que estos contienen. Aun así, advierte que el uso de IA debe ser equilibrado: útil para tareas que liberan tiempo, pero sin desplazar la apreciación humana por la escritura y la comunicación que subyacen en los documentos históricos.

Google elimina resúmenes de IA en búsquedas médicas tras críticas por información peligrosa

O’Brien, Terrence. “Google Pulls AI Overviews for Some Medical Searches.” The Verge, January 11, 2026. https://www.theverge.com/news/860356/google-pulls-alarming-dangerous-medical-ai-overviews

Google ha desactivado algunas de las respuestas generadas por inteligencia artificial (conocidas como AI Overviews) para determinadas consultas médicas en su buscador tras informaciones que mostraban que estos resúmenes ofrecían información inexacta y potencialmente peligrosa para la salud de los usuarios.

Una investigación periodística reveló casos en los que la IA dio recomendaciones contradictorias con la práctica médica, como aconsejar a personas con cáncer de páncreas evitar alimentos con alto contenido de grasa, lo cual va en contra de las directrices clínicas establecidas, y presentar rangos de pruebas de función hepática sin tener en cuenta factores cruciales como edad, sexo o etnia. Estas respuestas, calificadas por expertos como “alarmantes” y “peligrosas”, provocaron que Google retirara estos resúmenes para búsquedas específicas como “cuál es el rango normal de pruebas de sangre del hígado”.

Aunque Google no ha comentado públicamente sobre cada eliminación individual, un portavoz de la compañía afirmó que invierten recursos en mejorar la calidad de estas funciones de IA, especialmente en temas de salud, y que la mayoría de los resultados “proporcionan información precisa apoyada en fuentes de alta calidad”. Sin embargo, los críticos señalan que la medida no resuelve completamente el problema, ya que variaciones ligeras de las mismas consultas —por ejemplo, con términos abreviados o reformulados— todavía pueden activar resúmenes de IA con posibles errores. Además, el hecho de que estas respuestas se presenten con un tono de autoridad sin contextos médicos adecuados sigue generando preocupación entre organizaciones de salud y defensores de información fiable.

Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas

LOPEZOSA, Carlos. Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas. Informe. Universitat de Barcelona, 2026. Consulta del 12 de enero de 2026. https://hdl.handle.net/2445/225202

Texto completo

Se analiza cómo la inteligencia artificial (IA) está transformando y puede seguir transformando los procesos técnicos dentro de las bibliotecas y centros de documentación. El estudio se centra en profundizar en los fundamentos conceptuales de la IA, sus aplicaciones principales y los desafíos que plantea su adopción responsable en contextos bibliotecarios.

El informe analiza el impacto creciente de la inteligencia artificial en las bibliotecas, centrándose especialmente en los procesos técnicos tradicionales. Parte de la idea de que la IA, y en particular los modelos de lenguaje de gran tamaño, ya forman parte del ecosistema informacional y están modificando de manera profunda la forma en que se gestionan, describen y organizan los recursos documentales. El texto ofrece una aproximación clara a los fundamentos conceptuales de la IA, explicando su funcionamiento general y su relevancia para el ámbito bibliotecario y documental.

A lo largo del trabajo se examinan las principales aplicaciones prácticas de la inteligencia artificial en tareas como la catalogación, la gestión y normalización de metadatos y el enriquecimiento semántico de los registros bibliográficos. El autor muestra cómo estas tecnologías permiten automatizar procesos repetitivos, detectar inconsistencias y mejorar la calidad descriptiva de los fondos, lo que repercute directamente en una mejor recuperación de la información. No obstante, se insiste en que la IA debe entenderse como una herramienta de apoyo y no como un sustituto del criterio profesional del personal bibliotecario.

El documento también aborda la integración de la IA en los flujos de trabajo técnicos, destacando su utilidad como sistema de asistencia avanzada para el análisis de datos, la generación de informes y la toma de decisiones técnicas. Desde esta perspectiva, la inteligencia artificial se presenta como un recurso estratégico que puede aumentar la eficiencia y liberar tiempo para tareas de mayor valor intelectual, siempre que exista una supervisión humana adecuada.

Un apartado relevante del estudio está dedicado a los retos éticos, legales y organizativos que plantea el uso de la IA en bibliotecas. Se analizan cuestiones como la protección de datos personales, la seguridad de la información y el riesgo de sesgos algorítmicos, subrayando la necesidad de una evaluación crítica y continua de estas herramientas. El texto advierte sobre los peligros de una dependencia tecnológica excesiva y reclama políticas claras que garanticen un uso responsable, transparente y alineado con los valores profesionales de la biblioteconomía.

Como conclusión, el informe propone un modelo de adopción híbrida de la inteligencia artificial, en el que la tecnología complementa el trabajo humano sin sustituirlo. Se defiende una incorporación progresiva y reflexiva de la IA en los procesos técnicos bibliotecarios, basada en la formación del personal, la supervisión ética y la adaptación a las necesidades reales de cada institución. De este modo, la IA se concibe como un instrumento para mejorar la calidad del servicio bibliotecario y reforzar su papel en la gestión del conocimiento en la era digital.

Inteligencia artificial generativa: buenas prácticas docentes en educación superior

Vivas Urias, María Dolores, y María Auxiliadora Ruiz Rosillo, eds. Inteligencia artificial generativa: Buenas prácticas docentes en educación superior. Barcelona: Octaedro, 2025. ISBN 978‑84‑10282‑57‑5.

Texto completo

El libro ofrece una visión amplia y práctica de cómo la inteligencia artificial generativa (IAG) está transformando la educación superior, mostrando experiencias reales de innovación docente desarrolladas en la Universidad Alfonso X el Sabio durante el curso 2023‑2024. A través de múltiples aportes, el texto examina la manera en que estas herramientas no solo apoyan la creación de contenidos educativos, sino que también replantean la pedagogía y la evaluación.

El primer bloque del libro se centra en el papel de la IAG en la alfabetización digital y en el diseño pedagógico, explorando cómo los docentes pueden integrar estas tecnologías para potenciar la enseñanza y reducir incertidumbres en proyectos complejos como trabajos de fin de estudios. Se analizan ejemplos concretos como concursos de creación artística o generación automática de materiales de autoevaluación, destacando tanto oportunidades como desafíos éticos.

Otros capítulos muestran casos de uso específicos en materias como ciencias sociales, biotecnología o farmacología, donde la generación de contenidos y la gamificación asistida por IA facilitan procesos de enseñanza más dinámicos y adaptados a los estudiantes. Además, se aborda la evaluación de competencias con rúbricas enriquecidas por IA y estrategias para fomentar el pensamiento crítico en los futuros profesionales.

Finalmente, la obra no se limita a presentar herramientas, sino que también reflexiona sobre el uso ético y responsable de la IAG por parte de la comunidad educativa. Pone de relieve la necesidad de formación docente, la adaptación de metodologías y la convivencia entre creatividad humana y automatización inteligente, con el objetivo de maximizar el aprendizaje sin perder de vista valores formativos esenciales.

El impacto de la IA en la comunicación académica, informes sobre la aparición de «revistas imaginarias» hasta el punto de crear revistas y citas fantásticas

Linacre, Simon. 2026. “Land of Make Believe.” Cabells Blog, 7 de enero de 2026. https://blog.cabells.com/2026/01/07/land-of-make-believe/

A finales de 2025 empezaron a surgir informes sobre algo que han llamado revistas imaginarias. La IA generativa puede “alucinar”, es decir, inventar hechos o datos presentándolos como reales, pero que llegue al punto de generar títulos de revistas y citas que no existen en absoluto ha sorprendido a muchos.

Se han detectado referencias a publicaciones que nunca han existido en trabajos académicos. Estamos acostumbrados a las revistas falsas o depredadoras, pero estos nuevos títulos sólo aparecen en bibliografías generadas por IA, sin rastro real de su existencia.

Además, también se han encontrado artículos atribuidos a autores que no existen. Incluso algunos de estos textos se han presentado a revistas legítimas. Esto podría formar parte de pruebas para evaluar sistemas de revisión o detección de plagio, aunque también podría responder a fines más oscuros.

Aunque suene sorprendente, la aparición de artículos completamente generados por IA está alterando las normas tradicionales de la investigación y la publicación académica. Muchos repositorios de preprints han tenido que restringir envíos ante el aumento de trabajos de baja calidad generados por IA.

El impacto podría ser serio: si se difunden investigaciones inventadas y otros investigadores las citan o usan como referencia, el daño se propaga rápidamente. Incluso se han visto casos en los que artículos falsos han sido citados decenas de veces, sin que los autores supieran que su nombre aparecía en esos documentos.

Frente a esta situación, las fuentes verificadas de publicaciones científicas se vuelven más importantes a medida que el uso de IA se expande. Las fronteras entre investigación humana, híbrida o generada exclusivamente por IA se están desdibujando, con implicaciones profundas para editores, autores, instituciones y financiadores.

Ética de la inteligencia artificial: consideraciones fundamentales para bibliotecas universitarias

Hart, Brandi. 2025. “Keeping Up With… AI Ethics.Association of College and Research Libraries. American Library Association. https://www.ala.org/acrl/publications/keeping_up_with/ai_ethics

El texto aborda la creciente presencia de la inteligencia artificial en el ámbito de la educación superior y, en particular, en las bibliotecas académicas, subrayando la necesidad de reflexionar sobre sus implicaciones éticas.

La Inteligencia Artificial (IA) se ha integrado cada vez más en casi todas las facetas de la vida, lo que plantea numerosos problemas éticos urgentes en relación con su diseño y uso, así como sus impactos en la sociedad y el medio ambiente. Si bien la IA, el campo científico dedicado a crear sistemas que puedan igualar el rendimiento humano (realizar acciones que un ser humano puede realizar), existe desde la década de 1950, el lanzamiento público de la herramienta de IA generativa ChatGPT en noviembre de 2022 y su comercialización acelerada desde entonces la han situado en el centro de la concienciación y la preocupación pública.

Dada su capacidad para generar contenido que antes solo se creaba mediante la inteligencia humana, la IA generativa también ha tenido un gran impacto en la educación superior, las bibliotecas académicas y la investigación académica. Por lo tanto, este artículo presenta algunos de los aspectos fundamentales de la ética de la IA que los bibliotecarios académicos deben comprender como necesarios para fundamentar sus decisiones individuales e institucionales sobre la adopción o el uso de la IA, la formación y las políticas, a fin de evitar perjuicios éticos, dada la naturaleza disruptiva de la IA como tecnología sin precedentes.

¿Qué es la ética de la IA?

La ética de la IA aborda las cuestiones éticas de la IA, incluidas qué normas morales se deben codificar en la IA para intentar que sea segura (alineación), qué constituye usos moralmente buenos y moralmente malos de la IA a nivel social (gobernanza, políticas, leyes) y a nivel individual, y las consecuencias éticas y el daño de la IA ya sea por su diseño o por cómo se utiliza. La ética de la IA aborda ampliamente:

  1. Cuestiones éticas derivadas de las características de la IA (p. ej., problemas de privacidad, ya que la IA depende de datos personales para su entrenamiento).
  2. Cuestiones éticas derivadas de cómo los humanos deciden usar la IA (p. ej., la definición de estándares éticos para un uso responsable de la IA frente a su uso para perjudicarse mutuamente).
  3. El impacto social y ambiental de las cuestiones éticas de la IA (p. ej., el uso de la automatización de la IA para sustituir el trabajo humano). [2]

Dado que este breve artículo no puede abordar todas las cuestiones de la ética de la IA, hay que centrarse en el uso ético de la IA (no en su diseño ético) en función de cada categoría:

  1. Las cuestiones éticas que surgen de la naturaleza de la IA como una forma de agencia sin precedentes. A saber, la erosión de los principios fundamentales de la dignidad humana debido al uso de la IA.
  2. Los casos de uso ético de la IA (el bueno, el malo y el uso excesivo) para guiar su uso.
  3. El daño social y ambiental causado por el uso excesivo irresponsable de la IA.

(A menos que se especifique lo contrario, «IA» se referirá a la IA generativa en la siguiente sección, dado que es la forma predominante de IA utilizada en las bibliotecas académicas).

La IA es agencia sin inteligencia.

La IA abarca una variedad de sistemas, algoritmos y modelos que destacan en la realización de tareas en áreas específicas con metas y objetivos claros. Sin embargo, la IA solo «imita el pensamiento y el razonamiento»; por lo tanto, no es inteligente. De hecho, la IA es simplemente una forma sin precedentes de agencia (la capacidad de actuar, interactuar con y manipular el mundo físico) que carece de inteligencia (la capacidad de pensar racionalmente).[4]

Por diseño, la IA es incapaz de comprender; no puede discernir el bien del mal, la verdad de la falsedad, la realidad de la invención, ni otros conceptos que requieren inteligencia. De hecho, la IA simplemente los ignora por completo. Debido a su propia naturaleza, la IA a menudo «alucina» o genera información falsa que presenta como un hecho. De igual manera, su capacidad para producir contenido de forma automática y rápida con una «personalización sin precedentes» y un «poder predictivo» nos hace sobreestimar considerablemente sus capacidades y pasar por alto sus defectos.

Agencia Humana, Inteligencia y Responsabilidad

La capacidad generalizada de la IA para moldear sutilmente nuestros pensamientos y acciones «predeterminados por algoritmos subyacentes» está oculta y está llevando a muchas personas a renunciar a parte de su autonomía humana sin darse cuenta. Por lo tanto, es esencial que protejamos nuestros principios fundamentales de dignidad humana: agencia: lo que podemos hacer; capacidad: lo que podemos lograr; autorrealización: en quiénes podemos convertirnos; y cuidado: cómo nos tratamos unos a otros (conexión) y a nuestro entorno. La erosión de estos principios no solo conduce a la desigualdad social y económica, sino que también amenaza con limitar aquello que nos hace humanos.

Desafortunadamente, esto ya ha sucedido, como lo demuestran las empresas con ánimo de lucro, atraídas por la «eficiencia» de la IA, que han optado por reemplazar los empleos de muchas personas con la automatización de la IA, devaluando así su inteligencia, experiencia, habilidades y creatividad, y provocando desempleo y subempleo. A nivel individual, considere cuánto se vinculan la identidad personal, la autoestima y las aspiraciones de vida con el trabajo, y cuán negativamente afecta esta valoración de la agencia artificial sobre la agencia humana a las personas a nivel personal, social y económico.

Prioridades de la comunidad global para la IA agencial en la investigación

Research Data Alliance, “Global community priorities for agentic AI in research: Consultation results available,” Research Data Alliance, Jan. 8, 2026. [Online]. Available:

Texto completo

Research Data Alliance (RDA) ha publicado los resultados de una consulta global dirigida a identificar las prioridades de la comunidad investigadora respecto al uso de la IA agente —es decir, sistemas de inteligencia artificial capaces de operar con un alto grado de autonomía y mínima supervisión humana— a lo largo del ciclo de la investigación científica.

Esta consulta, abierta desde noviembre de 2025 y sin requerir experiencia previa en IA, combinó cuatro sesiones informativas online con una encuesta anónima de 15 minutos en la que participaron 83 personas de diversos perfiles y regiones. La iniciativa buscaba comprender cómo se está utilizando actualmente la IA agente en la investigación y qué herramientas autónomas podrían aportar más valor en tareas como planificación, búsqueda de información, gestión de datos, financiación, publicación e impacto.

De los 11 posibles agentes inteligentes propuestos, tres herramientas surgieron como prioridades claras para la comunidad global de investigación.

  1. Literature Librarian, se plantea como un asistente capaz de buscar literatura científica mediante consultas en lenguaje natural integradas con suscripciones de bibliotecas, facilitando y acelerando la revisión de antecedentes y la exploración bibliográfica.
  2. Data Director obtuvo alta valoración por su potencial para apoyar la preparación y el intercambio de datos de investigación conforme a los principios FAIR (Findable, Accessible, Interoperable, Reusable), lo que podría mejorar la calidad, disponibilidad y reutilización de los datos científicos.
  3. Funding Finder, propone una herramienta que identifique oportunidades de financiación relevantes y apoye la preparación de solicitudes, ayudando a investigadores y equipos a acceder a recursos financieros con mayor eficiencia.

Estos tres agentes se destacaron de manera consistente tanto en análisis por región como por tipo de participante.. Más allá de las prioridades concretas, los participantes expresaron una visión matizada y ambivalente sobre el futuro de la IA agente en la investigación, reconociendo tanto sus beneficios potenciales como los retos éticos, organizativos y técnicos que supone su adopción generalizada. Los resultados de la consulta serán utilizados por la RDA como base para avanzar en 2026 en el desarrollo colaborativo de un marco de referencia abierto y tecnológicamente agnóstico para al menos una herramienta prioritaria de IA agente, asegurando que este trabajo futuro se alinee con los principios y el marco de actuación de la organización y refleje las necesidades de la comunidad investigadora global.

La IA y el problema de la retractación de artículos científicos

Worlock, David. 2026. AI and the Issue of Science Article Retraction.” DavidWorlock.com, 6 de enero de 2026. https://www.davidworlock.com/2026/01/ai-and-the-issue-of-science-article-retraction/

Se ofrece una reflexión crítica sobre los desafíos que la inteligencia artificial (IA) plantea al sistema de publicación científica, especialmente en lo referente a la integridad del registro científico y el proceso de retractación de artículos académicos.

Worlock parte de una observación fundamental: aunque la IA está transformando profundamente la creación, difusión y análisis de conocimiento, muchos de los problemas estructurales que afectan a la ciencia —como la proliferación de artículos defectuosos, revisiones por pares ineficaces o la falta de mecanismos eficaces para gestionar retractaciones— no se resolverán simplemente mediante la automatización o la adopción de nuevas herramientas tecnológicas.

El autor contextualiza el tema en un contexto más amplio de crisis de confianza en las publicaciones científicas. Señala que la incapacidad del sistema para proporcionar estándares claros y verificables de calidad y autenticidad ha permitido que proliferan trabajos de mala calidad o incluso fraudulentos, muchos de los cuales permanecen en la literatura científica sin una retractación adecuada. Este problema no se limita a casos aislados, sino que forma parte de un sistema que continúa replicando y amplificando errores debido a la presión por publicar y a la ausencia de una infraestructura de retractación centralizada y transparente.

Worlock también examina el rol de la IA en este contexto. Aunque los sistemas de IA tienen la capacidad de procesar grandes volúmenes de información, Worlock advierte que la IA no sustituye la evaluación crítica humana y que los algoritmos pueden incluso exacerbar algunos de los problemas existentes si se utilizan sin criterio. Por ejemplo, las IA pueden integrar contenido repleto de errores metodológicos o datos falsos como si fuera válido, ya que carecen de un juicio epistemológico real para discernir la calidad científica, un reto que otros expertos han también identificado recientemente como un riesgo serio para la confianza en la literatura científica automatizada.

Además, el artículo subraya la importancia de reforzar los mecanismos de retractación. Worlock plantea que la mera existencia de retractaciones no basta si estas no son accesibles, claras y eficientemente comunicadas, algo que muchos investigadores experimentan cuando intentan rastrear qué artículos han sido retirados y por qué. El problema, según él y otros especialistas, radica en que las retractaciones a menudo no están bien etiquetadas ni se integran en los flujos de datos primarios que usan los motores de búsqueda, las bases de datos académicas y los propios sistemas de entrenamiento de modelos de IA.

Una vez que se introducen datos en el modelo de formación de un LLM, no se pueden eliminar. No quiero escribir aquí sobre los actos de piratería cometidos por los actores de la IA de Silicon Valley al retirar masivamente artículos académicos de sitios web a menudo pirateados e ilegales. Sin duda, esos datos incluían artículos retractados que nunca se habían eliminado ni etiquetado como retractados en línea. De hecho, en el mundo anterior a la IA, una de las quejas sobre la búsqueda de artículos académicos era que los artículos retractados rara vez eran evidentes. Solo en épocas más recientes, Retraction Watch y Open Alex comenzaron a señalar qué datos no eran confiables en las bases de datos académicas. En otras palabras, fue la comunidad académica y sin fines de lucro la que acudió al rescate, no el sector editorial con fines de lucro. Se podría considerar cómo podríamos construir modelos más efectivos y precisos en el futuro y cómo podríamos asegurarnos de que el material retractado no se incluya en ellos.

En esencia, Worlock llama a una reforma profunda del ecosistema de publicación científica, donde la IA se utilice no como sustituto de la evaluación humana, sino como complemento que apoye una mayor transparencia, responsabilidad y calidad en la ciencia publicada. Su análisis enfatiza que los avances tecnológicos deben ir acompañados de estructuras éticas y metodológicas que preserven la integridad del registro científico y protejan la confianza pública en la investigación académica.