Archivo de la categoría: Tecnologías de la información

¿Son mejores las ideas de investigación generadas por Inteligencia Artificial o las creadas por humanos?

Si, Chenglei, Tatsunori Hashimoto y Diyi Yang. The Ideation-Execution Gap: Execution Outcomes of LLM-Generated versus Human Research Ideas. arXiv, 25 de junio de 2025. https://arxiv.org/abs/2506.20803

Los resultados mostraron que las ideas generadas por LLM recibieron puntuaciones significativamente más bajas que las ideas humanas en todos los criterios evaluados: novedad, entusiasmo, efectividad y puntuación general. Este fenómeno, denominado «brecha ideación-ejecución», sugiere que, aunque los LLM pueden generar ideas originales, su capacidad para traducir esas ideas en resultados de investigación efectivos es limitada.

El estudio investiga la diferencia entre la generación de ideas de investigación por modelos de lenguaje grande (LLM, Large Language Models) y la capacidad real de esas ideas para traducirse en resultados concretos y efectivos cuando se llevan a la práctica. Aunque investigaciones anteriores han señalado que los LLM pueden producir ideas originales e innovadoras, el presente estudio se enfoca en la llamada “brecha ideación-ejecución” para determinar si estas ideas realmente tienen éxito cuando se implementan en proyectos de investigación reales.

Para evaluar esta cuestión, los autores diseñaron un experimento riguroso en el que 43 investigadores expertos en procesamiento de lenguaje natural recibieron ideas de investigación generadas tanto por humanos como por LLM. Cada investigador trabajó durante más de 100 horas en la ejecución de una de estas ideas, desarrollando proyectos completos documentados en informes detallados de cuatro páginas. Estos informes fueron luego evaluados de manera anónima por otros expertos para medir la calidad y el impacto de los resultados obtenidos.

Los resultados revelaron que, en múltiples dimensiones evaluadas —incluyendo la novedad de la idea, el entusiasmo generado, la efectividad del proyecto y la valoración general—, los proyectos derivados de ideas humanas superaron claramente a los derivados de ideas generadas por LLM. En otras palabras, aunque los LLM son capaces de ofrecer propuestas creativas y novedosas, su capacidad para traducir esas ideas en investigaciones exitosas y aplicables es significativamente menor.

Este hallazgo tiene implicaciones importantes para el uso de la inteligencia artificial en la investigación científica. Sugiere que, aunque la IA puede ser una herramienta valiosa para inspirar ideas o asistir en la fase inicial de generación conceptual, la supervisión humana y la experiencia siguen siendo cruciales para asegurar que las ideas puedan concretarse en resultados tangibles y de calidad. El estudio enfatiza la necesidad de evaluar no solo la creatividad o novedad de las ideas producidas por IA, sino también su factibilidad y capacidad de ejecución.

Finalmente, los autores invitan a reflexionar sobre cómo integrar de manera efectiva las capacidades de los modelos de lenguaje en el proceso de investigación, proponiendo un enfoque colaborativo entre humanos e IA que maximice las fortalezas de cada uno, minimizando las limitaciones observadas.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

Los ataques de gobierno de EE.UU. a la ciencia y la investigación son «un gran regalo para China» en materia de inteligencia artificial

Hern, Alex. «US Attacks on Science and Research ‘a Great Gift to China’ on Artificial Intelligence, Former OpenAI Board Member Says.» The Guardian, June 9, 2025. https://www.theguardian.com/technology/2025/jun/09/us-attacks-on-science-and-research-a-great-gift-to-china-on-artificial-intelligence-former-openai-board-member-says.

Helen Toner, exmiembro del consejo de administración de OpenAI y actual directora de estrategia del Centro de Seguridad y Tecnología Emergente (CSET) de la Universidad de Georgetown, ha advertido que las actuales políticas de Estados Unidos en relación con la ciencia, la investigación y el talento extranjero están debilitando seriamente su liderazgo global en inteligencia artificial.

En una entrevista con The Guardian, Toner afirmó que los ataques políticos a la comunidad científica, junto con las restricciones a la entrada de estudiantes e investigadores internacionales, representan un “gran regalo para China”, que sigue avanzando en su propia carrera tecnológica.

Toner sostiene que gran parte del talento en investigación en Estados Unidos proviene del extranjero, especialmente de países como China. Las medidas restrictivas del gobierno estadounidense —como el endurecimiento de visados, los controles de exportación de chips avanzados y los recortes a la financiación pública— podrían provocar una fuga de cerebros y una desventaja competitiva en áreas estratégicas. Mientras tanto, China continúa desarrollando tecnologías punteras, como los modelos de lenguaje de gran escala, a pesar de los esfuerzos estadounidenses por frenarla mediante sanciones.

La exconsejera de OpenAI también se refirió a los efectos sociales de la inteligencia artificial, advirtiendo sobre un riesgo gradual de «desempoderamiento» colectivo. Según Toner, podríamos estar delegando funciones cada vez más críticas —en el gobierno, en las empresas y en la vida diaria— a sistemas algorítmicos, sin mecanismos adecuados de supervisión o responsabilidad. Aunque todavía hay incertidumbre sobre los plazos, los expertos coinciden en que muchas tareas profesionales, especialmente las realizadas por empleados jóvenes o en formación, ya están siendo desplazadas por herramientas de IA.

Sin embargo, Toner no niega el enorme potencial positivo de estas tecnologías. Mencionó, por ejemplo, los avances en medicina, donde la IA podría acelerar el descubrimiento de medicamentos, o en el transporte, con vehículos autónomos como los desarrollados por Waymo, que podrían reducir significativamente las muertes por accidentes de tráfico. El desafío, según ella, es garantizar un desarrollo ético y responsable, que combine innovación con regulaciones efectivas.

La figura de Helen Toner ha cobrado notoriedad en el ámbito tecnológico y mediático tras su papel clave en la crisis institucional de OpenAI en 2023, cuando el entonces CEO Sam Altman fue destituido y luego reincorporado. Su participación en este episodio ha despertado tanto el interés periodístico como cinematográfico: el director Luca Guadagnino está preparando una película sobre estos acontecimientos, en la que una actriz reconocida interpretará a Toner. En 2024, la revista Time la incluyó entre las 100 personas más influyentes del mundo en el campo de la inteligencia artificial.

CC Signals: licencia Creative Commons con la que los autores puedan determinar los uso de lA para sus contenidos

Creative Commons. 2025. “Introducing CC Signals: A New Social Contract for the Age of AI.Creative Commons, 25 de junio de 2025. https://creativecommons.org/ai-and-the-commons/cc-signals/

En un momento en el que la IA está transformando radicalmente la creación, el acceso y la difusión del conocimiento, CC Signals representa una apuesta ética y colaborativa por una inteligencia artificial al servicio de todos, basada en principios de apertura, respeto y responsabilidad compartida.

Creative Commons ha presentado CC Signals, una iniciativa pionera que propone un nuevo «contrato social» para la era de la inteligencia artificial. Este marco surge como respuesta a la creciente preocupación por el uso masivo e indiscriminado de datos por parte de los modelos de IA. En lugar de aceptar una dicotomía entre un entorno de extracción sin restricciones o uno cerrado por muros de pago, CC Signals apuesta por una tercera vía: un ecosistema abierto y basado en la reciprocidad, en el que los creadores y titulares de contenido puedan expresar claramente sus preferencias sobre cómo debe usarse su información por parte de sistemas automatizados.

El objetivo principal de CC Signals es permitir que los datos sean utilizados en procesos de entrenamiento de IA de manera ética y transparente, reconociendo los intereses de quienes aportan contenido. Para ello, introduce un sistema de «señales» legibles tanto por humanos como por máquinas, que indican el nivel de apertura o condiciones de reutilización que cada creador desea establecer. Estas señales no son legalmente vinculantes, pero sí actúan como una guía de buenas prácticas, similar a como las licencias Creative Commons revolucionaron el panorama del derecho de autor hace dos décadas.

Uno de los principios clave del proyecto es fomentar un ciclo de «dar, tomar y volver a dar»: quienes utilizan datos para entrenar modelos deben contribuir también al bien común, ya sea compartiendo sus resultados, reconociendo el origen de los datos o respetando las preferencias expresadas. Si bien una señal individual puede pasar desapercibida, el uso generalizado de CC Signals por parte de comunidades de práctica, instituciones culturales o desarrolladores de IA puede establecer una norma ética reconocida globalmente.

La iniciativa se encuentra actualmente en fase de desarrollo beta y se ha abierto a la participación pública a través de GitHub. Se prevé que una versión alpha esté disponible en noviembre de 2025. Durante los meses de julio y agosto, Creative Commons organizará una serie de encuentros virtuales para debatir el marco propuesto y recoger aportaciones. Estos espacios permitirán a creadores, tecnólogos, académicos y activistas colaborar en la construcción colectiva de esta nueva herramienta de gobernanza digital.

Guía de buenas prácticas para el uso de la Inteligencia Artificial ética

OdiseIA, PwC, Google, Microsoft, IBM, & Telefónica. (2022, 17 de febrero). Guía de buenas prácticas para el uso de la Inteligencia Artificial ética [Guía práctica]. Observatorio del Impacto Social y Ético de la IA (OdiseIA) & PwC España.

Texto completo

La guía nace como una respuesta práctica y colaborativa a la necesidad de aplicar la inteligencia artificial (IA) de forma ética y responsable en el ámbito empresarial. El documento es fruto de la iniciativa GuIA, impulsada por OdiseIA y PwC junto con cinco grandes empresas tecnológicas.

Su objetivo principal es ofrecer pautas concretas y operativas para ayudar a las organizaciones a integrar principios éticos en el diseño, desarrollo y uso de sistemas de IA, en un contexto cada vez más regulado y exigente.

Uno de los ejes centrales del documento es que no basta con declarar intenciones éticas: es imprescindible traducir principios como la equidad, la transparencia, la privacidad o la rendición de cuentas en procesos organizativos y soluciones técnicas reales. Para ello, la guía se apoya en un análisis comparado de 27 marcos internacionales y más de 30 principios éticos, que han sido sintetizados y adaptados al contexto empresarial español mediante un enfoque multidisciplinar que combina la visión legal, tecnológica y de negocio.

La estructura de la guía gira en torno a tres grandes ámbitos de actuación. El primero es la gobernanza organizativa, que promueve la creación de comités de IA, la definición de roles y responsabilidades, la evaluación de riesgos y el seguimiento con indicadores claros. El segundo son los controles técnicos y metodológicos, centrados en el diseño de modelos explicables, justos y seguros, con revisiones periódicas que detecten posibles sesgos o fallos. El tercer ámbito se refiere a las garantías externas, que incluyen auditorías, certificaciones y mecanismos de verificación independientes para reforzar la confianza de terceros.

Además, la guía subraya que la implementación ética de la IA no solo es un imperativo moral, sino también una ventaja competitiva. Las organizaciones que adopten estos principios con antelación estarán mejor preparadas para cumplir con futuras regulaciones, como el Reglamento Europeo de Inteligencia Artificial (AI Act). Asimismo, generarán mayor confianza entre usuarios, empleados, inversores y la sociedad en general.

En definitiva, esta guía ofrece un marco útil para convertir los principios éticos en acciones concretas dentro de las empresas. Propone un camino realista y adaptado al contexto actual, en el que la inteligencia artificial debe ser una herramienta al servicio de las personas y no una fuente de riesgos sociales o legales.

El uso de la inteligencia artificial (IA) en el trabajo se ha casi duplicado en los dos últimos años

Pendell, Ryan. “AI Use at Work Has Nearly Doubled in Two Years.” Gallup, June 16, 2025. https://www.gallup.com/workplace/691643/work-nearly-doubled-two-years.aspx

El uso de IA en el entorno laboral se ha acelerado notablemente, especialmente entre empleados de oficina y mandos intermedios. No obstante, sigue habiendo un déficit significativo en estrategias organizacionales claras y en percepción del valor de estas herramientas —lo que indica oportunidades para mejorar la implementación y formación en el uso de IA.

En un artículo publicado el 16 de junio de 2025, Gallup revela que el uso de la inteligencia artificial (IA) en el trabajo en EE. UU. se ha casi duplicado en los dos últimos años.

Cifras clave:

  • El porcentaje de empleados que usa IA al menos unas veces al año aumentó del 21 % al 40 %.
  • El uso frecuente (varias veces por semana o más) también casi se duplicó, pasando del 11 % al 19 %.
  • El uso diario de IA se duplicó en el último año, de un 4 % a un 8 %.

El incremento se observa principalmente en trabajos de oficina. El 27 % de estos empleados utiliza IA con frecuencia, 12 puntos más que en 2024. Las industrias con mayor adopción son tecnología (50 %), servicios profesionales (34 %) y finanzas (32 %), mientras que en producción y atención al cliente el uso se mantiene entre 9 % y 11 %.

Los líderes (managers de managers) utilizan IA con más frecuencia: el 33 % lo hace varias veces por semana, comparado con el 16 % entre los empleados individuales.

Pese a este aumento, solo el 15 % de los empleados cree que su trabajo correrá peligro por la automatización o la IA en los próximos cinco años — cifra sin cambios desde 2023. Este temor es ligeramente mayor en tecnología, comercio minorista y finanzas.

Aunque muchas organizaciones están integrando IA —el 44 % de los empleados lo señala—, solo el 22 % cuenta con una estrategia clara y el 30 % dispone de políticas u orientaciones formales. Esto revela una brecha importante entre adopción e implementación regulada.

Por último, solo el 16 % de los usuarios piensa que las herramientas de IA que les brinda su empresa son útiles. Sin embargo, quienes las utilizan para interactuar con clientes reportan efectos positivos en un 68 % de los casos, frente a solo un 13 % entre los que no las usan.

Entrenar modelos de lenguaje de Inteligencia Artificial utilizando libros adquiridos legalmente constituye un uso legítimo

Hansen, Dave. 2025. “Anthropic Wins on Fair Use for Training Its LLMs, Loses on Building a ‘Central Library’ of Pirated Books.” Authors Alliance, 24 de junio de 2025. https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/

El 24 de junio de 2025, el juez William Alsup del Tribunal del Distrito Norte de California emitió una resolución clave en el juicio colectivo contra Anthropic, empresa creadora de los modelos de lenguaje Claude. La demanda, presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson en representación de millones de escritores, cuestiona el uso de libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial.

El fallo representa una victoria parcial para Anthropic. Por un lado, el tribunal determinó que entrenar modelos de lenguaje utilizando libros adquiridos legalmente constituye un uso legítimo bajo la doctrina de fair use del derecho estadounidense. Según el juez Alsup, este tipo de uso es “transformador”, ya que no busca replicar ni sustituir las obras originales, sino generar contenido nuevo, lo que encaja dentro del espíritu de la ley de derechos de autor que pretende fomentar la creatividad y el avance científico.

Sin embargo, la empresa perdió en un punto crítico: el uso sistemático de libros pirateados para construir una “biblioteca central” con fines de entrenamiento de IA. La evidencia demuestra que en 2021 y 2022, miembros de Anthropic descargaron millones de obras de sitios como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de libros protegidos, y Anthropic era plenamente consciente de ello. El propio CEO, Dario Amodei, reconoció internamente que optar por este camino era una manera de evitar el “trabajo legal, comercial y de gestión” que implicaría adquirir licencias.

En particular, el cofundador Ben Mann descargó en 2021 el conjunto de datos Books3 (compuesto por cerca de 196.000 libros pirateados), seguido de cinco millones de títulos desde LibGen y otros dos millones desde PiLiMi. Estas acciones fueron calificadas por el juez como violaciones deliberadas del derecho de autor, y aunque todavía no se ha determinado la magnitud de los daños, el tribunal ha decidido celebrar un juicio separado para abordar esta cuestión y valorar posibles indemnizaciones.

Desde Anthropic, una portavoz declaró a The Verge que celebran que el tribunal haya validado el uso transformador de las obras con fines de entrenamiento. La empresa sostiene que su objetivo no era imitar o reemplazar los libros originales, sino crear algo nuevo con base en ellos. No obstante, este argumento no exime de responsabilidad cuando se utilizan materiales obtenidos de forma ilegal, incluso si el uso posterior pudiera ser considerado transformador.

Este caso se enmarca dentro de un creciente número de demandas contra empresas de inteligencia artificial por el uso indebido de contenido protegido. La resolución de Alsup podría sentar un precedente clave: valida el entrenamiento de IA sobre obras adquiridas legalmente como fair use, pero marca una línea roja cuando se trata de contenidos pirateados. Las próximas fases del proceso judicial determinarán las consecuencias económicas y legales para Anthropic, y el caso podría influir significativamente en las prácticas de entrenamiento de modelos de IA en la industria.

El dilema energético de la IA: ¿pueden las GPU seguir el ritmo de la creciente demanda?

Sanjana B. (2025, junio). AI’s energy dilemma: Can GPUs keep up with the rising demand? BusinessLine

Ver completo

En un contexto donde el desarrollo de modelos de inteligencia artificial (IA) crece a un ritmo vertiginoso, el artículo de BusinessLine analiza el desafío energético que esto representa, centrándose en el uso intensivo de GPUs. Las unidades de procesamiento gráfico, que han sido forzadas a evolucionar para dar soporte a estos modelos complejos, operan normalmente entre 300 y 700 W cada una, generando enormes cantidades de calor y exigiendo mayores recursos para su refrigeración .

Se señala que los centros de datos dedicados al entrenamiento de IA ya demandan niveles de energía comparables a países pequeños, con la posibilidad de superar pronto a naciones como Japón si no se implementan mejoras sustanciales. Esta situación ha llevado a que responsables técnicos, incluidos altos directivos como el CEO de OpenAI, advirtieran que las GPUs están alcanzando temperaturas críticas, lo que incrementa el riesgo de fallos y eleva los costes operacionales

Frente a este panorama, el texto propone varias líneas de respuesta: por un lado, mejorar la eficiencia técnica mediante optimizaciones de software, como la poda de modelos o la cuantización, y el desarrollo de nuevos algoritmos y chips más eficientes; por otro, introducir mejoras en los sistemas de refrigeración, desde soluciones líquidas en centros muy exigidos hasta la adopción de IA directamente en dispositivos (on‑device AI), lo que reduce considerablemente la energía consumida por la transmisión de datos al ‘cloud’ .

A su vez, expertos advierten sobre los costes ambientales adicionales: la fabricación de GPUs involucra extracción de materiales escasos y procesos contaminantes, mientras que la energía —aún dependiente en gran parte de combustibles fósiles— aumenta la huella de carbono de estos centros de datos . Innovaciones como hardware neuromórfico podrían ofrecer eficiencia energética a gran escala, aunque aún no están maduras para el entorno comercial

Por último, el artículo resalta la necesidad de abordar el problema desde una perspectiva sistémica. No basta con aumentar el número de GPUs, pues sin infraestructuras eléctricas robustas y energía limpia la expansión de la IA será insostenible. Países como Singapur o Irlanda ya han limitado la construcción de nuevos centros de datos, y se espera que las regulaciones evolucionen para incluir métricas de eficiencia y emisiones.

Tendencias y pautas de la investigación sobre inteligencia artificial en las bibliotecas

Autor(es). 2025. “Trends and Patterns of Artificial Intelligence Research in Libraries.” Journal of Library & Information Science 44 (2). https://doi.org/10.1177/21582440251327528

El artículo examina de forma exhaustiva las tendencias actuales en la investigación sobre inteligencia artificial (IA) aplicada a bibliotecas, mediante un análisis bibliométrico de la producción científica en este campo. A partir de una amplia base de datos extraída principalmente de Scopus, los autores estudian la evolución del número de publicaciones, las principales áreas temáticas abordadas, las fuentes académicas predominantes y la distribución geográfica de las contribuciones. Se constata un crecimiento sostenido en la investigación sobre IA en bibliotecas, con un aumento pronunciado a partir del año 2020, influido en parte por el impacto de la pandemia de COVID-19, que impulsó la digitalización y la automatización de servicios bibliotecarios.

Entre los temas más estudiados destacan el uso de algoritmos para personalizar la experiencia del usuario, la implementación de sistemas de recomendación y descubrimiento de información, la minería de datos para la mejora de servicios, y el desarrollo de chatbots que ofrecen atención automatizada. Tecnologías como el aprendizaje automático (machine learning), el procesamiento del lenguaje natural (PLN) y el deep learning se perfilan como herramientas clave en el avance de estos servicios. El estudio también resalta la contribución de la IA a la catalogación automática, la generación de metadatos, y la gestión predictiva de colecciones y recursos digitales.

A nivel geográfico, China, Estados Unidos e India lideran la producción científica sobre IA en bibliotecas, aunque también se observa una creciente participación de investigadores de países del Sudeste Asiático, África y América Latina. Las publicaciones se concentran principalmente en revistas como Library Hi Tech, Journal of Academic Librarianship, Library & Information Science Research y otras relacionadas con la informática aplicada a las ciencias de la información. Además, el análisis de redes de coautoría revela una creciente colaboración internacional e interdisciplinaria entre profesionales de la biblioteconomía, la ciencia de datos y la ingeniería informática.

En cuanto a los métodos utilizados, el artículo emplea herramientas como VOSviewer y Biblioshiny para visualizar redes de co-citación, coautoría y tendencias temáticas. Entre los términos emergentes más relevantes en los últimos años se identifican “chatbots”, “deep learning”, “big data” y “open-source software”. Esto evidencia el avance tecnológico del sector, pero también pone sobre la mesa nuevos desafíos éticos y técnicos. En este sentido, los autores advierten sobre la necesidad de prestar especial atención a cuestiones como la privacidad de los datos, la transparencia algorítmica y el riesgo de sesgos en la toma de decisiones automatizadas.

Finalmente, el estudio concluye que, si bien la IA ofrece oportunidades únicas para transformar los servicios bibliotecarios, su integración debe ser cuidadosa y acompañarse de políticas claras, programas de formación continua para el personal bibliotecario y marcos éticos que garanticen una implementación responsable. Asimismo, se sugiere que futuras investigaciones profundicen en la evaluación del impacto real de estas tecnologías en el acceso a la información y en la equidad digital.