Archivo de la categoría: Tecnologías de la información

IA generativa y bibliotecas: aplicaciones y ética

Monográfico de Library Tends sobre IA generativa y bibliotecas

Library Trends, Vol. 73 (3), “Generative AI and Libraries: Applications and Ethics, Part I”

Parte 1

Library Trends, Vol. 73 (4), “Generative AI and Libraries: Applications and Ethics, Part II”

Parte 2

La aparición de ChatGPT a finales de 2022 despertó un gran interés tanto en el público general como en los profesionales de la información hacia la inteligencia artificial generativa. Desde entonces, los especialistas en bibliotecas y otros entornos informativos se han enfrentado a preguntas cruciales sobre cómo esta tecnología, en constante evolución, transformará la creación y el consumo de información, y con ello los servicios bibliotecarios que abarcan desde la referencia y la enseñanza hasta la catalogación y la gestión de metadatos. Al mismo tiempo, los bibliotecarios han tenido que lidiar con dilemas éticos relacionados con el uso de una herramienta capaz —y a menudo propensa— a generar información inexacta o sesgada, así como con debates sobre autoría, derechos de autor, prácticas laborales dañinas y costos medioambientales asociados a estas tecnologías.

En conjunto, los autores ofrecen una mirada amplia sobre cómo la IA generativa está afectando al campo de la bibliotecología y las ciencias de la información, plantean interrogantes esenciales sobre sus implicaciones éticas y sugieren cómo los bibliotecarios pueden liderar la aplicación crítica —o incluso el rechazo— de estas herramientas. Los artículos aquí reunidos combinan investigación original, reflexiones conceptuales y especulación sobre futuros posibles y deseables. Mientras algunos autores destacan las oportunidades que abre la IA generativa, otros adoptan una postura pragmática ante lo que consideran inevitable, y algunos defienden un rechazo más firme a un futuro marcado por la IA. Independientemente del nivel de conocimiento previo o la postura del lector, estos volúmenes ofrecen abundante material para la reflexión.

Temas clave que cubren los artículos:

  • Representaciones discursivas de la IA por parte del personal bibliotecario
  • Narrativas en educación y la necesidad de promover la alfabetización crítica en IA
  • IA generativa en acceso abierto y nuevos paradigmas económicos
  • Implicaciones de la IA en la ciencia abierta y recomendaciones para la práctica bibliotecaria
  • Aplicaciones concretas de IA en la comunicación académica (ScienceON)
  • Automatización de codificación cualitativa mediante IA
  • Percepciones de editores de revistas frente al uso de IA en la publicación
  • Mejora del proceso de búsqueda de información usando modelos como Kuhlthau
  • Colaboración entre IA y humanos para modelado de metadatos
  • Reproducción de privilegios informativos y consideraciones pedagógicas
  • Uso de IA para analizar literatura científica (Consensus)
  • Evaluación ética del uso de Claude AI para revisiones bibliográficas

¿Dónde trabajan los robots?

Melo, M.F. “Porcentaje de ingresos procedentes de robots industriales y de servicios en todo el mundo.” Statista.. Accedido el 27 de agosto de 2025.

Texto completo

Para 2025, se espera que la robótica genere ingresos significativos en distintos sectores, destacando especialmente el campo de la medicina, que representa aproximadamente el 27 % de los ingresos totales. Los robots en medicina no solo se utilizan en cirugía, sino que también tienen aplicaciones en desinfección, rehabilitación y transporte de suministros, mostrando cómo la tecnología robótica está ampliando sus funciones dentro de hospitales y centros de salud. Este crecimiento refleja tanto la inversión en innovación como la necesidad de optimizar la atención al paciente y la eficiencia operativa.

En el ámbito doméstico, los robots de servicio han experimentado un aumento considerable, con una expectativa de generar casi el 20 % de los ingresos de la robótica en 2025. Esta cifra incluye principalmente robots aspiradores, aunque también contribuyen robots cortacésped y otros dispositivos automatizados para el hogar. En el sector servicios, otras aplicaciones, como robots camareros o baristas, todavía representan un porcentaje menor, alrededor del 10 %, pero su coste por unidad es elevado, y su presencia señala la tendencia hacia una integración más avanzada de la robótica en la vida cotidiana y en la industria de la hostelería.

Otros sectores de aplicación mantienen porcentajes más modestos, generalmente de un solo dígito, pero muestran un panorama diversificado de la robótica. Esto incluye la industria del entretenimiento, las industrias eléctrica y electrónica, así como aplicaciones en la automoción, logística, agricultura y química. A medida que la tecnología avanza y los costos disminuyen, es probable que la adopción de robots en estos campos continúe aumentando, contribuyendo a un ecosistema robótico más amplio y multifacético.

Asta: acelerando la ciencia a través de un agente de IA confiable.

Allen Institute for AI. 2025. “Asta: Accelerating Science through Trustworthy Agentic AI.AI2 Blog, August 26, 2025. Allen Institute for AI. https://allenai.org/blog/asta

https://asta.allen.ai/chat

Allen Institute for Artificial Intelligence (AI2) anunció el 26 de agosto de 2025 el lanzamiento de Asta, una iniciativa concebida para acelerar el avance científico mediante el uso de asistentes de inteligencia artificial “agentic”, es decir, agentes autónomos capaces de planificar y ejecutar tareas complejas.

La meta de Asta es ofrecer a los investigadores herramientas que no solo sean potentes, sino también comprensibles, verificables y confiables, de manera que la comunidad científica pueda adoptarlas sin temor a opacidad ni falta de rigor.

El ecosistema Asta se compone de tres pilares fundamentales.

  • Asta Agents, asistentes diseñados para acompañar a los investigadores en procesos científicos reales. No buscan sustituir a los humanos, sino ayudarles a plantear preguntas, organizar ideas, rastrear evidencias y distinguir entre lo que está bien establecido y lo que todavía sigue siendo una incógnita en un campo de estudio.
  • AstaBench, un marco de evaluación riguroso que proporciona estándares transparentes para medir y comparar la eficacia de los agentes de IA, ya sean de Asta o de otras iniciativas. Este banco de pruebas incluye leaderboards y tareas reales, con lo que promueve la reproducibilidad y la confianza en los resultados.
  • Asta resources, un conjunto de recursos abiertos para desarrolladores: agentes de referencia de código abierto, modelos de lenguaje entrenados con literatura científica y herramientas modulares compatibles con el Model Context Protocol (MCP), todas ellas destinadas a facilitar la construcción de agentes de investigación más sólidos y fiables.

El anuncio subraya que uno de los principales problemas en la adopción de inteligencia artificial en la ciencia es la falta de estándares claros y confiables. Los científicos suelen mostrarse escépticos, ya que sin marcos de evaluación transparentes resulta difícil juzgar si un modelo tiene realmente la capacidad de razonamiento profundo que requiere el trabajo científico. Asta responde a este reto al proporcionar, al mismo tiempo, agentes prácticos para investigadores y un sistema robusto de evaluación para desarrolladores, integrando así los dos mundos en un mismo ecosistema.

La primera versión de Asta incluye tres funciones principales.

  • La herramienta Find Papers —que antes se conocía como Paperfinder— ofrece un sistema avanzado de búsqueda de artículos que reformula consultas, sigue citas y explica por qué un texto es relevante, superando las limitaciones de los buscadores académicos convencionales.
  • La función Summarize Literature, anteriormente llamada ScholarQA, transforma preguntas de investigación en resúmenes estructurados, con afirmaciones respaldadas por citas verificables y fragmentos textuales. De este modo, permite condensar millones de resúmenes y artículos completos en panorámicas claras que destacan resultados, controversias y preguntas abiertas.
  • Finalmente, Analyze Data, aún en versión beta, convierte preguntas en lenguaje natural en análisis reproducibles: explora conjuntos de datos, genera hipótesis, ejecuta pruebas estadísticas y explica los resultados de manera comprensible, haciendo que la investigación basada en datos sea más accesible para múltiples disciplinas.

En conjunto, Asta se plantea como un impulso hacia una ciencia abierta, transparente y reproducible. Para los investigadores, significa contar con un asistente confiable que facilita la búsqueda, la síntesis de información y el análisis de datos. Para los desarrolladores, representa un entorno integral de evaluación y recursos que permite crear agentes de IA preparados para producción y capaces de responder a las exigencias de la investigación científica. Con esta iniciativa, AI2 refuerza su compromiso de situar a la inteligencia artificial como un aliado estratégico en la generación de conocimiento y en la aceleración de descubrimientos que impacten en la sociedad.

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada

Consensus: motor de búsqueda impulsado por inteligencia artificial (IA) para facilitar la investigación científica y académica con fuentes confiables

Consensus

https://consensus.app/

Consensus es un motor de búsqueda impulsado por inteligencia artificial (IA) diseñado para facilitar la investigación científica y académica. A diferencia de los motores de búsqueda tradicionales, Consensus permite a los usuarios realizar preguntas en lenguaje natural y obtener respuestas basadas en evidencia extraídas de más de 200 millones de artículos científicos revisados por pares. La plataforma utiliza modelos de lenguaje avanzados para analizar y sintetizar la información relevante, proporcionando resúmenes claros y concisos con citas directas a las fuentes originales.

Cuando un usuario formula una pregunta, Consensus realiza una búsqueda en su base de datos de artículos científicos y utiliza algoritmos de IA para generar una respuesta que resume los hallazgos más relevantes. Cada respuesta incluye citas numeradas que corresponden a los artículos de donde se extrajo la información, permitiendo a los usuarios verificar y profundizar en las fuentes originales .

Consensus es especialmente útil para investigadores, estudiantes y profesionales que buscan acceder rápidamente a información científica confiable. Es ideal para:

  • Realizar revisiones de literatura
  • Obtener resúmenes de estudios científicos.
  • Identificar tendencias y consensos en la investigación.
  • Generar contenido académico respaldado por evidencia.

Fiabilidad de los detectores de escritura con IA

La fiabilidad de los detectores de texto generado por inteligencia artificial (IA) es un tema de creciente preocupación y debate en diversos ámbitos, como la educación, el periodismo y la investigación académica. Aunque existen herramientas comerciales que afirman altos niveles de precisión, diversos estudios han evidenciado limitaciones significativas en su desempeño.

Investigaciones han revelado que muchos detectores de IA presentan tasas de precisión inferiores al 80%. Por ejemplo, un estudio realizado por Weber-Wulff y colaboradores en 2023 evaluó 14 herramientas de detección, incluyendo Turnitin y GPTZero, y encontró que «todos puntuaron por debajo del 80% de precisión, y solo 5 superaron el 70%» . Además, estas herramientas tienden a clasificar los textos más como humanos que como generados por IA, y su precisión disminuye al parafrasear el contenido.

Un estudio adicional de la Universidad de Maryland destacó que los detectores actuales no son fiables en escenarios prácticos, con un rendimiento apenas superior al de un clasificador aleatorio. Además, técnicas de parafraseo pueden reducir significativamente la tasa de detección.

El uso de detectores de IA también ha suscitado preocupaciones éticas. Investigaciones han demostrado que estos sistemas tienden a clasificar erróneamente los textos de personas no nativas en inglés como generados por IA. Por ejemplo, un estudio reveló que los ensayos de escritores no nativos fueron clasificados como generados por IA en un 61,3% de los casos, en comparación con solo el 10% de los ensayos de escritores nativos.

Además, se ha observado que los detectores de IA pueden tener dificultades para identificar contenido generado por modelos avanzados como GPT-4, lo que plantea desafíos adicionales para su aplicación en contextos académicos y profesionales.

Dado el panorama actual, se recomienda utilizar los detectores de IA como herramientas complementarias y no como métodos definitivos para evaluar la autoría de un texto. Es esencial considerar el contexto y aplicar un juicio humano informado al interpretar los resultados de estas herramientas. Además, se destaca la importancia de desarrollar tecnologías de detección más avanzadas y éticamente responsables para abordar los desafíos emergentes en la identificación de contenido generado por IA.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.

La IA está haciendo que leer libros parezca obsoleto y los estudiantes tienen mucho que perder

Baron, Naomi S. – “AI Is Making Reading Books Feel Obsolete – and Students Have a Lot to Lose.The Conversation, August 14, 2023. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

El artículo aborda cómo la inteligencia artificial está cambiando la forma en que los estudiantes interactúan con la lectura y el aprendizaje.

«Se está gestando una tormenta perfecta para la lectura. La inteligencia artificial (IA) ha llegado en un momento en el que tanto los niños como los adultos ya dedicaban menos tiempo a leer libros que en un pasado no muy lejano. Como lingüista, estudio cómo la tecnología influye en la forma en que las personas leen, escriben y piensan. Esto incluye el impacto de la IA, que está cambiando drásticamente la forma en que las personas se relacionan con los libros u otros tipos de escritos, ya sea por obligación, para investigar o por placer. Me preocupa que la IA esté acelerando un cambio continuo en el valor que las personas otorgan a la lectura como actividad humana».

Naomi S. Barón

La autora, profesora y experta en educación, señala que las herramientas de IA, como los resúmenes automáticos y los asistentes de escritura, están reduciendo la necesidad de leer libros completos. Esto puede llevar a una comprensión superficial de los contenidos y a una pérdida de habilidades críticas como el análisis profundo y la reflexión personal.

Además, se destaca que la dependencia de la IA para tareas académicas puede disminuir la capacidad de los estudiantes para desarrollar habilidades cognitivas esenciales, como la concentración sostenida y el pensamiento crítico. La autora advierte que esta tendencia podría tener consecuencias a largo plazo en la formación intelectual de las nuevas generaciones.

Por último, se sugiere que, aunque la IA puede ser una herramienta útil, no debe reemplazar la experiencia de lectura profunda y reflexiva que los libros ofrecen. Se hace un llamado a equilibrar el uso de la tecnología con métodos tradicionales de aprendizaje para preservar el desarrollo cognitivo integral de los estudiantes.

Este análisis invita a reflexionar sobre cómo la tecnología está transformando la educación y la importancia de mantener prácticas que fomenten el pensamiento crítico y la comprensión profunda.

Impacto del uso de la inteligencia artificial en el desarrollo cognitivo y emocional de niños y adolescentes

Masur, C. “Is AI Taking Over Your Kid’s Brain?Psychology Today, junio 12, 2025. https://www.psychologytoday.com/us/blog/parenting-matters/202506/is-ai-taking-over-your-kids-brain

Se analiza cómo el uso creciente de herramientas de inteligencia artificial (IA) por parte de niños y adolescentes —para tareas escolares, la redacción de ensayos y exámenes, o incluso para resolver conflictos interpersonales— puede tener efectos negativos en su desarrollo cognitivo y emocional

Se presenta un estudio del Pew Research Center que muestra que un 26 % de los adolescentes usan IA para tareas escolares, cifra que sube al 31 % entre adolescentes negros e hispanos, y entre estudiantes de 11.º y 12.º grado. Además, el 54 % considera aceptable usar ChatGPT para investigar y 29 % para resolver problemas matemáticos. Entre quienes conocen la plataforma, 79 % lo ve como herramienta válida para la investigación.

En el ámbito universitario, el uso de IA es aún más común, con un 86 % de estudiantes utilizándola para escribir, investigar y completar tareas de manera recurrente. Se desglosa cómo emplean estas herramientas: 69 % para buscar información, 42 % para corregir gramática, 33 % para resumir documentos, 28 % para parafrasear, y 24 % para redactar borradores iniciales.

Se expresa una preocupación central: al delegar tareas intelectuales en la IA, los jóvenes podrían ver afectadas capacidades esenciales como el razonamiento lógico, la construcción de argumentos convincente y la expresión precisa de ideas; habilidades que se desarrollan procesando ideas por cuenta propia.

Por todo ello, se plantean preguntas éticas y educativas: ¿Estamos sacrificando el pensamiento crítico y la autonomía intelectual al permitir una dependencia creciente de la IA? ¿O estamos simplemente adaptándonos a una tendencia inevitable, considerando que muchas profesiones ya integran estas herramientas en su práctica diaria —como la medicina o el derecho—?

Google revela el costo ambiental de Gemini: menos energía por consulta, pero más emisiones globales

Crownhart, Casey. 2025.In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, August 21, 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy

Google ha publicado un informe técnico detallado sobre la huella ambiental de su modelo de IA Gemini, destacando métricas clave como energía, emisiones de carbono y consumo de agua por cada consulta de texto, algo poco común entre empresas del sector

Según este estudio, la consulta mediana de texto en Gemini utiliza aproximadamente 0,24 vatios-hora, una cifra equivalente a ver la televisión durante menos de nueve segundos. Además, la emisión de carbono por consulta es de 0,03 gramos de CO₂ equivalente, y el consumo de agua asciende a 0,26 ml, es decir, alrededor de cinco gotas.

Estos avances reflejan una mejora notable en eficiencia: en el último año, el consumo energético por consulta cayó 33 veces, mientras que la huella de carbono disminuyó 44 veces, todo esto mientras mejoraba la calidad de las respuestas de Gemini

Google atribuye estos logros a una estrategia integral que abarca desde el diseño de hardware y algoritmos más eficientes hasta mejoras en modelos y centro de datos alimentados por energías limpias .

No obstante, expertos han planteado críticas sobre el enfoque de Google, señalando que sus estimaciones podrían ser engañosas, ya que omiten impactos indirectos como el uso de agua adicional y una contabilización optimista de las emisiones de carbono (basada en el mercado).

Aun así, a pesar de la aparente eficiencia por consulta, el consumo total de energía y agua sigue siendo relevante, especialmente considerando la escala global del uso de IA

Finalmente, aunque la empresa ha avanzado en eficiencia y transparencia, su huella global de emisiones ha aumentado —un 51 % desde 2019— principalmente por la creciente demanda energética derivada del uso de IA y el crecimiento de sus centros de datos