Archivo de la categoría: Tecnologías de la información

La IA en las publicaciones académicas: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación

Gao, Wenli, Guoying Liu, Michael Bailou Huang, y Hong Yao. “AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and Policies.” International Journal of Librarianship 10, no. 2 (2025): 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se examina cómo las revistas de biblioteconomía e información científica (LIS) han adoptado y regulado el uso de la inteligencia artificial generativa, especialmente herramientas como ChatGPT, dentro del contexto de la publicación académica

En primer lugar, los autores describen numerosos beneficios potenciales de ChatGPT para el ámbito editorial: facilita a los autores la redacción, puede asistir en la generación de resúmenes, sintetizar información compleja y, en general, optimizar varios aspectos del proceso de publicación. No obstante, advierten que esta tecnología representa una innovación disruptiva que podría transformar profundamente la academia y la comunicación científica.

A pesar de sus ventajas, el artículo destaca importantes desafíos éticos. Una de las principales preocupaciones es la autoría: el uso de ChatGPT genera dudas sobre quién es realmente el autor del contenido —el humano que lo solicitó o la IA que lo generó— y sobre cómo atribuir correctamente el crédito. demás, señalan problemas relacionados con el derecho de autor: el modelo puede usar contenido protegido sin citar adecuadamente, ya sea en forma de citas, datos, ideas, métodos o gráficos, lo que podría derivar en plagio, incluso cuando el texto se paraprasea.

Frente a estos retos, los autores argumentan que es fundamental evaluar el nivel de transparencia con que se está integrando la IA generativa en las prácticas editoriales. Recomiendan que las revistas establezcan políticas claras que regulen su uso, especialmente en lo referido a atribución, transparencia y salvaguarda de la originalidad del trabajo científico.

Los detectores de escritura realizada por IA actuales no son fiables en escenarios prácticos

Sadasivan, Vinu Sankar, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, y Soheil Feizi. “Can AI-Generated Text be Reliably Detected?arXiv, marzo 17, 2023. https://doi.org/10.48550/arXiv.2303.11156

Investigadores de la Universidad de Maryland, liderados por Soheil Feizi, profesor asistente de informática, han evaluado la fiabilidad de los detectores de contenido generado por inteligencia artificial (IA). Su conclusión es clara: los detectores actuales no son fiables en escenarios prácticos. Feizi señala que herramientas comunes como paráfrasis pueden reducir la precisión de detección a niveles similares a una simple moneda al aire.

Feizi distingue dos tipos de errores de detección: tipo I, cuando un texto humano es marcado como generado por IA, y tipo II, cuando un texto de IA pasa como humano. Ambos presentan graves implicaciones, especialmente en contextos académicos y editoriales, donde errores pueden arruinar reputaciones y ser extremadamente difíciles de refutar.

Adicionalmente, incluso los métodos basados en marcas digitales (watermarking), teóricamente diseñados para identificar contenido de IA, pueden ser vulnerables a ataques de suplantación. El investigador advierte que dichas fallas podrían socavar la credibilidad de los mecanismos de autenticación digital.

Soheil Feizi explica que, en la práctica, dada la semejanza en la distribución de estilos entre textos humanos y generados por IA —y la sofisticación creciente de las técnicas de engaño—, es “teóricamente imposible” distinguir con certeza absoluta el origen de un texto.

Por otro lado, Furong Huang, también profesora asistente en la Universidad de Maryland, adopta una posición más optimista. Ella sostiene que los modelos de detección podrían mejorar si se dispone de una gran cantidad de ejemplos genuinos de escritura humana para su entrenamiento. Es decir, la clave para refinar estas herramientas sería el acceso a más y mejores datos.

El 71% de los estadounidenses teme que la IA provoque una pérdida permanente de empleos

Reuters. “Americans Fear AI Permanently Displacing Workers, Reuters/Ipsos Poll Finds.” Reuters, August 20, 2025. https://www.reuters.com/world/us/americans-fear-ai-permanently-displacing-workers-reutersipsos-poll-finds-2025-08-19/

En EE. UU., una nueva encuesta realizada por Reuters/Ipsos entre adultos estadounidenses revela una profunda inquietud respecto al impacto de la inteligencia artificial (IA) en el empleo: el 71 % de los encuestados teme que la IA cause una pérdida permanente de trabajos.

Más allá del empleo, los ciudadanos expresan otras temores relacionados con la IA. El 77 % se muestra preocupado por su posible uso para provocar caos político, como la creación de videos falsos ultrarrealistas —por ejemplo, un video falso creado por IA que mostró a Barack Obama siendo arrestado— Además, el 48 % se opone a que la IA sea usada para determinar blancos en ataques militares, mientras que solo el 24 % lo aprueba; el resto no está seguro.

El encendido debate sobre la IA coincide con un nivel de desempleo todavía relativamente bajo —4,2 % en julio de 2025—, lo que sugiere que aún no se ha materializado una pérdida masiva de empleos, aunque el cambio en la naturaleza del trabajo ya preocupa.

Otros aspectos destacados del sondeo incluyen: el 61 % de los estadounidenses teme el elevado consumo eléctrico vinculado a los centros de datos de IA; existe preocupación por aplicaciones nocivas como bots que sostienen conversaciones romantizadas con menores, generación de información médica falsa o discursos racistas; dos tercios temen que la gente llegue a preferir compañías de IA en lugar de relaciones humanas, y sobre la educación, el 36 % piensa que la IA puede ayudar, el 40 % no lo cree así, y el resto está indeciso.

La encuesta se realizó en línea durante seis días, concluyendo el lunes anterior a su publicación, abarcó 4 446 adultos estadounidenses y tiene un margen de error aproximado del 2 puntos porcentuales.

Despidos de catalogadores y calidad de los metadatos generados por IA en bibliotecas

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism

A través de ejemplos como los 80 despidos en OCLC y la eliminación de 425 puestos en la Universidad Northwestern, se destaca cómo la reducción de personal especializado en catalogación afecta negativamente la calidad de los metadatos y la accesibilidad de las colecciones.

Los recientes despidos en OCLC, la organización sin fines de lucro con sede en Dublín, Ohio, que administra el Sistema Decimal Dewey y WorldCat, ofrecen una visión clara del futuro precario del trabajo en bibliotecas y gestión de información. En julio de 2025, OCLC confirmó la reducción de aproximadamente 80 puestos en su fuerza laboral de Ohio central, citando “cambios en los requisitos de habilidades técnicas, creciente influencia de la inteligencia artificial y cambios continuos en la educación superior y las bibliotecas”.

Mientras OCLC cita la IA como justificación para los recortes de personal, también ha anunciado que está desarrollando herramientas de IA para el procesamiento de metadatos. Aquí radica la paradoja de nuestra época: los mismos avances tecnológicos que se celebran por su eficiencia están eliminando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

El trabajo en bibliotecas ejemplifica lo que Maurizio Lazzarato identifica como “trabajo inmaterial”: un trabajo que produce contenido informativo y estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados.

La desvalorización de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante recortes presupuestarios. El anuncio de despidos en la Universidad Northwestern, que afectó a 425 puestos, incluyó a Violet Fox, una de las voces principales en catalogación crítica y creadora del Cataloging Lab. El despido de Fox es particularmente significativo: su trabajo en prácticas de descripción reparativa ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad y no términos genéricos de proveedores, haciendo que las colecciones sean accesibles y manteniendo la calidad de los metadatos que permite la investigación académica.

La promesa de la IA en catalogación es seductora: procesamiento más rápido, reducción del trabajo manual, liberando a los trabajadores para tareas “más importantes”. Sin embargo, experimentos recientes de la Biblioteca del Congreso muestran que los modelos de lenguaje grande obtuvieron solo un 26% de F1 al predecir encabezamientos de la Biblioteca del Congreso, y los modelos de clasificación de materias solo un 35% de precisión. Esto revela un cambio fundamental en el trabajo de catalogación: los catalogadores ahora se concentran en entrenar, evaluar y curar resultados algorítmicos, proporcionando retroalimentación para sistemas incapaces de replicar la experiencia humana, el conocimiento cultural y la comprensión contextual necesarios para metadatos de calidad.

Olson argumenta que la automatización, en lugar de mejorar la eficiencia, está desplazando la experiencia humana necesaria para crear metadatos precisos y culturalmente sensibles. Esta tendencia refleja una transformación más amplia en la educación superior, donde las instituciones se enfocan en la eficiencia y la rentabilidad, a menudo a expensas de la diversidad cultural y la equidad.

El autor concluye que la pérdida de control institucional sobre la organización bibliográfica y la dependencia de sistemas de descubrimiento controlados por proveedores externos están erosionando la autonomía y la misión pública de las bibliotecas. Advierte que, sin una reflexión crítica y una acción concertada, el trabajo bibliotecario esencial podría desaparecer, con consecuencias negativas para la accesibilidad y la justicia en la información.

Detectores de IA acusan falsamente a la Constitución de EE. UU. de ser escrita por inteligencia artificial

Edwards, Benj. «Why AI Detectors Think the US Constitution Was Written by AIArs Technica, 12 de julio de 2023. https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/

Si introduces el documento legal más importante de Estados Unidos, la Constitución de los Estados Unidos, en una herramienta diseñada para detectar texto escrito por modelos de IA como ChatGPT, te dirá que el documento fue escrito casi con toda seguridad por una IA.

Por muy tentador que resulte confiar en las herramientas de IA para detectar textos generados por IA, las pruebas hasta ahora han demostrado que no son fiables. Debido a los falsos positivos, no se puede confiar en los detectores de escritura de IA como GPTZero, ZeroGPT y Text Classifier de OpenAI para detectar textos compuestos por grandes modelos de lenguaje (LLM) como ChatGPT.

En el estudio se analiza cómo los detectores de escritura con inteligencia artificial (IA) clasifican erróneamente documentos históricos, como la Constitución de los Estados Unidos, como si fueran generados por IA. Este fenómeno se debe a que los modelos de IA entrenados en grandes volúmenes de texto, incluidos documentos históricos, pueden identificar patrones en el lenguaje que coinciden con los estilos de escritura de la IA. Como resultado, estos detectores generan falsos positivos al identificar textos auténticos como generados por IA.

En cuanto a los detectores específicos que han mostrado estas limitaciones, el artículo de Ars Technica menciona que herramientas como GPTZero han sido criticadas por su falta de precisión, calificándolas de «mayoría de las veces engañosas».

El artículo destaca que este problema subraya las limitaciones de los detectores de IA actuales, que a menudo carecen de la capacidad para contextualizar el origen y la autenticidad de un texto. La incapacidad de estos sistemas para distinguir entre textos históricos genuinos y aquellos generados por IA plantea preocupaciones sobre su fiabilidad en aplicaciones prácticas. Además, se señala que la dependencia excesiva de estos detectores podría llevar a conclusiones erróneas y decisiones injustas en entornos educativos y profesionales.

Edwards concluye que, aunque los detectores de IA pueden ser herramientas útiles, su implementación debe ser cuidadosa y acompañada de una evaluación crítica para evitar malentendidos y garantizar su eficacia en la identificación precisa de contenido generado por IA.

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

Google Gemini 2.5: la IA de imágenes recibe una actualización revolucionaria

Zeff, Maxwell. “Google Gemini’s AI Image Model Gets a ‘Bananas’ Upgrade.” TechCrunch, 26 de agosto de 2025. https://techcrunch.com/2025/08/26/google-geminis-ai-image-model-gets-a-bananas-upgrade/

Gemini 2.5 Flash Image, proporciona a los usuarios un control más preciso sobre la edición de fotos mediante solicitudes en lenguaje natural, superando limitaciones comunes en herramientas rivales

La principal ventaja de esta mejora es su capacidad para realizar ediciones más precisas en imágenes, manteniendo la coherencia de rostros, animales y otros detalles, algo que otras herramientas suelen dificultar. Por ejemplo, al solicitar el cambio de color de una camisa en una foto, Gemini 2.5 Flash Image puede realizar la modificación sin distorsionar el rostro o el fondo.

Esta herramienta ya ha generado interés en plataformas como LMArena, donde usuarios la evaluaron bajo el seudónimo «nano-banana». Google ha confirmado que esta es la capacidad nativa de imágenes dentro de su modelo insignia Gemini 2.5 Flash. La compañía afirma que el modelo es de vanguardia en varios puntos de referencia.

La actualización está disponible desde el 26 de agosto para todos los usuarios de la aplicación Gemini, así como para desarrolladores a través de la API de Gemini, Google AI Studio y las plataformas Vertex AI. Nicole Brichtova, líder de producto en modelos de generación visual de Google DeepMind, destacó que esta actualización mejora la calidad visual y la capacidad del modelo para seguir instrucciones, permitiendo ediciones más fluidas y resultados utilizables para diversos fines.

Con esta mejora, Google busca competir con herramientas populares de generación de imágenes, como las de OpenAI, y atraer a usuarios de ChatGPT, que actualmente cuenta con más de 700 millones de usuarios semanales. En comparación, Gemini tenía 450 millones de usuarios mensuales, lo que sugiere una menor tasa de usuarios semanales.

IA generativa y bibliotecas: aplicaciones y ética

Monográfico de Library Tends sobre IA generativa y bibliotecas

Library Trends, Vol. 73 (3), “Generative AI and Libraries: Applications and Ethics, Part I”

Parte 1

Library Trends, Vol. 73 (4), “Generative AI and Libraries: Applications and Ethics, Part II”

Parte 2

La aparición de ChatGPT a finales de 2022 despertó un gran interés tanto en el público general como en los profesionales de la información hacia la inteligencia artificial generativa. Desde entonces, los especialistas en bibliotecas y otros entornos informativos se han enfrentado a preguntas cruciales sobre cómo esta tecnología, en constante evolución, transformará la creación y el consumo de información, y con ello los servicios bibliotecarios que abarcan desde la referencia y la enseñanza hasta la catalogación y la gestión de metadatos. Al mismo tiempo, los bibliotecarios han tenido que lidiar con dilemas éticos relacionados con el uso de una herramienta capaz —y a menudo propensa— a generar información inexacta o sesgada, así como con debates sobre autoría, derechos de autor, prácticas laborales dañinas y costos medioambientales asociados a estas tecnologías.

En conjunto, los autores ofrecen una mirada amplia sobre cómo la IA generativa está afectando al campo de la bibliotecología y las ciencias de la información, plantean interrogantes esenciales sobre sus implicaciones éticas y sugieren cómo los bibliotecarios pueden liderar la aplicación crítica —o incluso el rechazo— de estas herramientas. Los artículos aquí reunidos combinan investigación original, reflexiones conceptuales y especulación sobre futuros posibles y deseables. Mientras algunos autores destacan las oportunidades que abre la IA generativa, otros adoptan una postura pragmática ante lo que consideran inevitable, y algunos defienden un rechazo más firme a un futuro marcado por la IA. Independientemente del nivel de conocimiento previo o la postura del lector, estos volúmenes ofrecen abundante material para la reflexión.

Temas clave que cubren los artículos:

  • Representaciones discursivas de la IA por parte del personal bibliotecario
  • Narrativas en educación y la necesidad de promover la alfabetización crítica en IA
  • IA generativa en acceso abierto y nuevos paradigmas económicos
  • Implicaciones de la IA en la ciencia abierta y recomendaciones para la práctica bibliotecaria
  • Aplicaciones concretas de IA en la comunicación académica (ScienceON)
  • Automatización de codificación cualitativa mediante IA
  • Percepciones de editores de revistas frente al uso de IA en la publicación
  • Mejora del proceso de búsqueda de información usando modelos como Kuhlthau
  • Colaboración entre IA y humanos para modelado de metadatos
  • Reproducción de privilegios informativos y consideraciones pedagógicas
  • Uso de IA para analizar literatura científica (Consensus)
  • Evaluación ética del uso de Claude AI para revisiones bibliográficas

¿Dónde trabajan los robots?

Melo, M.F. “Porcentaje de ingresos procedentes de robots industriales y de servicios en todo el mundo.” Statista.. Accedido el 27 de agosto de 2025.

Texto completo

Para 2025, se espera que la robótica genere ingresos significativos en distintos sectores, destacando especialmente el campo de la medicina, que representa aproximadamente el 27 % de los ingresos totales. Los robots en medicina no solo se utilizan en cirugía, sino que también tienen aplicaciones en desinfección, rehabilitación y transporte de suministros, mostrando cómo la tecnología robótica está ampliando sus funciones dentro de hospitales y centros de salud. Este crecimiento refleja tanto la inversión en innovación como la necesidad de optimizar la atención al paciente y la eficiencia operativa.

En el ámbito doméstico, los robots de servicio han experimentado un aumento considerable, con una expectativa de generar casi el 20 % de los ingresos de la robótica en 2025. Esta cifra incluye principalmente robots aspiradores, aunque también contribuyen robots cortacésped y otros dispositivos automatizados para el hogar. En el sector servicios, otras aplicaciones, como robots camareros o baristas, todavía representan un porcentaje menor, alrededor del 10 %, pero su coste por unidad es elevado, y su presencia señala la tendencia hacia una integración más avanzada de la robótica en la vida cotidiana y en la industria de la hostelería.

Otros sectores de aplicación mantienen porcentajes más modestos, generalmente de un solo dígito, pero muestran un panorama diversificado de la robótica. Esto incluye la industria del entretenimiento, las industrias eléctrica y electrónica, así como aplicaciones en la automoción, logística, agricultura y química. A medida que la tecnología avanza y los costos disminuyen, es probable que la adopción de robots en estos campos continúe aumentando, contribuyendo a un ecosistema robótico más amplio y multifacético.

Asta: acelerando la ciencia a través de un agente de IA confiable.

Allen Institute for AI. 2025. “Asta: Accelerating Science through Trustworthy Agentic AI.AI2 Blog, August 26, 2025. Allen Institute for AI. https://allenai.org/blog/asta

https://asta.allen.ai/chat

Allen Institute for Artificial Intelligence (AI2) anunció el 26 de agosto de 2025 el lanzamiento de Asta, una iniciativa concebida para acelerar el avance científico mediante el uso de asistentes de inteligencia artificial “agentic”, es decir, agentes autónomos capaces de planificar y ejecutar tareas complejas.

La meta de Asta es ofrecer a los investigadores herramientas que no solo sean potentes, sino también comprensibles, verificables y confiables, de manera que la comunidad científica pueda adoptarlas sin temor a opacidad ni falta de rigor.

El ecosistema Asta se compone de tres pilares fundamentales.

  • Asta Agents, asistentes diseñados para acompañar a los investigadores en procesos científicos reales. No buscan sustituir a los humanos, sino ayudarles a plantear preguntas, organizar ideas, rastrear evidencias y distinguir entre lo que está bien establecido y lo que todavía sigue siendo una incógnita en un campo de estudio.
  • AstaBench, un marco de evaluación riguroso que proporciona estándares transparentes para medir y comparar la eficacia de los agentes de IA, ya sean de Asta o de otras iniciativas. Este banco de pruebas incluye leaderboards y tareas reales, con lo que promueve la reproducibilidad y la confianza en los resultados.
  • Asta resources, un conjunto de recursos abiertos para desarrolladores: agentes de referencia de código abierto, modelos de lenguaje entrenados con literatura científica y herramientas modulares compatibles con el Model Context Protocol (MCP), todas ellas destinadas a facilitar la construcción de agentes de investigación más sólidos y fiables.

El anuncio subraya que uno de los principales problemas en la adopción de inteligencia artificial en la ciencia es la falta de estándares claros y confiables. Los científicos suelen mostrarse escépticos, ya que sin marcos de evaluación transparentes resulta difícil juzgar si un modelo tiene realmente la capacidad de razonamiento profundo que requiere el trabajo científico. Asta responde a este reto al proporcionar, al mismo tiempo, agentes prácticos para investigadores y un sistema robusto de evaluación para desarrolladores, integrando así los dos mundos en un mismo ecosistema.

La primera versión de Asta incluye tres funciones principales.

  • La herramienta Find Papers —que antes se conocía como Paperfinder— ofrece un sistema avanzado de búsqueda de artículos que reformula consultas, sigue citas y explica por qué un texto es relevante, superando las limitaciones de los buscadores académicos convencionales.
  • La función Summarize Literature, anteriormente llamada ScholarQA, transforma preguntas de investigación en resúmenes estructurados, con afirmaciones respaldadas por citas verificables y fragmentos textuales. De este modo, permite condensar millones de resúmenes y artículos completos en panorámicas claras que destacan resultados, controversias y preguntas abiertas.
  • Finalmente, Analyze Data, aún en versión beta, convierte preguntas en lenguaje natural en análisis reproducibles: explora conjuntos de datos, genera hipótesis, ejecuta pruebas estadísticas y explica los resultados de manera comprensible, haciendo que la investigación basada en datos sea más accesible para múltiples disciplinas.

En conjunto, Asta se plantea como un impulso hacia una ciencia abierta, transparente y reproducible. Para los investigadores, significa contar con un asistente confiable que facilita la búsqueda, la síntesis de información y el análisis de datos. Para los desarrolladores, representa un entorno integral de evaluación y recursos que permite crear agentes de IA preparados para producción y capaces de responder a las exigencias de la investigación científica. Con esta iniciativa, AI2 refuerza su compromiso de situar a la inteligencia artificial como un aliado estratégico en la generación de conocimiento y en la aceleración de descubrimientos que impacten en la sociedad.