Archivo de la categoría: Tecnologías de la información

Nuevas directrices sobre IA para ayudar a las bibliotecas de investigación

Lauren Coffey, «New AI Guidelines Aim to Help Research Libraries», Inside Higher Ed, accedido 8 de octubre de 2024, https://www.insidehighered.com/news/tech-innovation/libraries/2024/05/01/new-ai-guidelines-aim-help-research-librarians.

The Association of Research Libraries (ARL) ha publicado nuevas directrices sobre inteligencia artificial (IA) para ayudar a los bibliotecarios a afrontar el aumento de consultas relacionadas con esta tecnología emergente. Desde el lanzamiento de ChatGPT hace dos años, los bibliotecarios han asumido un papel clave en la investigación y el desarrollo de la IA, abordando inquietudes sobre derechos de autor y citaciones.

Las siete directrices se centran en el desarrollo y despliegue de la IA generativa, como los modelos de lenguaje de OpenAI, y buscan promover prácticas éticas y transparentes, así como construir confianza entre los interesados en el entorno de la investigación. Una encuesta reciente reveló que más del 75% de los bibliotecarios consideran urgente abordar las preocupaciones éticas y de privacidad relacionadas con la IA, tales como la violación de la privacidad y el uso indebido de datos.

Las directrices incluyen:

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca sobre la IA.
  2. Entender y concienciar sobre el sesgo en la IA: Ayudar a los usuarios a evaluar la información generada por la IA.
  3. Abogar por la apertura y la transparencia: Centrándose en los algoritmos y datos utilizados para crear la IA.
  4. Reconocer la importancia de los humanos en la IA: Asegurar que la ética y la accesibilidad sean consideradas en su uso.
  5. Priorizar la seguridad y privacidad: Abogar por leyes que protejan la información personal de los usuarios.
  6. Continuar con la aplicación de la ley de derechos de autor: Proteger los derechos de las bibliotecas para fines de investigación y educación.
  7. Promover la equidad en la información digital: Garantizar que las leyes de derechos de autor no sean superadas por contratos con empresas privadas.

Las líderes de ARL, Katherine Klosek y Cynthia Hudson Vitale, destacaron que estas directrices son un punto de referencia para abordar preocupaciones relacionadas con la IA y que están abiertas a futuras discusiones a medida que la tecnología y sus implicaciones evolucionan.

Problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA)

«Who Owns AI’s Output? – Communications of the ACM», 4 de octubre de 2024, https://cacm.acm.org/news/who-owns-ais-output/.

El artículo “Who Owns AI’s Output?” de Logan Kugler, explora los problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA). En un contexto en el que la IA generativa ha avanzado rápidamente en los últimos años, surgen preguntas sobre quién posee los derechos de autor o patentes de las creaciones de IA, como textos, imágenes, videos, audio y código.

Los diferentes países abordan de manera distinta la cuestión de la propiedad de las obras generadas por IA. En los Estados Unidos, la ley es estricta y no permite otorgar derechos de autor o patentes a obras creadas únicamente por IA. Se requiere la intervención significativa de un ser humano para que se otorgue protección a través de estos mecanismos legales. Sin embargo, otros países como el Reino Unido y Sudáfrica tienen leyes más flexibles que permiten, en algunos casos, la protección de obras generadas por IA.

Otro problema destacado en el artículo es el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA. La mayoría de los sistemas de IA se entrenan utilizando grandes volúmenes de datos, a menudo sin el consentimiento del creador original. Esto ha generado múltiples demandas, como la presentada por el New York Times contra OpenAI, acusando a la compañía de usar su contenido sin permiso para entrenar ChatGPT.

En respuesta a estos desafíos, algunos países, como la Unión Europea, han implementado regulaciones más estrictas para controlar cómo se utilizan los datos protegidos en el entrenamiento de IA. Por otro lado, Japón ha adoptado un enfoque más permisivo, permitiendo el uso de materiales protegidos para el entrenamiento de IA bajo excepciones amplias a la ley de derechos de autor.

El artículo concluye que las regulaciones sobre IA están evolucionando rápidamente, pero presentan grandes retos para los legisladores debido a la velocidad con la que avanza la tecnología. A medida que los países tratan de equilibrar la protección de los derechos de autor y fomentar la innovación tecnológica, es probable que se vean más cambios en las leyes y normativas sobre la propiedad de los productos generados por IA.

Cómo la IA gestionó 1,8 millones de documentos en 42 días para un banco líder de EE.UU.

«Information Futures Summit Closes with Launch of Brisbane Declaration», IFLA (blog), accedido 7 de octubre de 2024, https://www.ifla.org/news/information-futures-summit-closes-with-launch-of-brisbane-declaration/.


Cómo la IA gestionó 1,8 millones de documentos en 42 días para un banco líder de EE.UU.

Un importante banco estadounidense se enfrentaba a una tarea de enormes proporciones: Unificar los procesos de 6 bancos adquiridos y fusionar 1,8 millones de documentos en un único sistema.

¿La respuesta? El sistema basado en IA de Datamatics.

En sólo 42 días, se digitalizaron, clasificaron y convirtieron en buscables 35 millones de páginas. El tiempo de recuperación de documentos se redujo de 48 horas a minutos, y la precisión de la clasificación mejoró en un 87%.

El papel de las bibliotecas en la era de la inteligencia artificial (IA)


Alonso-Arévalo, Julio; Quinde-Cordero, Marlene. El papel de las bibliotecas en la era de la inteligencia artificial (IA). Boletín de la Asociación Andaluza de Bibliotecarios (AAB), N° 127, Enero-Junio 2024, pp. 27-37

Texto completo


La incorporación de la inteligencia artificial (IA) en las bibliotecas representa una evolución hacia lo que se conoce como “bibliotecas inteligentes”, adaptadas a las necesidades tecnológicas y educativas actuales. Estas instituciones están utilizando la IA para enriquecer la experiencia del usuario, brindando desde recomendaciones personalizadas hasta servicios de búsqueda avanzada y gestión eficiente de datos. No obstante, este avance también conlleva desafíos, como la privacidad de los datos y la fiabilidad de la información generada por la IA. Las bibliotecas están a la vanguardia de la alfabetización en IA, capacitando a sus usuarios para interactuar de manera responsable con esta tecnología y preparándolos para el mercado laboral digital del futuro. En este sentido, las bibliotecas siguen siendo esenciales como espacios de aprendizaje continuo y acceso equitativo al conocimiento en una sociedad cada vez más influenciada por la IA.

Mapeo de la investigación en inteligencia artificial en Europa

European Commission: European Research Council Executive Agency, Mapping ERC frontier research artificial intelligence, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2828/163337

El Consejo Europeo de Investigación (ERC) es la principal organización de financiación en Europa para la investigación de frontera. Desde su creación en 2007, ha sido un pilar de los programas de financiación de investigación e innovación de la UE, otorgando a sus beneficiarios la libertad de desarrollar proyectos ambiciosos en las fronteras del conocimiento. Estos proyectos, que abarcan todas las áreas de la ciencia, no siguen prioridades académicas o políticas predefinidas y pueden tener un impacto significativo más allá del ámbito científico, contribuyendo a resolver desafíos sociales y a informar sobre las políticas de la UE.

Este informe destaca cómo los proyectos financiados por el ERC están desarrollando o utilizando inteligencia artificial (IA) en sus procesos científicos, y cómo estos avances pueden ayudar a definir e implementar políticas relacionadas con la IA y sus aplicaciones transversales. Es el primer análisis integral del portafolio de IA del ERC, y está estructurado en los siguientes capítulos:

  1. Capítulo uno: Proporciona una visión general de los proyectos financiados por el ERC que desarrollan o usan IA en la ciencia.
  2. Capítulo dos: Ofrece un análisis detallado de la evolución y distribución de estos proyectos en los dominios científicos y disciplinas del ERC.
  3. Capítulo tres: Examina el paisaje político, vinculando los proyectos a áreas políticas específicas de la UE relacionadas con la IA.
  4. Capítulo cuatro: Analiza un subconjunto de proyectos que plantean preguntas éticas, legales y sociales urgentes en torno al desarrollo o uso de la IA.

Retos de la UE en materia de inteligencia artificial: Una gobernanza más sólida y una inversión mayor y más centrada

European Court of Auditors, EU Artificial Intelligence Ambition: Stronger Governance and Increased, More Focused Investment Essential Going Forward. Special Report,08, 2024 (Publications Office of the European Union, 2024), https://data.europa.eu/doi/10.2865/923687.

El futuro desarrollo económico de la UE probablemente dependerá de su capacidad para adoptar la tecnología de inteligencia artificial (IA). En 2018, la Comisión Europea aprobó un plan coordinado con los estados miembros para aumentar la inversión en IA y adaptar el entorno regulatorio, actualizado en 2021. Se evaluó la efectividad de la implementación de este marco, y aunque las acciones de la Comisión cubrieron aspectos clave para desarrollar un ecosistema de IA en la UE, los resultados fueron limitados y no lograron acelerar la inversión en IA al nivel de los líderes globales.

La falta de coordinación efectiva entre la Comisión y las medidas nacionales, junto con la ausencia de herramientas de gobernanza adecuadas, obstaculizó el progreso. El informe recomienda que la Comisión reevalúe el objetivo de inversión en IA de la UE, evalúe la necesidad de un instrumento de apoyo financiero más enfocado en IA, refuerce la coordinación y monitoreo, y aumente el apoyo para la explotación de los resultados obtenidos en la UE.

Inteligencia artificial (IA) y derechos humanos – Uso de la IA como arma de represión y su impacto en los derechos humanos

European Parliament: Directorate-General for External Policies of the Union and Ünver, A., Artificial intelligence (AI) and human rights – Using AI as a weapon of repression and its impact on human rights – In-depth analysis, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2861/52162

Este análisis profundo (IDA) examina a los actores, casos y técnicas más destacados del autoritarismo algorítmico, junto con el marco legal, regulatorio y diplomático relacionado con los sesgos y los usos indebidos de la inteligencia artificial (IA). A medida que el mundo avanza hacia la transformación digital, el uso de la IA en la toma de decisiones políticas, económicas y sociales ha introducido tendencias alarmantes en agendas represivas y autoritarias. Este mal uso se vuelve cada vez más relevante para el Parlamento Europeo, resonando con su compromiso de proteger los derechos humanos en el contexto de la transformación digital.

El estudio busca ofrecer una comprensión más amplia de los desafíos políticos, regulatorios y diplomáticos en la intersección de la tecnología, la democracia y los derechos humanos, destacando los patrones globales y las tecnologías emergentes del autoritarismo algorítmico. Al resaltar el papel de la IA en el fortalecimiento de tácticas autoritarias, se establece una base para las intervenciones políticas del Parlamento y su defensa de un marco internacional sólido para regular el uso de la IA, asegurando que el progreso tecnológico no debilite las libertades fundamentales.

Estudios de casos detallados y recomendaciones políticas sirven como recursos estratégicos para las iniciativas del Parlamento, subrayando la necesidad de vigilancia y medidas proactivas. Esto incluye la combinación de asociaciones (asistencia técnica), impulso industrial (Ley de IA), influencia (convergencia regulatoria) y fortaleza (sanciones, controles de exportación) para desarrollar enfoques estratégicos que contrarresten el control algorítmico.

Inteligencia artificial: un enfoque moderno

Russell Stuart y Norvig Peter, Artificial Intelligence: A Modern Approach (Upper Saddle River, 2010).

Texto completo

Artificial Intelligence: A Modern Approach (3ª edición) es el libro de texto más completo sobre la teoría y práctica de la inteligencia artificial. Líder en su campo, este libro es ideal para cursos de uno o dos semestres, a nivel de pregrado o posgrado en Inteligencia Artificial.

Por qué en IA lo más grande no siempre es lo mejor

«Why Bigger Is Not Always Better in AI», MIT Technology Review, accedido 2 de octubre de 2024, https://www.technologyreview.com/2024/10/01/1104744/why-bigger-is-not-always-better-in-ai/.

La creencia de que «más grande es mejor» en inteligencia artificial (IA) ha dominado la investigación en este campo, impulsada por la idea de que la cantidad de datos, la potencia de cómputo y el número de parámetros son los principales determinantes del rendimiento de un modelo. Esta mentalidad se consolidó con un artículo de 2017 de Google, que introdujo la arquitectura de transformer, y ha llevado a las grandes empresas tecnológicas a competir por la escala de sus modelos.

Sin embargo, expertos como Sasha Luccioni, líder de IA y clima en la startup Hugging Face, argumentan que los modelos actuales son “demasiado grandes”. Estos modelos no solo son difíciles de descargar y manipular, incluso si son de código abierto, sino que también presentan problemas significativos. Entre estos se encuentran prácticas invasivas de recolección de datos y la inclusión de contenido inapropiado en los conjuntos de datos, además de tener una mayor huella de carbono debido al alto consumo de energía necesario para su funcionamiento.

La escalabilidad de los modelos también conduce a una concentración extrema de poder en manos de unas pocas empresas tecnológicas grandes. Solo estas compañías tienen los recursos financieros y técnicos necesarios para desarrollar y operar modelos de gran escala, lo que crea un «cuello de botella» en el acceso a tecnologías de IA avanzadas y limita la diversidad de enfoques en el campo.

En contraposición a esta tendencia, el Allen Institute for Artificial Intelligence (Ai2) ha desarrollado un nuevo modelo de lenguaje multimodal llamado Molmo, que demuestra que se puede lograr un rendimiento impresionante utilizando modelos mucho más pequeños. Su modelo más grande, que cuenta con 72 mil millones de parámetros, supera en rendimiento a GPT-4, que se estima tiene más de un billón de parámetros, en tareas como la comprensión de imágenes, gráficos y documentos. Además, un modelo más pequeño de Molmo, con solo 7 mil millones de parámetros, se acerca al rendimiento de los modelos de vanguardia, gracias a métodos de recolección de datos y entrenamiento más eficientes.

Los investigadores de Ai2 han enfrentado el desafío de romper con la mentalidad de «más es mejor». Al iniciar el proyecto, el equipo se propuso pensar fuera de lo convencional y encontrar formas más efectivas de entrenar modelos que fueran accesibles y económicos. La filosofía detrás de Molmo subraya que «menos es más, lo pequeño es grande, y lo abierto es tan bueno como lo cerrado».

Otro argumento a favor de reducir la escala de los modelos es que los modelos más grandes suelen ser capaces de realizar una amplia gama de tareas, muchas de las cuales pueden no ser necesarias para los usuarios finales. Luccioni sostiene que, a menudo, los usuarios solo necesitan un modelo diseñado para tareas específicas, y que los modelos más grandes no siempre ofrecen ventajas en estos casos.

Para avanzar en la investigación y aplicación de IA, es fundamental cambiar las métricas utilizadas para evaluar el rendimiento de los modelos, enfocándose en factores relevantes como la precisión, la privacidad y la confiabilidad de los datos utilizados en su entrenamiento. Esto requiere un mayor nivel de transparencia en la industria, ya que muchos investigadores no comprenden completamente cómo y por qué sus modelos producen ciertos resultados, ni qué datos se han utilizado para entrenarlos.

Finalmente, se sugiere que es hora de reevaluar la suposición de que los modelos de IA son soluciones mágicas que resolverán todos los problemas. En lugar de seguir la tendencia de la escalabilidad, la comunidad de investigación y las empresas deben crear incentivos para fomentar un enfoque más consciente y sostenible en el desarrollo de inteligencia artificial, buscando hacer más con menos y utilizando recursos de manera más responsable.

Un análisis DAFO exhaustivo de la IA y la experiencia humana en la revisión por pares

Roohi Ghosh, «Strengths, Weaknesses, Opportunities, and Threats: A Comprehensive SWOT Analysis of AI and Human Expertise in Peer Review», The Scholarly Kitchen, 12 de septiembre de 2024, https://scholarlykistg.wpenginepowered.com/2024/09/12/strengths-weaknesses-opportunities-and-threats-a-comprehensive-swot-analysis-of-ai-and-human-expertise-in-peer-review/.

Roohi Ghosh aborda el papel de la revisión por pares en la era digital, especialmente a medida que se aproxima la Semana de la Revisión por Pares.

El auge del contenido generado por IA en revistas científicas plantea preguntas sobre la responsabilidad del proceso de revisión. La carga de trabajo de los revisores es abrumadora, con millones de artículos publicados cada año y un número limitado de revisores disponibles, quienes realizan este trabajo de manera voluntaria, a menudo en su tiempo libre.

Ghosh señala que la revisión por pares debe centrarse en fortalecer la ciencia, no en detectar contenido de IA. La expectativa de que los revisores busquen texto generado por IA desvía su atención de su verdadero objetivo, lo que diluye su experiencia. En lugar de añadir presión, la IA debería ser una herramienta que facilite el trabajo de los revisores.

Se plantean preguntas sobre cómo integrar herramientas de IA que puedan identificar contenido generado por IA antes de que los artículos lleguen a los revisores, permitiéndoles concentrarse en el contenido. También se sugiere que se debe ofrecer capacitación específica sobre el uso efectivo de estas herramientas y desarrollar un enfoque colaborativo entre revisores.

El análisis SWOT propone examinar las fortalezas, debilidades, oportunidades y amenazas tanto de la IA como de la experiencia humana en la revisión por pares. En lugar de culpar, se debe fomentar un diálogo sobre cómo utilizar la IA como un aliado en la preservación de la integridad de la investigación y replantear los roles dentro del proceso de revisión. La conversación debe cambiar de la culpa a la colaboración, reimaginando el futuro de la revisión por pares.