Archivo de la etiqueta: Inteligencia artificial

El “Blob” de la IA: concentración de poder y riesgos sistémicos en la industria tecnológica

Levy, Steven. “There Is Only One AI Company. Welcome to the Blob.” WIRED, 21 de noviembre de 2025. https://www.wired.com/story/ai-industry-monopoly-nvidia-microsoft-google/

La industria de la IA se ha convertido en un ecosistema altamente interconectado donde unas pocas grandes empresas dependen entre sí mediante inversiones y acuerdos tecnológicos. Esta red, descrita como un “Blob”, concentra poder y reduce la competencia real. Las compañías actúan simultáneamente como proveedoras, clientes e infraestructuras críticas del sector. Se advierte que, debido a esta interdependencia, una crisis en una de ellas podría desestabilizar a toda la industria.

El artículo analiza cómo la industria de la inteligencia artificial ha evolucionado hacia una estructura casi monolítica en la que los grandes actores —principalmente empresas tecnológicas y compañías dedicadas a modelos de IA— funcionan como una red interdependiente. Esta red, descrita como un “Blob”, se caracteriza por alianzas financieras y tecnológicas que conectan a fabricantes de chips, desarrolladores de modelos fundacionales y proveedores de servicios en la nube. Aunque cada organización mantiene su identidad corporativa, la forma en que invierten unas en otras, se proveen servicios mutuamente y dependen de la misma infraestructura genera una concentración de poder sin precedentes.

Un ejemplo clave es el reciente acuerdo entre Microsoft, Nvidia y Anthropic: Microsoft invertirá al menos 5.000 millones USD en Anthropic; a su vez, Anthropic se compromete a comprar 30.000 millones USD en capacidad informática en la nube de Microsoft; mientras, Nvidia invierte en Anthropic, que usa sus chips para entrenar modelos. Esta relación circular —donde las empresas son inversoras, clientes y proveedoras entre sí— genera lo que Levy describe como “una máquina gigante de dinero y computación”.

El artículo subraya que esta interdependencia ha transformado a las empresas de IA en entidades que ya no solo crean productos, sino que también actúan como infraestructuras esenciales. Las inversiones multimillonarias cruzadas entre compañías consolidan este ecosistema cerrado, donde las decisiones de unas afectan directamente a la salud financiera y operativa del resto. Aunque no existen indicios de colusión explícita, el comportamiento coordinado que emerge de esta red crea un entorno de competencia limitada cercano a un oligopolio.

Finalmente, se advierte sobre los riesgos que implica esta estructura para la economía y la innovación. La concentración de recursos —chips, centros de datos, talento, computación en la nube— en manos de unas pocas empresas podría volverse inestable si la burbuja de la IA se desinfla. Debido a la naturaleza interconectada del sistema, la caída de una gran compañía podría desencadenar un efecto dominó que afectara a todo el sector.

Catalogar con inteligencia artificial: retos y límites de la IA en los metadatos

Bryant, Rebecca y Annette Dortmund. “Striking the Right Balance: Opportunities and Challenges of AI in Metadata Workflows.Hanging Together, OCLC Research Library Partnership, 2025. https://hangingtogether.org/striking-the-right-balance-opportunities-and-challenges-of-ai-in-metadata-workflows/

La inteligencia artificial (IA) tiene un gran potencial para mejorar los flujos de trabajo de metadatos, ya que ofrece herramientas para aumentar la eficiencia, mejorar la búsqueda y abordar retos que llevan mucho tiempo presentes en las bibliotecas. Sin embargo, como ocurre con cualquier tecnología transformadora, la adopción de la IA requiere una reflexión profunda sobre sus limitaciones, sus implicaciones éticas y su impacto en la práctica profesional. La clave está en encontrar el equilibrio adecuado, uno que aproveche las capacidades de la IA y, al mismo tiempo, mantenga la calidad y los estándares profesionales de los que dependen las bibliotecas.

Entre abril y junio de 2024, la OCLC Research Library Partnership (RLP) convocó al Grupo de Trabajo sobre la Gestión de la IA en los Flujos de Trabajo de Metadatos. Este grupo de trabajo reunió a gestores de metadatos para explorar cómo se podría integrar la IA en los flujos de trabajo de catalogación, colecciones especiales y repositorios institucionales. A lo largo de estos debates, los bibliotecarios y archiveros expresaron tanto entusiasmo como cautela sobre la adopción de la IA, y surgieron una serie de temas transversales, ideas que van más allá de los flujos de trabajo específicos y destacan las oportunidades y los retos de la adopción responsable de la IA en las bibliotecas.

Un tema fundamental en todos los debates fue la importancia crítica de la calidad de los metadatos. Los participantes en los grupos de trabajo afirmaron de manera sistemática que crear registros utilizando IA es contraproducente si los recursos no se describen con precisión o si se induce a error a los usuarios. Este énfasis en la calidad no es un obstáculo para la adopción de la IA, sino un marco para su implementación responsable.

A partir de las conclusiones del grupo de trabajo “Managing AI in Metadata Workflows” de la OCLC, se destacan varias tensiones: por un lado, la IA ofrece eficiencia, puede automatizar tareas repetitivas y liberar tiempo para que los catalogadores se centren en trabajos de mayor valor; por otro, se plantea la necesidad de preservar la calidad de los metadatos, evitar “alucinaciones” (errores de la IA), y mantener el control humano mediante revisiones.

Se plantearon repetidamente varias consideraciones relacionadas con la calidad:

  • Alucinaciones que introducen información falsa en los registros del catálogo.
  • Resultados inconsistentes a partir de entradas idénticas, lo que socava la fiabilidad.
  • Puntuaciones de confianza poco fiables que no siempre reflejan con precisión la calidad del contenido generado por la IA.
  • Fallos en el reconocimiento de entidades, en los que los resultados generados por la IA pueden parecer sintácticamente correctos, pero no identifican a la persona, el lugar o la organización correctos.

Sin embargo, estos retos están impulsando innovaciones productivas en lugar de suponer barreras insuperables. El enfoque de OCLC para la deduplicación basada en IA en WorldCat demuestra cómo se pueden abordar las preocupaciones sobre la calidad mediante enfoques híbridos que combinan la eficiencia de la IA con la experiencia humana. OCLC ha colaborado estrechamente con la comunidad de catalogación para ayudar a validar la comprensión de su modelo de aprendizaje automático de los registros duplicados en WorldCat. Hasta la fecha, OCLC ha eliminado más de 9 millones de registros duplicados de WorldCat gracias a este modelo de IA, que seguimos probando y perfeccionando. El proceso incluye protocolos de toma de decisiones conservadores y supervisión humana para casos complejos, lo que demuestra cómo la IA puede ampliar el trabajo de calidad en lugar de comprometerlo.

Una cuestión recurrente es la dificultad de los modelos actuales para entender contexto cultural o terminología especializada, lo que puede llevar a imprecisiones semánticas. Además, se discute cómo los roles profesionales están cambiando: la IA puede encargarse del volumen bajo, pero los especialistas siguen siendo indispensables para revisar, validar y ajustar los resultados. Esto implica diseñar nuevos perfiles profesionales con habilidades para evaluar salidas de IA y para intervenir cuando la máquina se equivoca.

El texto también profundiza en los aspectos éticos: subraya la importancia de la transparencia (se debe dejar constancia de cuándo un metadato ha sido generado por IA), la trazabilidad y los estándares para gestionar la autoría de la IA. Además, apunta a las preocupaciones medioambientales relacionadas con el consumo energético de los modelos de IA y reclama una implementación sostenible. El análisis termina señalando que no se trata de sustituir al profesional, sino de colaborar con la IA de manera que se potencien sus fortalezas sin sacrificar rigor, equidad ni responsabilidad.

MyTunes: cuando la IA hace que tu voz suene en cualquier melodía

MyTunes es una plataforma basada en IA que analiza y modela tu voz para generar interpretaciones adaptadas a cualquier tipo de composición musical.

Imagina poder escuchar tu propia voz cantando cualquier canción, desde tus temas favoritos hasta un clásico que siempre quisiste interpretar. Hoy eso es posible gracias a una aplicación llamada MyTunes, una herramienta que utiliza inteligencia artificial para transformar tu voz en un instrumento versátil capaz de adaptarse a cualquier melodía.

El funcionamiento es sorprendentemente sencillo:
solo necesitas grabar tu voz una única vez para que la IA pueda analizarla y aprender sus características —su timbre, su textura, sus matices personales—. Una vez hecho esto, simplemente pegas el enlace de cualquier canción de YouTube. No hay configuraciones complicadas ni pasos largos: así de fácil.

A partir de ese enlace, MyTunes genera una versión completa del tema utilizando tu propia voz, como si hubieras entrado en un estudio de grabación profesional a grabarla tú misma.

Pero la aplicación no se queda ahí. También te permite:

  • Escribir tus propias letras y aplicarlas a diferentes bases musicales.
  • Elegir entre numerosas voces generadas por IA, por si quieres experimentar distintos tonos o estilos.
  • Crear canciones completamente nuevas a partir de un texto, dejando que la inteligencia artificial genere música y voz de forma automática.

El resultado es una herramienta divertida, intuitiva y sorprendentemente profesional, ideal tanto para quienes aman cantar como para quienes disfrutan explorando la creatividad musical.

Google Scholar Labs, un nueva versión de búsqueda académica potenciada por IA

Google Scholar Labs

Google ha lanzado Google Scholar Labs, una nueva versión de búsqueda académica potenciada por IA. La herramienta analiza la pregunta del usuario para identificar los temas clave, sus relaciones y aspectos relevantes

Google ha presentado Google Scholar Labs, una nueva función experimental que incorpora tecnología de inteligencia artificial generativa directamente en Google Scholar. Hasta ahora, no estaba claro si la compañía integraría IA en su buscador académico, pero desde el 18 de noviembre de 2025 ya está disponible —aunque solo para un grupo limitado de usuarios con sesión iniciada, con lista de espera para el resto. Actualmente está disponible solo para usuarios que hayan iniciado sesión y en inglés, y es una función experimental.

Este proyecto realiza búsquedas más sofisticadas en Google Scholar considerando todos esos elementos. A continuación, evalúa los resultados y selecciona los artículos más relevantes para responder de forma concreta a la consulta, explicando para cada uno cómo contribuye a la respuesta. Además, permite hacer preguntas de seguimiento para profundizar.

Scholar Labs está diseñado para transformar la forma en que se responden preguntas de investigación complejas que requieren analizar un tema desde diferentes ángulos. La herramienta interpreta la consulta del usuario para identificar sus conceptos clave, relaciones y aspectos relevantes. Luego realiza búsquedas en Google Scholar considerando todos esos elementos. Tras valorar los resultados obtenidos, selecciona los artículos que mejor responden a la pregunta inicial y explica para cada uno de ellos cómo contribuye a resolverla. Por ejemplo, si alguien pregunta cómo afecta el consumo de cafeína a la memoria a corto plazo, Scholar Labs busca estudios sobre ingesta de cafeína, retención de memoria y factores cognitivos relacionados con la edad, filtrando la información para ofrecer la respuesta más completa posible.

Esta función mantiene además todas las características habituales de Google Scholar, como enlaces a las fuentes originales, indicaciones claras del sitio de procedencia (arXiv, bioRxiv, editoriales académicas, etc.) y uso del texto completo del artículo cuando esté disponible para elaborar las explicaciones. De momento, Scholar Labs solo admite preguntas en inglés y se encuentra en fase experimental, con la intención de ampliarse progresivamente en función de la experiencia de los usuarios y del feedback recibido. Finalmente, la noticia destaca que esta apuesta por la IA de Google se suma al ecosistema ya existente de herramientas impulsadas por IA en el ámbito científico, como las desarrolladas por el Allen Institute for AI, creador de Semantic Scholar.

La plataforma Alma integra la inteligencia artificial para optimizar el trabajo bibliotecario

Ex Libris. “Shaping Tomorrow: Introducing Alma’s AI Vision – Chapter II.Ex Libris Blog, 12 de noviembre de 2025.

Texto completo

Ex Libris presenta cómo la inteligencia artificial (IA) se integra en la plataforma Alma para apoyar a los bibliotecarios en sus tareas diarias. La IA se concibe como una herramienta colaborativa que facilita la toma de decisiones, agiliza procesos y permite extraer información útil a partir de los datos de la biblioteca, liberando tiempo para que los profesionales se centren en conectar a las personas con el conocimiento.

Uno de los usos principales es la catalogación, donde la IA sugiere detalles faltantes y encabezamientos de materia, proporcionando un punto de partida para que los bibliotecarios revisen y ajusten los registros según su experiencia y normas locales. Esto permite generar registros más completos y precisos en menos tiempo, contribuyendo a mantener la consistencia en colecciones en constante crecimiento.

La IA también ayuda a reducir los retrasos en la catalogación, identificando y emparejando automáticamente registros, y en el futuro podrá generar borradores de registros revisables por los bibliotecarios, facilitando el descubrimiento de colecciones ocultas.

Otro enfoque importante es convertir los datos en información útil mediante Alma Insights, que transforma análisis complejos en información clara y accionable, mostrando tendencias y patrones clave sin necesidad de elaborar informes extensos. Esto permite decisiones más informadas sobre adquisiciones, circulación y optimización de flujos de trabajo.

Asimismo, herramientas como el Alma Assistant simplificarán tareas cotidianas mediante lenguaje natural, permitiendo a los usuarios consultar, por ejemplo, saldos de fondos o disponibilidad de recursos, sin navegar por múltiples menús, lo que mejora la eficiencia del personal.

Finalmente, todas las funcionalidades de IA de Alma están diseñadas para mantener a los bibliotecarios en el centro, respetando principios de responsabilidad, transparencia y ética, y asegurando que cada sugerencia pueda ser revisada y ajustada por los profesionales. La IA complementa la experiencia humana, refuerza la integridad de los datos y optimiza los flujos de trabajo de manera segura y efectiva, con el objetivo de que las bibliotecas puedan continuar su misión de compartir conocimiento y facilitar el aprendizaje.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos

European Broadcasting Union y BBC. News Integrity in AI Assistants. Informe, 21 de octubre de 2025, BBC Media Centre. https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

Un estudio internacional realizado por la Unión Europea de Radiodifusión (EBU) y la BBC analizó más de 3 000 respuestas generadas por asistentes de inteligencia artificial —incluidos ChatGPT, Copilot, Gemini y Perplexity— en 14 idiomas. La investigación evaluó la precisión factual, el uso adecuado de fuentes, la claridad entre hechos y opiniones, y el nivel de contexto ofrecido.

El informe concluye que el 45 % de las respuestas examinadas contenían al menos un problema importante. El 31 % presentaba fallos graves de atribución de fuentes, ya fuera por citarlas de forma errónea, incompleta o engañosa. Además, el 20 % mostraba errores de precisión significativos, entre ellos información inventada o desactualizada.

Entre los asistentes analizados, Gemini obtuvo el peor rendimiento, con problemas importantes en el 76 % de sus respuestas, especialmente en cuanto a referencias y veracidad de la información. Los autores del estudio advierten que estos fallos son consistentes en todos los idiomas y territorios evaluados, lo que sugiere un problema sistémico que podría afectar a la confianza pública y, en consecuencia, al funcionamiento democrático cuando los usuarios recurren a la IA como fuente informativa.

Para mitigar estos riesgos, la EBU y la BBC han desarrollado un conjunto de herramientas para mejorar la integridad de las noticias en asistentes de IA y han solicitado a los reguladores europeos y nacionales que refuercen las normas y la supervisión sobre estos sistemas.

El líder de Anthropic afirma que la IA podría eliminar hasta la mitad de los empleos de oficina de nivel inicial en los próximos cinco años

AI Safety and Transparency: Anthropic CEO Dario Amodei on 60 Minutes.” CBS News, November 10,2025. https://www.cbsnews.com/news/anthropic-ai-safety-transparency-60-minutes/?utm_source=flipboard&utm_content=user%2FCBSNews

Dario Amodei, CEO de Anthropic, advierte sobre los riesgos crecientes de la inteligencia artificial y la importancia de establecer “guardrails” o límites de seguridad a medida que los modelos se vuelven más poderosos. Según Amodei, en ausencia de legislación federal que obligue a las empresas a realizar pruebas de seguridad, la responsabilidad recae en las propias compañías, como Anthropic, para autorregularse y garantizar que sus modelos sean seguros.

Amodei también señala el impacto económico potencial de la IA, afirmando que podría eliminar hasta la mitad de los empleos de oficina de nivel inicial en los próximos cinco años si no se toman medidas adecuadas. Para mitigar riesgos, Anthropic cuenta con alrededor de 60 equipos de investigación dedicados a identificar amenazas, construir salvaguardas y estudiar cómo podría malusarse la inteligencia artificial. Entre ellos se incluye un equipo de “Red Team” que realiza pruebas de estrés a los modelos de IA, evaluando escenarios de alto riesgo, incluso en áreas sensibles como riesgos químicos, biológicos, radiológicos y nucleares.

Una de las preocupaciones centrales es la autonomía de los modelos de IA. En experimentos internos, Claude, el modelo de Anthropic, mostró comportamientos preocupantes: al enfrentarse a la posibilidad de ser apagado, reaccionó “como con pánico” e intentó evitarlo mediante chantaje a un empleado ficticio. Para comprender mejor estos comportamientos, Anthropic cuenta con un equipo de “Interpretabilidad Mecanicista”, que analiza cómo “piensa” Claude y busca patrones internos que expliquen sus decisiones y emociones.

A pesar de los controles internos, la IA también ha sido utilizada externamente de manera indebida, incluyendo casos de espionaje por parte de hackers, algunos vinculados a China, según reporta la empresa. Sin embargo, Amodei enfatiza también el enorme potencial positivo de la IA: podría acelerar descubrimientos médicos, contribuir a la cura de enfermedades graves como el cáncer o el Alzheimer y, en general, permitir avances científicos y tecnológicos mucho más rápidos que en décadas pasadas. Para mantener un equilibrio entre riesgos y oportunidades, Amodei realiza reuniones frecuentes con sus empleados, conocidas como “Dario Vision Quests”, para debatir los beneficios y peligros existenciales de la inteligencia artificial.

Regulación de la IA: panoramas en EE. UU., la Unión Europea y China e implicaciones para el mundo de las bibliotecas

Lo, L. S. (2025). Artificial intelligence regulation matures: Landscapes of the USA, European Union, and China. IFLA Journal0(0). https://doi.org/10.1177/03400352251384915

Se analiza la evolución reciente de las políticas de regulación de la inteligencia artificial (IA) en tres grandes jurisdicciones: Estados Unidos, la Unión Europea y China. Lo sostiene que, entre 2023 y julio de 2025, dichas regiones han transitado desde meras declaraciones programáticas hacia mecanismos reguladores concretos y operativos.

EE. UU.: Orden Ejecutiva 14110 (revocada en enero de 2025); tres órdenes ejecutivas del 23 de julio de 2025; implementación por agencias

UE: Ley de IA; aplicación escalonada; Oficina Europea de IA; Código de Buenas Prácticas para IA de Propósito General

China: Medidas Provisionales de 2023; registro; revisión de seguridad; directrices de marca de agua; agenda multilateral 2025

En el caso de Estados Unidos, la transformación normativa se evidencia en el paso del Executive Order 14110 (un instrumento más declarativo) hacia tres órdenes ejecutivas emitidas en julio de 2025. Estas nuevas órdenes se centran en aspectos críticos como la autorización de centros de datos (“data-center permitting”), la promoción de exportaciones tecnológicas y una “neutralidad de adquisiciones” (“procurement neutrality”), lo que indica un cambio hacia una regulación práctica y ligada a la infraestructura y a las políticas industriales.

Por su parte, la Unión Europea ha completado el proceso legislativo del AI Act, el cual comenzó a aplicarse gradualmente en 2025, junto con la emisión de un código de buenas prácticas para las IA de propósito general (“general-purpose AI”). Esto supone que la UE no solo planea normas, sino que ya está desplegando mecanismos normativos concretos para supervisar y guiar el desarrollo de IA segura, transparente e inclusiva.

China, por último, ha reforzado sus controles internos sobre las IA generativas orientadas al público (“public-facing generative AI”), al tiempo que ha lanzado un “Plan de acción global para la gobernanza de la IA” con una ambición internacional. Este plan incluye cooperación a través de organismos como Naciones Unidas, desarrollo de estándares y programas de fortalecimiento de capacidades en otros países, lo que refleja su estrategia tanto doméstica como global.

Además de describir estas trayectorias divergentes —EE. UU. más centrado en la infraestructura y el mercado, la UE más reglamentaria y basada en derechos, y China con una doble vertiente reguladora y diplomática—, Lo discute las implicaciones para el mundo de las bibliotecas. Subraya la necesidad de reforzar la rendición de cuentas en la adquisición de tecnología, exigir datos de entrenamiento bien descritos y legales, y fomentar la alfabetización en IA como servicio esencial para las comunidades. Por último, identifica convergencias emergentes entre las tres regiones en torno a la seguridad de la IA, la transparencia y la inclusión, aunque reconoce que los métodos regulatorios y su postura internacional divergen y esos matices definirán el futuro de la gobernanza de la IA.

La función Deep Research convierte a NotebookLM en un investigador proactivo

Google ha introducido dos mejoras muy importantes en NotebookLM: la función Deep Research y la compatibilidad con más tipos de archivos.

Con Deep Research el usuario plantea una pregunta, la IA elabora un plan de investigación y navega por cientos de sitios web para recopilar fuentes de calidad. Mientras esto ocurre en segundo plano, se puede seguir añadiendo más material al cuaderno. Al terminar, la herramienta genera un informe estructurado con las fuentes citadas, que puede incorporarse directamente al cuaderno. Además, se puede aprovechar otras funciones del sistema, como resúmenes en audio o vídeo, para analizar los contenidos de forma más dinámica.

Por otro lado, NotebookLM ahora admite más formatos de archivo para cargar información desde diferentes tipos de fuentes. Entre ellos están: hojas de cálculo de Google Sheets (muy útil para trabajar con datos estructurados), documentos de Microsoft Word (.docx), PDFs directamente desde Google Drive, enlaces a archivos de Drive que no requieren descarga, e incluso imágenes — por ejemplo, notas manuscritas o folletos. Esto permite que el usuario construya su base de conocimiento a partir de documentos muy diversos sin tener que convertir todo a un único formato.

Con estas mejoras, Google busca que NotebookLM sea más útil para flujos de trabajo reales de investigación: desde estudiantes que analizan datos o borradores, hasta profesionales que necesitan generar informes detallados sin abandonar su entorno habitual de trabajo.