Archivo de la etiqueta: Inteligencia artificial

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.

Adopción de IA por parte de las pequeñas y medianas empresas

AI Adoption by Small and Medium‑Sized Enterprises: OECD Discussion Paper for the G7 — OECD Publishing, París, 9 diciembre 2025.

Texto completo

La adopción de la inteligencia artificial (IA) por parte de las pequeñas y medianas empresas (PYMES) tiene un enorme potencial para mejorar la productividad, la innovación y la competitividad empresarial, pero en la práctica su incorporación sigue siendo relativamente baja en comparación con otras tecnologías digitales y con las grandes empresas.

El informe examina la evidencia más reciente sobre la difusión de IA en las economías del G7, mostrando brechas persistentes entre PYMES y grandes empresas en términos de uso y sofisticación tecnológica. Aunque ha habido avances, muchas PYMES aún adoptan la IA de forma limitada o en aplicaciones poco complejas, lo que explica que los beneficios no se distribuyan de manera equitativa ni generalizada

Una de las aportaciones clave es una taxonomía de adopción de IA para PYMES que clasifica a las empresas según su madurez digital, la complejidad de los usos de IA y el alcance de esas aplicaciones. Esta clasificación ayuda a entender que no existe una sola trayectoria de adopción: algunas PYMES empiezan con herramientas simples (como automatización básica o análisis de datos) mientras que otras avanzan hacia aplicaciones más complejas como aprendizaje automático integrado en procesos de negocio.

El documento identifica cuatro factores habilitadores esenciales para que las PYMES puedan integrar con éxito tecnologías de IA:

  • Conectividad digital adecuada y acceso a datos.
  • Disponibilidad de datos, algoritmos y capacidad de cómputo.
  • Habilidades y competencias digitales en la fuerza laboral.
  • Financiación y recursos suficientes para invertir en tecnologías y capacitación.


Estos factores no solo facilitan la adopción técnica, sino que también influyen en la capacidad de las empresas para generar valor real a partir de la IA.

A través de casos de estudio en diferentes países del G7, el informe ilustra diversas rutas de adopción, desde estrategias impulsadas por sectores específicos hasta iniciativas públicas de apoyo. Estas experiencias demuestran que no existe un único modelo exitoso; las políticas que funcionan combinan apoyo financiero, formación, colaboración público‑privada y enfoques adaptados al contexto local de cada empresa

El informe concluye subrayando la necesidad de que los gobiernos aceleren la adopción de IA entre las PYMES mediante estrategias diferenciadas y políticas de apoyo que consideren las capacidades y necesidades específicas de estas empresas. La adopción de IA no solo puede impulsar la digitalización y la competitividad, sino también contribuir a un crecimiento económico más inclusivo si se superan las barreras estructurales que enfrentan las PYMES.

El uso de la inteligencia Artificial en el trabajo

O’Brien, Matt y Linley Sanders. “How Americans Are Using AI at Work, According to a New Gallup Poll.” Associated Press, 25 de enero de 2026. https://www.apnews.com/article/ai-workplace-gemini-chatgpt-poll-4934bc61d039508db32bc49f85d63d99

Una encuesta nacional de Gallup realizada en otoño de 2025 entre más de 22 000 trabajadores de Estados Unidos muestra que el uso de inteligencia artificial (IA) en el lugar de trabajo ha crecido rápidamente en los últimos años.

Aproximadamente 12 % de los empleados usa IA diariamente, y casi una cuarta parte la utiliza varias veces a la semana, mientras que casi la mitad dice usar IA al menos unas pocas veces al año. Esta adopción supera significativamente los niveles informados en 2023, cuando solo 21 % de los trabajadores afirmaba usar IA al menos ocasionalmente. El aumento se atribuye al boom de herramientas de IA generativa como ChatGPT y Gemini, capaces de redactar correos, generar código, resumir documentos, crear imágenes o responder preguntas complejas.

El uso de IA varía según el sector laboral. Los trabajadores en tecnología son los más propensos a utilizar IA de forma frecuente o diaria, con alrededor de seis de cada diez informando uso regular y tres de cada diez uso diario. En sectores como finanzas, educación y servicios profesionales, una mayoría de empleados también emplea herramientas de IA al menos ocasionalmente, integrándolas en tareas que van desde la síntesis de grandes volúmenes de datos hasta la mejora de la comunicación con padres o clientes. Por ejemplo, maestros y banqueros utilizan asistentes de IA para redactar correos más claros, condensar información o acelerar tareas administrativas, lo que mejora la eficiencia laboral para muchos.

Sin embargo, la adopción no es uniforme. Sectores como el comercio minorista, la atención sanitaria o la manufactura muestran menor penetración de IA en sus rutinas laborales, reflejando tanto la naturaleza de sus tareas como la menor disponibilidad de soluciones adaptadas a esos ámbitos. Además, aunque el uso de IA está creciendo, solo una minoría de trabajadores cree que la IA reemplazará su empleo en los próximos cinco años; alrededor de la mitad piensa que es poco probable que ocurra, un poco menos que en encuestas anteriores. Las opiniones personales también varían, con algunos empleados valorando la interacción humana en sus roles y otros confiando en la tecnología para mejorar su productividad.

Finalmente, el informe identifica riesgos y desigualdades potenciales. Un segmento de más de seis millones de trabajadores, principalmente mujeres mayores en tareas administrativas y de oficina, enfrenta mayores desafíos para adaptarse a la integración de IA debido a habilidades menos transferibles y menor resiliencia financiera si sus trabajos cambian o desaparecen. Esto pone de manifiesto que la adopción de IA, aunque generalizada, tiene implicaciones diversas para distintos grupos laborales y plantea retos de equidad y capacitación en el futuro del trabajo.

La inteligencia artificial está generando nuevas ocupaciones laborales en lugar de provocar un apocalipsis de empleo.

Job Apocalypse? Not Yet. AI Is Creating Brand New Occupations.” The Economist, December 14, 2025. https://www.economist.com/business/2025/12/14/job-apocalypse-not-yet-ai-is-creating-brand-new-occupations

A pesar de las profecías apocalípticas que auguran la desaparición masiva de empleos debido a la expansión de la inteligencia artificial, la realidad del mercado laboral muestra una tendencia distinta: la IA está creando nuevas ocupaciones que antes no existían y que requieren habilidades humanas únicas, como juicio, empatía y experiencia contextual.

A pesar de que la narrativa dominante sobre la inteligencia artificial ha girado en torno a la idea de una “apocalipsis laboral” —una ola de desempleo masivo y destrucción de trabajos— la evidencia actual y el análisis de tendencias sugieren que esa visión es exagerada y prematura. En lugar de provocar una eliminación neta de empleos, la IA está generando una amplia variedad de ocupaciones nuevas, muchas de las cuales no existían hasta hace apenas unos años y requieren capacidades que las máquinas aún no pueden replicar plenamente: juicio humano, empatía, creatividad y habilidades sociales complejas.

Primero, la tecnología está creando demanda de profesionales para entrenar y supervisar a los agentes de IA. Roles como «data annotators» —expertos encargados de etiquetar y estructurar datos para entrenar modelos— han evolucionado de trabajos básicos de etiquetado a posiciones bien remuneradas que pueden requerir conocimientos en áreas especializadas como derecho, finanzas o medicina. Además, aparecen ocupaciones tales como ingenieros de “despliegue”, cuyo papel es integrar, adaptar y supervisar sistemas de IA dentro de organizaciones reales, garantizando que las soluciones se adapten a contextos concretos y se comporten de manera predecible.

Además, la proliferación de IA ha estimulado la creación de ocupaciones que gestionan aspectos éticos, normativos y sociales de la tecnología. Por ejemplo, especialistas en ética y políticas de IA, diseñadores de interacción humano-IA y profesionales dedicados a la seguridad y gobernanza de modelos están emergiendo como categorías laborales clave. Estos roles pivotan sobre habilidades humanas especializadas —como la comunicación efectiva, el pensamiento crítico y la toma de decisiones complejas— que no pueden ser sustituidas fácilmente por algoritmos.

Esta dinámica laboral no es nueva en la historia de la tecnología: revoluciones previas —como la industrial o la digital— también destruyeron ciertos tipos de trabajo mientras creaban otros que nadie había imaginado previamente. En ese sentido, la introducción de la IA no elimina trabajos de manera uniforme, sino que reconfigura la economía del empleo, fomentando la demanda de perfiles híbridos que combinan conocimientos técnicos con pensamiento estratégico, creatividad y habilidades interpersonales.

Por último, los datos y estudios citados por The Economist indican que, aunque algunos roles pueden verse transformados o reducidos por la automatización, el balance general tiende hacia la creación de puestos nuevos y de alto valor añadido, en lugar de un colapso masivo del empleo. Incluso trabajos tradicionalmente vistos como vulnerables a la automatización pueden evolucionar y encontrar nuevas formulaciones en un mercado que se adapta y redefine continuamente las habilidades y tareas que valora.

Diez maneras en que la inteligencia artificial podría causar daños sin precedentes en 2026

10 Ways AI Will Do Unprecedented Damage in 2026, Experts Warn.” ZDNet, 2026. https://www.zdnet.com/article/10-ways-ai-will-do-unprecedented-damage-in-2026-experts-warn/

La inteligencia artificial puede causar daños graves al facilitar la desinformación masiva, la manipulación política, el fraude y los ciberataques, erosionando la confianza social y la seguridad digital. Al mismo tiempo, acelera la pérdida de empleos, concentra el poder en grandes corporaciones y refuerza sistemas de vigilancia y control que amenazan derechos fundamentales. Todo ello se ve agravado por la amplificación de sesgos, la dependencia excesiva de estas tecnologías y la ausencia de marcos regulatorios eficaces que limiten sus impactos negativos.

En primer lugar, uno de los principales temas que advierten los expertos es la erosión de la confianza pública en la información y la percepción de la realidad. Con tecnologías de generación de contenido cada vez más sofisticadas, como los deepfakes, resulta cada vez más difícil distinguir lo auténtico de lo manipulado, lo que podría minar la credibilidad periodística, distorsionar procesos democráticos o amplificar campañas de desinformación en medios y redes sociales. Esta tendencia —que muchos investigadores observan con creciente alarma— tiene profundas implicaciones para la cohesión social, el debate público y la gobernanza global, ya que la sociedad se enfrenta a un entorno informativo fragmentado y saturado donde “ver ya no es creer”.

En segundo lugar, los expertos han enfatizado que la IA continuará intensificando profundas disrupciones económicas y laborales. El desarrollo acelerado de sistemas automatizados y agentes autónomos está transformando industrias enteras, lo que, si bien puede aumentar eficiencia y productividad, también amenaza con eliminar grandes cantidades de puestos de trabajo tradicionales y reconfigurar mercados laborales enteros. Este fenómeno —descrito en términos similares por autoridades económicas como la directora del Fondo Monetario Internacional— presenta un futuro donde la brecha entre trabajadores altamente especializados y aquellos cuyas tareas pueden ser automatizadas se amplía, agravando desigualdades y presionando los sistemas educativos, de protección social y de empleo para que se adapten con rapidez a una nueva realidad económica.

Además, otro conjunto de riesgos señalados por académicos y analistas se centra en las amenazas sistémicas para la estabilidad social y política, como la proliferación de operaciones de influencia automatizadas o “enjambres” de agentes de IA capaces de coordinar campañas de desinformación dirigidas y manipulaciones de opinión pública a gran escala. Estos sistemas, aún en desarrollo pero ya objeto de investigación avanzada, podrían infiltrarse en plataformas digitales, replicar comportamiento humano de manera convincente y explotar vulnerabilidades sociales para exacerbar polarización, socavar procesos electorales o incluso sembrar desconfianza en instituciones. Las implicaciones de tales capacidades son particularmente significativas en un contexto global donde los sistemas democráticos están bajo presión y la competencia por hegemonía tecnológica entre grandes potencias geopolíticas continúa intensificándose.

Finalmente, junto a estos peligros sociales y políticos, los expertos también advierten de riesgos más amplios vinculados al avance tecnológico desregulado, como la posibilidad de que sistemas de IA altamente capaces operen de manera no alineada con los valores humanos o con consecuencias no previstas por sus desarrolladores. Esto incluye la preocupación por que sistemas autónomos podrían perseguir objetivos incompatibles con el bienestar humano si no se incorporan mecanismos robustos de control y alineación. Aunque todavía existe debate entre los investigadores sobre la probabilidad de escenarios extremadamente adversos —incluyendo estimaciones sobre daños catastróficos— el consenso sugiere que sin una gobernanza proactiva, mecanismos de supervisión y marcos regulatorios internacionales sólidos, las oportunidades de progreso pueden verse superadas por los desafíos éticos, estratégicos y de seguridad asociados con las tecnologías de IA en 2026.

¿Por qué los autores no revelan el uso de IA en sus trabajos de investigación?

Staiman, Avi. 2026. “Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It.The Scholarly Kitchen, January 27, 2026. https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/

El artículo aborda el fenómeno creciente de que muchos autores académicos no están declarando el uso de herramientas de inteligencia artificial (IA) en sus procesos de investigación y redacción, a pesar de que un número significativo de ellos reconoce emplearlas en distintas fases del trabajo científico

Staiman explica que, aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.

Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.

Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.

Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.

Finalmente, el autor advierte que, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Argumenta que las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.

Inteligencia artificial (IA) y el patrimonio cultural

Conference of European National Librarians (CENL). “Artificial Intelligence Meets Cultural Heritage.” Conference of European National Librarians (CENL), January 8, 2026. https://www.cenl.org/artificial-intelligence-meets-cultural-heritage-2

Se subraya la idea de que la inteligencia artificial —cuando se usa de forma reflexiva y crítica— puede ser una aliada poderosa para las instituciones culturales que buscan mejorar el acceso al conocimiento, proteger el patrimonio intangible y tangible, y transformar la experiencia de los usuarios, investigadores y comunidades con las colecciones culturales

La reunión anual de CENL se celebró del 15 al 17 de junio de 2025 en Edimburgo, organizada por la National Library of Scotland con motivo también del centenario de esa institución. El evento reunió a directores y líderes de bibliotecas nacionales de toda Europa para debatir las formas en que la IA puede contribuir a la preservación, accesibilidad y difusión del patrimonio cultural de las naciones.

Uno de los aspectos centrales de la reunión fue explorar el “poder transformador de la IA para y a través de las bibliotecas nacionales”, reflejado en presentaciones y ponencias de expertos y dirigentes del sector. Entre estas, la conferencia magistral “Upholding Library Values in a Tech Industry World” de la profesora Melissa Terras subrayó la importancia de mantener los valores tradicionales de las bibliotecas —como accesibilidad, equidad y autonomía sobre sus datos— frente a la creciente influencia de grandes empresas tecnológicas. Otra intervención destacada, “AI in the National Library: Thinking Fast and Slow” a cargo de Paul Gooding, provocó una profunda reflexión sobre los modos de integrar la IA como herramienta que complemente, más que sustituya, la labor intelectual humana en la gestión cultural.

El conjunto de sesiones y actividades permitió constatar que las bibliotecas nacionales europeas no solo están adoptando tecnologías de IA, sino que están activamente configurando su uso ético y estratégico en el contexto del patrimonio cultural. Esto incluye casos prácticos y experiencias compartidas por instituciones que ya aplican la IA en áreas como catalogación avanzada, análisis de colecciones digitalizadas, descubrimiento de conocimiento y mejora de servicios al público.

El artículo de CENL destaca que estos debates y casos de estudio se consolidan en una publicación conjunta con las contribuciones del encuentro, disponible para su descarga y consulta. Esta colección de trabajos refleja las discusiones dinámicas y las estrategias innovadoras que emergen de la comunidad de bibliotecas nacionales, y pretende servir como un recurso valioso para profesionales de bibliotecas y archivos en todo el mundo interesados en cómo la IA puede ayudar a hacer que las colecciones sean más accesibles, preservarlas digitalmente a largo plazo y operar de manera sostenible sin perder de vista principios éticos e institucionales fundamentales.

Viva la Biblioteca!: valor fundamental y renovado de las bibliotecas públicas frente a la omnipresencia de la cultura digital

Digges, Charles. “Viva la Library! Rebel against The Algorithm. Get a Library Card.” Nautilus, April 8, 2024. https://nautil.us/viva-la-library-543293

Digges defiende que las bibliotecas públicas no son reliquias del pasado, sino instituciones esenciales para preservar la profundidad cognitiva, la reflexión y la comunidad frente al dominio de los algoritmos digitales y la mercantilización de la información.

El articulo explora el valor fundamental y renovado de las bibliotecas públicas frente a la omnipresencia de la cultura digital y el dominio de los motores de búsqueda en nuestra manera de aprender, recordar y pensar. Digges sostiene que las bibliotecas físicas representan un contrapeso necesario a los efectos reductivos de los algoritmos digitales y la sobreabundancia de información en línea. Más allá de ser depósitos de libros, estas instituciones fomentan la exploración, la reflexión y el pensamiento crítico, cualidades que los entornos digitales por sí solos no garantizan.

El autor destaca la diferencia entre la búsqueda rápida en internet y la exploración profunda que permite una biblioteca. Cuando se busca información de manera inmediata en la web, se obtiene satisfacción rápida, pero se pierde la oportunidad de recorrer rutas intelectuales inesperadas y enriquecedoras. Digges recuerda cómo una simple consulta sobre un cuadro de Edward Hopper lo llevó, en la biblioteca, por múltiples caminos que incluyeron literatura, arte y música, un proceso poco probable si se hubiera limitado a buscar en línea. Este ejemplo ilustra cómo la biblioteca fomenta la curiosidad, la contemplación y el descubrimiento incidental, aspectos que los algoritmos rara vez promueven.

El artículo también cuestiona la promesa de los motores de búsqueda de convertirse en “bibliotecas universales”. Digges argumenta que esta ilusión encierra un pacto faústico: acceso inmediato a respuestas a cambio de privacidad, atención y la conversión de los usuarios en datos monetizables. Aunque los algoritmos modernos intentan comprender relaciones semánticas complejas, el resultado suele ser una información homogénea, saturada de publicidad y diseñada para clics rápidos, lo que empobrece la exploración intelectual y limita la diversidad del aprendizaje.

Además, Digges incorpora hallazgos sobre los efectos cognitivos del uso intensivo de entornos digitales. La búsqueda constante en línea tiende a debilitar la memoria y la concentración, ya que las personas recuerdan dónde encontrar la información en lugar de recordar la información misma. Esto puede afectar especialmente a los jóvenes, limitando su capacidad para profundizar en temas complejos y desarrollar pensamiento crítico. Frente a esto, la biblioteca se presenta como un espacio donde el conocimiento se puede explorar con calma, contextualizar y comprender de manera más profunda.

Más allá del acceso a información, las bibliotecas contemporáneas son espacios de comunidad y aprendizaje. Ofrecen programas, laboratorios de medios, acceso a tecnologías y personal capacitado que guía al usuario en la navegación de información tanto física como digital. Estos espacios promueven interacciones humanas significativas, fomentan el pensamiento crítico y permiten que la búsqueda sea activa y enriquecedora, no pasiva ni automatizada. A pesar de los desafíos actuales, como la brecha digital y los costos de licencias de eBooks, las bibliotecas siguen siendo instituciones vitales que equilibran la transformación digital con valores educativos y comunitarios.

En una era donde “buscar” tiende a significar confirmar lo que ya se sabe, la biblioteca sigue ofreciendo un espacio donde el conocimiento se descubre, se cuestiona y se comprende en su contexto más amplio, reafirmando su papel insustituible en la sociedad moderna.

Habilidades clave que diferencian a los usuarios avanzados de inteligencia artificial (IA) de los demás en 2026

Horsey, Julian. “The AI Skills That Set Top Users Apart in 2026.” Geeky Gadgets, 26 de enero de 2026. https://www.geeky-gadgets.com/ai-power-users-skill/.

La principal habilidad que diferencia a quienes usan bien la inteligencia artificial de quienes solo la “prueban” no es saber escribir prompts largos ni conocer muchas herramientas, sino saber guiar a la IA paso a paso. Es decir, entender qué se quiere conseguir, evaluar la respuesta de la IA y ajustar la petición hasta llegar a un resultado útil.

Muchas personas creen que, si la IA no da una buena respuesta a la primera, es culpa de la herramienta. Sin embargo, los usuarios avanzados hacen algo distinto: reformulan, concretan, corrigen y afinan. Por ejemplo, si la IA ofrece un texto demasiado técnico, piden que sea más divulgativo; si es muy general, solicitan ejemplos; si se desvía del tema, la redirigen. Este proceso de diálogo continuo es lo que el artículo llama refinamiento de la intención.

El texto también explica que no toda la IA se usa de la misma manera. A veces funciona mejor como una herramienta, similar a una calculadora o un corrector, cuando sabemos exactamente qué queremos (por ejemplo, resumir un texto o traducirlo). Otras veces conviene tratarla como un colaborador, casi como un compañero de trabajo, cuando estamos explorando ideas, escribiendo, planificando o resolviendo problemas complejos. Saber cuándo usar cada enfoque marca una gran diferencia en los resultados.

Otro punto clave es que usar bien la IA no significa delegarlo todo, sino mantener el control humano. Los usuarios avanzados no aceptan automáticamente lo que la IA produce: revisan, cuestionan, contrastan y deciden qué sirve y qué no. En este sentido, la IA amplifica las capacidades humanas, pero no sustituye el criterio, la experiencia ni el pensamiento crítico.

El artículo subraya que esta habilidad será cada vez más importante en el ámbito profesional y académico. No se trata de ser experto técnico, sino de aprender a comunicarse mejor con sistemas inteligentes, algo que afecta a la escritura, la investigación, la gestión, la docencia o las bibliotecas. Quien domine esta interacción podrá trabajar de forma más eficiente, creativa y consciente.

Tendencias tecnológicas Deloitte 2026

Deloitte Insights. (10 de diciembre de 2025). Tech Trends 2026: As technology innovation and adoption accelerate, five trends reveal how successful organizations are moving from experimentation to impact. Deloitte Development LLC.

Texto completo

El informe anual Tech Trends de Deloitte Insights se ha consolidado como un análisis de referencia sobre las tecnologías emergentes con mayor potencial para transformar los negocios en los próximos 18 a 24 meses.

En la edición 2026, publicada en diciembre de 2025, Deloitte describe cómo la innovación tecnológica se ha acelerado no solo en términos de mejoras aisladas, sino como un sistema en el que múltiples fuerzas se refuerzan mutuamente y amplifican su impacto. El foco ha cambiado de simplemente explorar qué puede hacer la tecnología —especialmente la inteligencia artificial (IA)— a cómo las organizaciones pueden pasar de la experimentación a generar valor de negocio real y sostenido.

El auge de la inteligencia artificial y la evolución del uso empresarial:
El documento comienza observando que la IA ha dejado de ser una novedad o una tendencia abstracta para convertirse en una fuerza estructural dentro de las operaciones empresariales. La adopción de herramientas como la IA generativa ha crecido de forma exponencial —un producto de IA líder alcanzó cientos de millones de usuarios semanales en apenas meses—, y esto implica que las empresas deben replantear no solo qué tecnologías emplean, sino cómo las integran estratégicamente en su infraestructura, procesos y modelos de negocio.

Cinco tendencias principales que están configurando el panorama tecnológico:
Deloitte identifica cinco fuerzas interconectadas que caracterizan las tendencias clave para 2026:

IA física y robótica autónoma: La inteligencia ya no se limita a las pantallas y algoritmos de software. Está integrándose con sistemas físicos —desde robots de almacén hasta vehículos autónomos en líneas de producción— transformando sectores tradicionales.

La realidad agente y el trabajo con IA: Aunque muchas empresas están probando agentes de IA (software capaz de tomar decisiones o acciones sin intervención humana directa), pocas han logrado desplegarlos a escala productiva. Este diferencial muestra que el verdadero reto es rediseñar procesos y no solo automatizarlos.

Infraestructura para la economía de la IA: Las estrategias tecnológicas existentes, como el enfoque de “cloud‑first”, están siendo reevaluadas ante la necesidad de gestionar costos de cómputo, datos y operaciones de inferencia en IA a gran escala. Las organizaciones exitosas combinan nubes públicas, infraestructura on‑premise y soluciones “edge” para equilibrar rendimiento y costes.

Reconstrucción organizacional para ser nativo en IA: Las estructuras tradicionales de IT y de gestión tecnológica no están preparadas para este nuevo ritmo de innovación. Las empresas que avanzan con éxito en la adopción de IA están reconfigurando sus equipos, sus modelos organizativos y su estrategia para integrar agentes digitales y talento humano en formas colaborativas.

Ciberseguridad y defensa adaptada a la IA: La misma tecnología que impulsa capacidades competitivas también introduce amenazas sofisticadas. Las organizaciones deben construir defensas que sean tan dinámicas y adaptativas como las herramientas de IA que usan, abordando riesgos en múltiples dominios como datos, modelos y aplicaciones.


La esencia de Tech Trends 2026 es que la innovación tecnológica ya no es un juego incremental, sino una carrera de velocidad en la que el tiempo entre el surgimiento de una tecnología y su adopción masiva se ha comprimido drásticamente. Esto exige que los líderes empresariales no solo sigan las tendencias, sino que anticipen y estructuren sus organizaciones para aprender, adaptarse y ejecutar de manera continua. Las empresas que sobresalgan en esta fase serán aquellas que integren la tecnología con una estrategia clara, midan su impacto en resultados reales de negocio y estén dispuestas a reinventar procesos y modelos existentes