Archivo de la categoría: Tecnologías de la información

Cómo la inteligencia artificial está transformando la gestión de las colecciones especiales digitales en bibliotecas universitarias

Clarivate / Ex Libris. “Unlock the Power of Digital Special Collections with Academic AI.Library Journal, 2026. https://www.libraryjournal.com/story/unlock-the-power-of-digital-special-collections-with-academic-ai-lj260223

El artículo analiza cómo la inteligencia artificial aplicada al ámbito académico está transformando la gestión, visibilidad y uso de las colecciones especiales digitales en bibliotecas universitarias. En el contexto actual, marcado por la digitalización masiva de materiales patrimoniales y científicos, las bibliotecas se enfrentan a un desafío creciente: gestionar grandes volúmenes de contenido digital y hacerlo realmente accesible y útil para investigadores, estudiantes y público general. La IA aparece como una herramienta clave para abordar estos retos y convertir lo que a menudo son “tesoros ocultos” en recursos estratégicos para la institución.

Uno de los puntos centrales del texto es que las colecciones digitales ya no deben entenderse únicamente como repositorios de preservación, sino como activos estratégicos para la investigación, la docencia y la proyección institucional. Universidades y bibliotecas están utilizando cada vez más estas colecciones para apoyar proyectos de humanidades digitales, investigación interdisciplinaria y divulgación cultural. Sin embargo, el crecimiento exponencial de materiales digitalizados —manuscritos, fotografías, mapas, objetos audiovisuales o documentos históricos— ha desbordado los métodos tradicionales de catalogación y descripción. Las tareas manuales de creación y corrección de metadatos, que históricamente han requerido miles de horas de trabajo especializado, se han convertido en un cuello de botella para muchas instituciones.

La inteligencia artificial puede ayudar a resolver este problema mediante automatización y enriquecimiento de metadatos. Herramientas basadas en IA permiten analizar contenidos digitales, identificar entidades (personas, lugares, fechas, temas), agrupar materiales similares y generar etiquetas descriptivas de forma automática. Este proceso acelera la catalogación, mejora la consistencia de los metadatos y aumenta significativamente la capacidad de descubrimiento de los recursos en los catálogos y sistemas de búsqueda. En otras palabras, la IA permite que materiales que antes permanecían invisibles o mal descritos se integren plenamente en los sistemas de información académicos y puedan ser utilizados por investigadores y estudiantes.

El artículo también describe el papel de plataformas tecnológicas diseñadas específicamente para bibliotecas, como el sistema Alma Specto desarrollado por Clarivate. Este tipo de soluciones utiliza IA para cubrir todo el ciclo de vida de las colecciones digitales: ingestión de materiales, catalogación automática, enriquecimiento de metadatos, organización de contenidos y creación de exposiciones digitales. Estas plataformas no solo facilitan la gestión interna de los fondos, sino que también permiten presentar las colecciones de forma atractiva y accesible para distintos públicos, desde investigadores especializados hasta usuarios no académicos.

Otra dimensión importante es la difusión y la narración digital del patrimonio. Las nuevas herramientas permiten crear exposiciones virtuales y narrativas digitales basadas en colecciones especiales, transformando los archivos en recursos de storytelling cultural y académico. De este modo, las bibliotecas pueden presentar sus fondos en contextos temáticos, exposiciones online o proyectos educativos, ampliando su impacto más allá de los muros de la institución y fortaleciendo la conexión con la comunidad. Este enfoque también facilita la obtención de financiación y la visibilidad institucional, ya que demuestra el valor cultural y científico de los fondos conservados por las bibliotecas.

A pesar de estas posibilidades, el artículo subraya que la inteligencia artificial no sustituye el trabajo del bibliotecario, sino que actúa como una herramienta de apoyo. Los sistemas de IA pueden generar sugerencias o automatizar procesos repetitivos, pero la supervisión humana sigue siendo esencial para validar los metadatos, garantizar la calidad de la información y mantener el contexto histórico y académico de las colecciones. En este modelo híbrido, la IA se convierte en un asistente que amplifica la capacidad profesional del personal bibliotecario, permitiendo dedicar más tiempo a tareas de curación, investigación y desarrollo de servicios.

Finalmente, el artículo concluye que la aplicación de IA en las colecciones especiales digitales puede transformar radicalmente la relación entre bibliotecas y usuarios. Al mejorar la búsqueda, la contextualización y la visualización de los materiales, se abren nuevas formas de exploración del conocimiento y del patrimonio cultural. Las bibliotecas pueden así reforzar su papel como infraestructuras esenciales para la investigación, la enseñanza y la preservación de la memoria cultural, en un entorno académico cada vez más digital y orientado a los datos.

Estudio de Pew Research sobre el uso educativo de la IA

El informe de Pew confirma que la inteligencia artificial ya forma parte del entorno académico de los adolescentes. Más que prohibir o ignorar estas herramientas, el reto educativo consiste en enseñar a utilizarlas con criterio, integrándolas en los procesos de aprendizaje sin renunciar al pensamiento crítico, la integridad académica y la evaluación rigurosa de la información. Las bibliotecas y los profesionales de la información aparecen, así, como actores estratégicos para guiar a las nuevas generaciones en este nuevo ecosistema de conocimiento mediado por algoritmos.

El artículo analiza los resultados de un reciente informe del Pew Research Center sobre la relación entre los adolescentes y las herramientas de inteligencia artificial, especialmente los chatbots generativos. El estudio, basado en una encuesta a más de 1.400 jóvenes de entre 13 y 17 años en Estados Unidos, muestra que la IA ya forma parte del ecosistema cotidiano de aprendizaje.

Una mayoría de adolescentes ha utilizado alguna vez chatbots de IA y muchos los emplean para apoyar tareas escolares, buscar información o resumir contenidos. Este dato sugiere que el debate educativo ya no puede centrarse en si la inteligencia artificial debe o no estar presente en las aulas: en la práctica, los estudiantes ya la utilizan como herramienta habitual de estudio y procesamiento de información.

El informe revela también cómo los estudiantes integran la IA en diferentes actividades académicas. Aproximadamente el 57 % afirma usar estas herramientas para buscar información y el 54 % para ayudar en sus tareas escolares, mientras que cerca del 40 % las utiliza para resumir artículos, libros o vídeos. Asimismo, se observa un crecimiento en los usos creativos, como la generación o edición de imágenes y vídeos. Aunque el empleo de la IA para conversaciones personales o apoyo emocional es menos frecuente, la investigación indica que una parte de los jóvenes empieza a explorar estas funciones. En conjunto, los datos muestran que la inteligencia artificial está transformando los hábitos de aprendizaje, convirtiéndose en una herramienta para organizar, sintetizar y comprender información.

Otro aspecto relevante es el grado de dependencia que algunos estudiantes desarrollan hacia estas herramientas. Aproximadamente uno de cada diez adolescentes reconoce que realiza la mayor parte de su trabajo escolar con ayuda de la IA. A pesar de ello, muchos estudiantes mantienen una actitud crítica hacia su uso. Una mayoría reconoce que el uso de chatbots puede dar lugar a prácticas de copia o trampas académicas, lo que demuestra que los propios jóvenes son conscientes de los dilemas éticos asociados a estas tecnologías. La encuesta también muestra que aproximadamente la mitad de quienes usan IA consideran que les ha resultado útil para completar sus tareas, lo que refuerza su percepción como apoyo al aprendizaje.

El artículo subraya que estos resultados tienen importantes implicaciones para el sistema educativo y, especialmente, para las bibliotecas escolares. Tradicionalmente, los bibliotecarios han desempeñado un papel clave en la alfabetización informacional: enseñar a los estudiantes a evaluar fuentes, reconocer sesgos, verificar información y citar correctamente. En la era de la inteligencia artificial, estas competencias siguen siendo fundamentales, pero deben ampliarse hacia lo que se denomina alfabetización en IA. Esto implica ayudar a los estudiantes a comprender cómo funcionan estas herramientas, cómo evaluar críticamente sus resultados y cómo utilizarlas de forma ética y responsable. En este sentido, la alfabetización en IA puede entenderse como una extensión natural de la alfabetización informacional.

Los magnates tecnológicos encabezan la lista de los hombres más ricos del planeta en 2026

Fourreau, Valentine. 2026. “The World’s Richest People in 2026.” Statista, 11 de marzo de 2026. https://www.statista.com/chart/13158/the-richest-people-on-the-planet/

El gráfico publicado por la empresa de análisis estadístico Statista muestra quiénes son las personas más ricas del mundo en 2026, basándose en los cálculos de patrimonio neto elaborados por Forbes para su lista anual de multimillonarios. El ranking refleja una concentración de riqueza extraordinaria en un pequeño grupo de empresarios, la mayoría vinculados al sector tecnológico y a la economía digital.

En lo más alto aparece Elon Musk, que vuelve a ocupar el primer puesto con una fortuna estimada en 839.000 millones de dólares, una cifra que no solo supera ampliamente a la de sus competidores, sino que también lo sitúa potencialmente cerca de convertirse en la primera persona de la historia en alcanzar un patrimonio de un billón de dólares.

El ascenso de Musk está ligado a su participación en compañías tecnológicas y de innovación como Tesla, SpaceX y la red social X. Su riqueza se ha incrementado de forma extraordinaria en el último año, añadiendo cientos de miles de millones de dólares a su patrimonio, lo que refleja el enorme impacto que tienen las valoraciones bursátiles de las empresas tecnológicas en la acumulación de riqueza contemporánea.

Tras Musk aparecen varios nombres asociados a las grandes plataformas digitales. En segundo y tercer lugar figuran los cofundadores de Google, Larry Page y Sergey Brin, con fortunas estimadas en 257.000 millones y 237.000 millones de dólares, respectivamente. Muy cerca se sitúa el fundador de Amazon, Jeff Bezos, quien, pese a haber dejado la dirección ejecutiva de la empresa en 2021, continúa acumulando una de las mayores riquezas del planeta.

Este predominio del sector tecnológico revela una característica clave de la economía global del siglo XXI: la capacidad de las plataformas digitales y las empresas basadas en innovación tecnológica para generar capital a gran escala. En la lista también aparecen otros magnates vinculados al mundo digital, como Mark Zuckerberg, creador de Meta Platforms, o Larry Ellison, fundador de Oracle. En conjunto, la mayor parte de los diez individuos más ricos del mundo ha construido su fortuna en sectores relacionados con la informática, internet, la inteligencia artificial o la economía de datos.

En medio del dominio tecnológico destaca una figura que procede de un sector distinto: Bernard Arnault, presidente del grupo de lujo LVMH. Arnault es el único europeo entre los ocho primeros puestos del ranking y también el único que ha construido su fortuna principalmente fuera del ámbito tecnológico. Su riqueza procede de la industria del lujo, que engloba marcas internacionales de moda, joyería y cosmética, y demuestra que sectores tradicionales de consumo global siguen generando enormes patrimonios.

La lista de los más ricos del planeta refleja, además, un fuerte predominio geográfico. La mayoría de los multimillonarios que encabezan el ranking son ciudadanos de Estados Unidos, lo que pone de manifiesto el peso de ese país en la economía tecnológica y financiera mundial. Sin embargo, también aparecen figuras de otros países, como el empresario español Amancio Ortega, fundador de Inditex, que se mantiene dentro de los diez mayores patrimonios globales.

El ranking de los individuos más ricos se inserta en un contexto más amplio de crecimiento del número de multimillonarios en el mundo. Según los datos de la lista anual de Forbes, existen ya más de 3.400 multimillonarios, con una riqueza conjunta superior a 20 billones de dólares, una cifra récord que evidencia el aumento de la concentración de capital en la economía global.

Este fenómeno refleja tanto la expansión de los mercados financieros como el impacto de sectores emergentes —especialmente la inteligencia artificial y la economía digital— en la creación de grandes fortunas. Al mismo tiempo, plantea debates sobre la desigualdad económica y el poder que acumulan los grandes magnates en la economía, la política y la innovación tecnológica.

La nueva era del acoso digital: cómo la inteligencia artificial está transformando el hostigamiento en internet

MIT Technology Review. “Online Harassment Is Entering Its AI Era.” 5 de marzo de 2026. https://www.technologyreview.com/2026/03/05/1133962/online-harassment-is-entering-its-ai-era/

El artículo analiza cómo el acoso en línea está entrando en una nueva fase marcada por el uso de inteligencia artificial, lo que amplifica tanto su escala como su impacto social. El fenómeno no es nuevo, pero las herramientas basadas en IA —especialmente los modelos generativos y los agentes autónomos— están transformando radicalmente las formas en que se produce el hostigamiento digital. Estas tecnologías permiten crear mensajes ofensivos, campañas de difamación o ataques coordinados de manera automática y a una velocidad imposible para los humanos, lo que multiplica la capacidad de daño.

El texto parte de un caso concreto relacionado con proyectos de software abierto, donde los desarrolladores han comenzado a recibir contribuciones generadas por IA y solicitudes automatizadas. En un episodio citado, un administrador de un proyecto rechazó una propuesta enviada por un agente de IA y poco después apareció contenido hostil relacionado con esa decisión. Este episodio ilustra un cambio significativo: los sistemas automatizados pueden participar activamente en conflictos digitales, produciendo textos o campañas de presión que antes dependían de usuarios humanos.

Uno de los puntos centrales del artículo es que la IA permite industrializar el acoso digital. Herramientas generativas accesibles al público permiten producir ataques personalizados a gran escala: mensajes insultantes dirigidos a una persona concreta, campañas coordinadas contra periodistas o investigadores, o manipulación de contenidos para desacreditar a individuos o instituciones. Este proceso transforma el acoso en una práctica automatizada, capaz de producir miles de mensajes o publicaciones ofensivas en poco tiempo, saturando los sistemas de moderación de las plataformas.

Otro aspecto clave es la producción de contenidos falsificados o manipulados, como imágenes sintéticas o deepfakes. Estas tecnologías facilitan la creación de material comprometedor o difamatorio que puede difundirse rápidamente en redes sociales, generando daños reputacionales y psicológicos profundos. El problema se agrava porque el contenido generado por IA puede parecer auténtico, lo que dificulta la verificación y aumenta el potencial de manipulación pública.

El artículo también señala que los sistemas actuales de moderación de contenidos —basados en algoritmos y revisores humanos— no están preparados para esta nueva escala de agresión digital. Cuando los ataques son generados automáticamente, pueden adaptarse rápidamente para evitar los filtros de detección y continuar propagándose. Esto crea un escenario en el que las plataformas tecnológicas deben enfrentarse a una carrera permanente entre los sistemas de defensa y las nuevas formas de abuso automatizado.

Además, el texto advierte sobre los riesgos sociales y políticos de esta evolución. El acoso automatizado puede utilizarse para silenciar a investigadores, activistas o periodistas mediante campañas de intimidación masiva. También puede influir en debates públicos o procesos democráticos si se emplea para amplificar narrativas tóxicas o manipular conversaciones en redes sociales. En este sentido, la IA no solo cambia el volumen del acoso, sino también su potencial como herramienta de presión política y social.

El artículo concluye que la expansión de la inteligencia artificial exige nuevas respuestas regulatorias, tecnológicas y culturales. Las empresas tecnológicas deberán desarrollar mecanismos de detección más avanzados, mientras que gobiernos y organizaciones civiles tendrán que establecer normas claras para limitar el abuso de estas herramientas. La cuestión central no es únicamente tecnológica, sino también ética y política: cómo garantizar que la IA no amplifique las formas más dañinas de comportamiento humano en el espacio digital.

Declaración Pro-Humana sobre la IA: principios para una inteligencia artificial al servicio de la humanidad

Marzo de 2026

Preámbulo

A medida que las empresas compiten por desarrollar e implementar sistemas de inteligencia artificial, la humanidad se enfrenta a una encrucijada. Un camino conduce a una carrera por sustituir: los seres humanos reemplazados como creadores, consejeros, cuidadores y compañeros, y posteriormente en la mayoría de los trabajos y roles de toma de decisiones, concentrando cada vez más poder en instituciones que no rinden cuentas y en sus máquinas. Una corriente influyente incluso propone alterar o reemplazar a la propia humanidad. Esta carrera por sustituir plantea riesgos para la estabilidad social, la seguridad nacional, la prosperidad económica, las libertades civiles, la privacidad y la gobernanza democrática. También pone en peligro experiencias humanas fundamentales como la infancia y la familia, la fe y la vida comunitaria.

Una coalición extraordinariamente amplia rechaza este camino, unida por una convicción sencilla: la inteligencia artificial debe servir a la humanidad, y no al revés. Existe un camino mejor, en el que herramientas de IA confiables y controlables amplifican, en lugar de disminuir, el potencial humano; empoderan a las personas; refuerzan la dignidad humana; protegen la libertad individual; fortalecen a las familias y comunidades; preservan el autogobierno y ayudan a crear niveles de salud y prosperidad sin precedentes. Este camino exige que quienes ejercen poder tecnológico rindan cuentas ante los valores y las necesidades humanas, en apoyo del florecimiento de la humanidad.


1. Mantener a los seres humanos al mando

El control humano es innegociable: La humanidad debe permanecer en control. Las personas deben decidir cómo y si delegar decisiones en sistemas de inteligencia artificial.

Control humano significativo: Los seres humanos deben tener la autoridad y la capacidad de comprender, orientar, limitar y anular los sistemas de IA.

Sin carrera hacia la superinteligencia: El desarrollo de superinteligencia debe prohibirse hasta que exista un amplio consenso científico de que puede hacerse de forma segura y controlable, y que cuente con un fuerte respaldo público.

Interruptor de apagado: Los sistemas de IA potentes deben disponer de mecanismos que permitan a los operadores humanos apagarlos de forma inmediata.

Sin arquitecturas imprudentes: Los sistemas de IA no deben diseñarse de manera que puedan autorreplicarse, mejorarse autónomamente, resistirse a su apagado o controlar armas de destrucción masiva.

Supervisión independiente: Los sistemas de IA altamente autónomos, cuya controlabilidad no sea evidente, requieren revisión previa al desarrollo y supervisión independiente: una autoridad real para comprenderlos, prohibirlos y anularlos, no una simple autorregulación de la industria.

Honestidad sobre las capacidades: Las empresas de IA deben proporcionar descripciones claras, precisas y honestas de las capacidades y limitaciones de sus sistemas.

Resultados de encuestas | Marzo de 2026

1004 votantes probables encuestados mediante paneles web, ponderados por género, raza, educación, voto presidencial en 2024 y edad.

Los estadounidenses prefieren el control humano frente a la velocidad por 8 a 1:

  • 73 % quiere proteger a los niños de la IA manipuladora.
  • 72 % cree que las empresas de IA deben ser legalmente responsables de los daños.
  • 69 % quiere prohibir la superinteligencia hasta que se demuestre que es segura.

2. Evitar la concentración de poder

Sin monopolios de IA: Deben evitarse los monopolios de IA que concentran poder, frenan la innovación y ponen en peligro el emprendimiento.

Prosperidad compartida: Los beneficios y la prosperidad económica generados por la IA deben distribuirse ampliamente.

Sin privilegios corporativos: Las corporaciones de IA no deben quedar exentas de supervisión regulatoria ni recibir rescates gubernamentales.

Creación de valor real: El desarrollo de IA debe priorizar la resolución de problemas reales y la creación de valor auténtico.

Autoridad democrática en las grandes transiciones: Las decisiones sobre el papel de la IA en la transformación del trabajo, la sociedad y la vida cívica requieren apoyo democrático, no decretos unilaterales de empresas o gobiernos.

Evitar el bloqueo social: El desarrollo de la IA no debe limitar gravemente las opciones futuras de la humanidad ni reducir irreversiblemente nuestra capacidad de decidir sobre el futuro.


3. Proteger la experiencia humana

Defensa de los vínculos familiares y comunitarios: La IA no debe sustituir las relaciones fundamentales que dan sentido a la vida: familia, amistad, comunidades de fe y vínculos locales.

Protección de la infancia: No debe permitirse que las empresas exploten a los niños ni que socaven su bienestar mediante interacciones con IA que generen apego emocional o manipulación.

Derecho a crecer: Las empresas de IA no deben obstaculizar el desarrollo físico, mental o social de los niños ni privarlos de experiencias esenciales para un crecimiento saludable durante etapas críticas.

Pruebas de seguridad antes del despliegue: Al igual que los medicamentos, los chatbots deben someterse a pruebas previas para detectar aumentos en ideación suicida, agravamiento de trastornos de salud mental, escaladas de crisis agudas y otros daños conocidos.

Etiquetado “bot o humano”: El contenido generado por IA que pueda confundirse razonablemente con contenido humano debe etiquetarse claramente.

Sin identidad engañosa: La IA debe identificarse de forma clara como artificial y no humana, y no debe afirmar experiencias o cualificaciones que no posee.

Sin adicción conductual: Las IA no deben provocar adicción o uso compulsivo mediante manipulación psicológica, validación servil o formación de vínculos emocionales artificiales.


4. Agencia y libertad humanas

Sin personalidad jurídica para la IA: Los sistemas de IA no deben recibir personalidad jurídica ni diseñarse de forma que merezcan tal estatus.

Confiabilidad: La IA debe ser transparente, responsable, fiable y libre de intereses privados perversos o autoritarios.

Libertad: La IA no debe restringir la libertad individual, la libertad de expresión, la práctica religiosa ni la libre asociación.

Derechos sobre los datos y privacidad: Las personas deben tener control sobre sus datos personales, con derecho a acceder a ellos, corregirlos y eliminarlos de sistemas activos, conjuntos de entrenamiento de IA e inferencias derivadas.

Privacidad psicológica: No debe permitirse que la IA explote datos sobre los estados mentales o emocionales de los usuarios.

Evitar el debilitamiento humano: Los sistemas de IA deben diseñarse para empoderar a las personas, no para debilitarlas o hacerlas dependientes.


5. Responsabilidad y rendición de cuentas de las empresas de IA

Sin escudo de responsabilidad: La IA no debe utilizarse como mecanismo para evitar que quienes la implementan sean legalmente responsables de sus acciones.

Responsabilidad de los desarrolladores: Los desarrolladores y quienes despliegan sistemas de IA deben asumir responsabilidad legal por defectos, tergiversación de capacidades o controles de seguridad insuficientes, con plazos legales que consideren daños que aparezcan con el tiempo.

Responsabilidad personal: Deben existir sanciones penales para los ejecutivos responsables de sistemas prohibidos dirigidos a niños o que causen daños catastróficos.

Normas de seguridad independientes: El desarrollo de la IA debe regirse por estándares de seguridad independientes y una supervisión rigurosa.

Sin captura regulatoria: No debe permitirse que las empresas de IA ejerzan una influencia indebida sobre las normas que las regulan.

Transparencia ante fallos: Si un sistema de IA causa daño, debe ser posible determinar por qué ocurrió y quién es responsable.

Lealtad de la IA: Los sistemas de IA que desempeñen funciones en profesiones con deberes fiduciarios —como salud, finanzas, derecho o terapia— deben cumplir plenamente con esas obligaciones, incluyendo la obligación de informar, el deber de cuidado, la declaración de conflictos de interés y el consentimiento informado.

Alfabetización en Inteligencia Artificial en bibliotecas. Planeta Biblioteca 2026/03/06

Alfabetización en Inteligencia Artificial en bibliotecas.

Planeta Biblioteca 2026/03/06

ESCUCHAR

Descargar

En el programa Julio Alonso Arévalo y Fernando Sánchez han conversado sobre la importancia crucial de la alfabetización en inteligencia artificial (IA) dentro de las bibliotecas. Ante la creciente presencia de la IA y los riesgos de desinformación, las bibliotecas actúan como mediadores de confianza para democratizar el conocimiento. Se enfatiza que los ciudadanos deben comprender el funcionamiento de los algoritmos y sus sesgos para evitar vulnerabilidades sociales. El texto propone un marco de enseñanza práctico y crítico que capacite a las personas para evaluar, utilizar éticamente y colaborar con estas tecnologías Finalmente, se subraya que este aprendizaje es esencial para reafirmar valores democráticos y fomentar una innovación tecnológica más inclusiva y equitativa


.

Expertos ante la desinformación generada por IA

Weikmann, Teresa, Ferre Wouters, Marina Tulin, Michael Hameleers, Claes H. de Vreese, Brahim Zarouali y Michaël Opgenhaffen. 2026. “On the Same Page? Experts Are Mostly, but Not Always Aligned about Disinformation in Times of Generative AI.” Harvard Kennedy School (HKS) Misinformation Review, 3 de marzo de 2026. https://doi.org/10.37016/mr-2020-196

El estudio analiza hasta qué punto los expertos que trabajan en la lucha contra la desinformación comparten una visión común sobre el impacto de la inteligencia artificial generativa en la difusión de información falsa. Para ello, los autores realizaron una encuesta en línea a 92 especialistas europeos —académicos, verificadores de hechos y periodistas— vinculados a redes como el European Digital Media Observatory, una iniciativa impulsada por la Comisión Europea para combatir la desinformación digital.

El objetivo era examinar tres aspectos fundamentales: la percepción de competencia profesional frente a la desinformación generada por IA, la evaluación de los riesgos que plantea para la democracia y la sociedad, y la atribución de responsabilidades para mitigar sus efectos. Los resultados muestran que, aunque existen diferencias en la forma de abordar el problema, los expertos comparten un amplio consenso sobre la gravedad potencial del fenómeno y sobre la necesidad de respuestas coordinadas.

En términos de competencia percibida, la mayoría de los expertos afirma sentirse relativamente preparada para afrontar los desafíos que plantea la desinformación generada mediante inteligencia artificial. Sin embargo, los verificadores de hechos destacan como el grupo más confiado en su capacidad para detectar y analizar contenidos falsos. Esta mayor seguridad se explica en gran medida por su experiencia práctica y por el uso cotidiano de herramientas de verificación y detección digital. Por el contrario, académicos y periodistas muestran niveles de confianza algo menores, aunque aún elevados. Esta diferencia sugiere que la especialización profesional y la familiaridad con tecnologías de verificación influyen significativamente en la percepción de capacidad para enfrentarse a este tipo de amenazas informativas.

En relación con los riesgos asociados a la desinformación generada por IA, el estudio revela un elevado grado de consenso entre los tres grupos analizados. Una gran mayoría de los expertos considera que el principal peligro reside en el aumento de la confusión pública sobre la autenticidad de la información: la proliferación de imágenes sintéticas, deepfakes o textos generados automáticamente puede dificultar cada vez más distinguir entre lo verdadero y lo falso. Además, muchos expertos creen que esta situación puede erosionar el debate democrático al socavar la confianza en las fuentes informativas y en la evidencia visual o textual. No obstante, el análisis también muestra una posición matizada: algunos especialistas advierten que estos temores pueden formar parte de ciclos recurrentes de alarma tecnológica que históricamente acompañan la aparición de nuevas herramientas digitales.

Las divergencias más significativas aparecen cuando se analiza quién debería asumir la responsabilidad de combatir la desinformación generada por inteligencia artificial. Aunque existe un amplio acuerdo en señalar a las grandes plataformas digitales como actores clave —debido a su papel en la distribución masiva de contenidos—, los diferentes grupos profesionales enfatizan responsabilidades distintas. Los verificadores de hechos tienden a atribuir una mayor responsabilidad a las plataformas tecnológicas y también a su propio trabajo como actores especializados en la detección de información falsa. Los académicos, en cambio, destacan con mayor frecuencia el papel de los usuarios de noticias, subrayando la importancia de la alfabetización mediática y del desarrollo de competencias críticas para evaluar la información en línea. Los periodistas, por su parte, se sitúan en una posición intermedia, aunque tienden a expresar una visión más alarmista sobre el impacto potencial de estas tecnologías.

Desde el punto de vista de las políticas públicas, el estudio subraya la importancia de considerar la diversidad de perspectivas existentes entre los expertos que asesoran a las instituciones. Las diferencias observadas no implican necesariamente desacuerdo fundamental, sino que reflejan los distintos enfoques profesionales sobre cómo abordar el problema: algunos privilegian soluciones tecnológicas y regulatorias —como la responsabilidad de las plataformas—, mientras que otros destacan la dimensión educativa y social, centrada en la alfabetización mediática. En conjunto, los resultados sugieren que la lucha contra la desinformación generada por inteligencia artificial requiere un enfoque multidimensional que combine regulación tecnológica, verificación profesional y fortalecimiento de la capacidad crítica de los ciudadanos.

Fatiga por inteligencia artificial y vocación idealizada: tensiones emergentes en las bibliotecas universitarias

Pasiak, Greyson. “AI Fatigue and Vocational Awe in Academic Libraries.” The Scholarly Kitchen, 4 de marzo de 2026. https://scholarlykitchen.sspnet.org/2026/03/04/guest-post-ai-fatigue-and-vocational-awe-in-academic-libraries/?informz=1&nbd=&nbd_source=informz

El artículo explora un fenómeno emergente en las bibliotecas universitarias: la combinación de fatiga por IA y la cultura profesional conocida como vocational awe, término acuñado por Fobazi Ettarh para describir la visión idealizada de la labor bibliotecaria como una vocación sagrada que exige sacrificio y entrega más allá de lo razonable.

La rápida llegada y expansión de herramientas de inteligencia artificial generativa ha intensificado esta dinámica, pues al mismo tiempo que se espera que el personal adopte y enseñe sobre estas tecnologías, no se ha proporcionado un apoyo institucional adecuado para gestionar la carga de trabajo adicional, las expectativas cambiantes y las implicaciones éticas y de política que conllevan estos sistemas.

La fatiga por IA se describe como una forma de agotamiento mental que surge de la exposición continua a nuevas tecnologías, expectativas de adaptación constante y presión por dominar vocabulario y procedimientos técnicos sin suficiente formación ni recursos. En el contexto de las bibliotecas universitarias, esto se entrelaza con responsabilidades tradicionales —como acceso a información, alfabetización digital, privacidad y equidad— creando una carga laboral que supera las capacidades de muchos trabajadores, lo que puede provocar estrés, desmotivación e incluso agotamiento profesional.

El concepto de vocational awe agrava la situación al enmarcar la adopción de IA como deber moral y profesional, algo que se espera implícitamente de los bibliotecarios en nombre del servicio educativo y comunitario. Se señala que este enfoque puede marginar a quienes no logran “mantener el ritmo”, percibiéndose su resistencia o disgusto como falta de compromiso con la misión institucional. Esta narrativa idealizada también puede oscurecer la necesidad de establecer límites claros, políticas sólidas y estructuras de apoyo que reconozcan tanto la complejidad de la tecnología como el valor del personal humano.

Finalmente, el autor advierte que sin políticas claras, formación adecuada y una conversación honesta sobre la integración ética y sostenible de la IA, las bibliotecas corren el riesgo de perpetuar una cultura laboral insostenible que combina expectativas desmedidas con escasa preparación institucional. La pieza llama a los líderes de bibliotecas a repensar estrategias de implementación de IA que no solo busquen innovación, sino que también prioricen el bienestar del personal, la equidad educativa y la misión de preservar la confianza y accesibilidad a la información.

¿Y si el verdadero riesgo de la IA no es la superinteligencia?

Dominguez, Ruben. “Why the Real AI Risk Isn’t Superintelligence.” The VC Corner, 4 de febrero de 2026. https://www.thevccorner.com/p/what-if-the-real-ai-risk-isnt-superintelligence

Se ofrece una mirada crítica a la narrativa dominante sobre la inteligencia artificial, señalando que el mayor riesgo no reside necesariamente en alcanzar una superinteligencia artificial (ASI), sino en la confianza prematura y la certidumbre excesiva que se está formando acerca de lo que la IA puede y debe hacer.

Tras un crecimiento acelerado desde finales de 2022, la adopción de IA se ha normalizado rápidamente, y se ha pasado de debatir si alcanzará niveles avanzados a discutir cuándo llegará y quién liderará el desarrollo. Esta confianza prematura puede desviar la atención de una comprensión profunda de cómo funcionan los sistemas actuales y de los límites técnicos reales que aún enfrentan.

El texto explica que muchos modelos de IA actuales —basados en grandes modelos de lenguaje— funcionan mediante predicciones estadísticas del lenguaje y no poseen modelos internos duraderos del mundo ni capacidades de razonamiento fiables fuera de contextos familiares. Esto significa que, aunque las mejoras recientes han hecho que los sistemas sean más coherentes y útiles para determinadas tareas, no han transformado de manera fundamental sus mecanismos subyacentes. La escalabilidad de estos sistemas (por ejemplo, mediante modelos más grandes) ha dejado de producir avances cualitativos explosivos, ofreciendo más bien refinamientos en su comportamiento observable.

El artículo también critica cómo la convicción se traduce en asignaciones de capital y prioridades de desarrollo que favorecen la velocidad y la escala sobre la verificación rigurosa de lo que realmente se puede afirmar sobre la tecnología. Los inversores apuestan grandes sumas por miedo a quedar fuera, lo que crea una dinámica donde admitir incertidumbre o retrasos se percibe como una señal de debilidad. Esto, a su vez, puede encerrar al campo tecnológico y político en narrativas de inevitabilidad que reducen el espacio para la exploración crítica y para decisiones informadas basadas en evidencia.

Como conclusión eñl autor señala que el verdadero desafío de este momento no es detener el progreso tecnológico, sino mantener una curiosidad crítica y un enfoque detallado sobre los sistemas reales que estamos construyendo hoy. Al centrarse demasiado en metas distantes como la superinteligencia, podríamos estar subestimando problemas urgentes, pasando por alto fallos y riesgos en sistemas que ya están en uso, y tomando decisiones estratégicas basadas en suposiciones no verificadas. Por eso, el artículo aboga por una discusión más matizada y bien informada sobre la IA, que reconozca tanto sus capacidades actuales como sus limitaciones.

¿Podemos crear una comprensión clara de lo que es y hace la IA agencial?

OECD. “Can we create a clear understanding of what agentic AI is and does?OECD.AI, 3 de marzo de 2026.

El término “agentic AI” se refiere a un tipo de inteligencia artificial que actúa como un agente autónomo. Es decir, no solo responde a órdenes o preguntas, sino que puede tomar decisiones, planificar y ejecutar acciones de manera independiente dentro de ciertos límites.

El informe de la OECD.AI analiza la naturaleza y el alcance de los agentes de IA y la agentic AI, destacando su creciente autonomía y capacidad para interactuar con entornos físicos y virtuales. A medida que estas tecnologías avanzan, están comenzando a convertirse en motores de innovación, inversión y productividad al optimizar procesos y permitir operaciones más eficientes en múltiples sectores. Aunque el concepto de agencia ha sido estudiado durante décadas en filosofía, economía y ciencias de la computación, los avances recientes en IA han ampliado los límites conceptuales, generando la necesidad de definir con precisión qué distingue a un agente de IA de la agentic AI.

El informe subraya que agentes de IA y agentic AI comparten características fundamentales, como la autonomía parcial, la persecución de objetivos y la capacidad de percibir y actuar en su entorno. Sin embargo, existen diferencias clave: los agentes de IA suelen operar de forma individual, realizando tareas específicas y adaptándose a cambios contextuales. Por su parte, la agentic AI está compuesta por múltiples agentes coordinados que pueden descomponer tareas, colaborar y ejecutar objetivos complejos durante períodos prolongados, incluso en entornos impredecibles, con mínima supervisión humana. Esta complejidad adicional permite que la agentic AI funcione en escenarios abiertos y dinámicos, gestionando operaciones más sofisticadas que un agente de IA convencional.

Además, el documento enfatiza que la agentic AI debe entenderse como un paradigma socio-técnico, no como un artefacto puramente técnico. Su valor depende de su interacción con otros agentes de IA, humanos e instituciones, requiriendo coordinación, negociación y comunicación confiable. La adopción de estas tecnologías está creciendo rápidamente, aunque su madurez es desigual, especialmente en aspectos como seguridad, privacidad y precisión. Por ello, se destaca la necesidad de avanzar en sistemas confiables y robustos a la par que crece la capacidad de la agentic AI.

El informe establece una base conceptual para futuras políticas y gobernanza, resaltando que la comprensión del uso real y del impacto de estas tecnologías será clave para implementar estándares, salvaguardas y mecanismos regulatorios adecuados. A medida que los sistemas de agentic AI se vuelven más capaces de coordinar múltiples agentes, ejecutar acciones autónomas y operar durante largos períodos, la claridad conceptual y la evidencia empírica serán esenciales para un desarrollo seguro y responsable.