Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Las bibliotecas impulsan la educación para el desarrollo sostenible

Hauke, Petra, Antonia Mocatta y Priscilla Nga Ian Pun, eds. Libraries Driving Education for Sustainable Development. De Gruyter Saur, 2025.

Texto completo

El libro se centra en el papel clave que desempeñan las bibliotecas en impulsar la Educación para el Desarrollo Sostenible (EDS), un componente esencial de los programas educativos de la UNESCO para la Agenda 2030. El texto destaca que las bibliotecas no solo proporcionan acceso a recursos informativos, sino que funcionan como instituciones de aprendizaje activo, donde comunidades diversas pueden explorar conocimientos, habilidades y valores vinculados con la sostenibilidad. En el contexto de la EDS, estos espacios fomentan competencias como el pensamiento crítico, la colaboración y la comprensión de desafíos globales como el cambio climático, la equidad social y la justicia ambiental.

Además, el informe argumenta que las bibliotecas verdes o sostenibles —aquellas que integran prácticas ecológicas en su gestión y servicios— merecen reconocimiento como socios activos en los esfuerzos nacionales e internacionales por alcanzar los Objetivos de Desarrollo Sostenible (ODS). Se subraya que iniciativas innovadoras como proyectos educativos informales, programas comunitarios y alianzas intersectoriales amplían la influencia educativa de las bibliotecas más allá de las colecciones tradicionales. Esto posiciona a las bibliotecas como agentes que no solo difunden información, sino que también inspiran acción y cambio en sus comunidades locales.

La obra también integra análisis y ejemplos de experiencias de bibliotecas que han implementado proyectos alineados con la EDS, mostrando cómo estas instituciones pueden traducir conceptos globales en actividades tangibles —por ejemplo, talleres sobre sostenibilidad, exposiciones educativas y colaboraciones con escuelas o asociaciones civiles. A través de estos casos se ilustra cómo las bibliotecas contribuyen a una educación más inclusiva, equitativa y transformadora, reforzando su rol como espacios educativos y culturales que apoyan tanto a individuos como a comunidades en la construcción de un futuro sostenible.

La administración Trump recurre a imágenes falsas generadas por IA como estrategia política

Huamani, Kaitlyn. “Trump’s Use of AI Images Sparks Alarm and Misinformation Fears.” The Independent, 27 de enero de 2026.

Ver original

Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.

Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.

Un pasaje destacado del artículo se refiere a un caso en el que la cuenta oficial de la Casa Blanca en X (antes Twitter) publicó una fotografía digitalmente alterada de la abogada de derechos civiles Nekima Levy Armstrong en la que aparecía aparentemente llorando tras un arresto. La imagen original había sido compartida por una secretaria de Seguridad Nacional, pero la versión difundida por el canal oficial fue retocada para acentuar las lágrimas, lo que provocó críticas de que se estaba utilizando la IA para manipular la percepción pública de eventos reales. Críticos como académicos en estudios de información sostienen que etiquetar estas publicaciones como “memes” puede ser una táctica para minimizar la crítica, aunque su difusión desde canales oficiales les confiere una legitimidad peligrosa.

El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.

Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.

En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.

Quemar libros

«—Y no solo matan personas —prosiguió don Miguel, más enardecido—. Ahora también les ha dado por quemar libros. Esta tarde, cuando fui a la Universidad, me encontré con que en el Patio de Escuelas un grupo de falangistas y varios militares, algunos de ellos muy jóvenes, habían hecho una pira delante de la estatua de fray Luis de León, mudo testigo de la barbarie, él que fue víctima de la Inquisición, a la que arrojaban sin piedad los ejemplares que sacaban de la biblioteca universitaria. Así que me encaré con ellos y les exigí, como rector, que no continuaran, que cada una de esas obras valía mucho más que todos ellos juntos. Y varios de ellos me miraron y se echaron a reír, como si me hubiera vuelto loco. Por suerte, uno de los presentes me conocía y la cosa se arregló de forma pacífica, por lo que pudimos salvar una buena parte de los volúmenes condenados a la hoguera.»

Luis García Jambrina «El último caso de Unamuno.»

El relato describe la quema de libros realizada por falangistas y militares en la Universidad de Salamanca al inicio de la Guerra Civil (1936). Miguel de Unamuno, rector de la institución, presencia con indignación cómo destruyen obras frente a la estatua de Fray Luis de León. El texto refleja su ruptura emocional con el bando sublevado ante tal muestra de barbarie cultural. Se trata de un episodio real que simboliza la represión ideológica y el fin del humanismo en esa etapa

¿Quién posee el conocimiento? Copyright, IA Generativa y el futuro de la publicación académica

Kochetkov, Dmitry. 2025. “Who Owns the Knowledge? Copyright, GenAI, and the Future of Academic Publishing.” arXiv, noviembre 24, 2025. https://doi.org/10.48550/arXiv.2511.21755

El documento aborda el impacto profundo y multifacético de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) en la investigación científica y el sistema de publicación académica. Las capacidades de estas tecnologías, señala el autor, representan un cambio de paradigma que ofrece oportunidades revolucionarias para acelerar descubrimiento, análisis y difusión del conocimiento, pero al mismo tiempo plantea desafíos éticos, legales y regulatorios significativos que no han sido adecuadamente resueltos por los marcos jurídicos existentes en las principales jurisdicciones del mundo.

Un foco central del análisis es el reto que GenAI plantea para las leyes de copyright tradicionales y para los principios de la ciencia abierta. Kochetkov argumenta que las normativas actuales en países como Estados Unidos, China, la Unión Europea y el Reino Unido, aunque pretenden fomentar la innovación, dejan vacíos importantes específicamente en relación con el uso de obras protegidas por derechos de autor y de resultados de ciencia abierta para entrenar modelos de IA. Es decir, las normas pensadas para regular la reutilización humana de contenidos no cubren adecuadamente la ingestión masiva de textos científicos por parte de algoritmos de aprendizaje automático.

El autor también discute las limitaciones de los mecanismos de licencia existentes, incluyendo las licencias de acceso abierto como las de Creative Commons. Aunque estas licencias han sido útiles para permitir la reutilización y difusión entre personas, no están diseñadas para regular el entrenamiento de GenAI, que implica procesamiento de datos a gran escala y sin intervención humana directa. Esto se traduce, según el artículo, en una falta de atribución y reconocimiento de la autoría real de los contenidos, lo cual socava nociones académicas fundamentales de originalidad, crédito y responsabilidad intelectual.

Frente a esto, Kochetkov propone una crítica al uso automático de figuras legales como la “excepción de uso justo” (“fair use”) en Estados Unidos para justificar el entrenamiento de modelos de IA con textos académicos. En su análisis, depender de este enfoque es problemático porque no respeta suficientemente los derechos de los creadores originales —especialmente cuando los modelos son desarrollados o explotados comercialmente o cuando producen derivados opacos sin atribución clara— y podría favorecer la consolidación de mercados oligopólicos donde prevalecen intereses comerciales sobre la integridad científica y la equidad en la producción de conocimiento.

Como alternativa, el autor aboga por que los autores mantengan derechos explícitos para rechazar el uso de sus obras en procesos de entrenamiento de IA, independientemente de la doctrina de uso justo, y que las universidades jueguen un papel más activo en la gobernanza responsable de IA. Las instituciones académicas, sostiene, están en una posición única para desarrollar políticas internas que reflejen los valores de integridad científica, transparencia y justicia epistémica, negociando derechos que incluyan cláusulas específicas sobre IA.

Finalmente, Kochetkov llama a un esfuerzo legislativo internacional armonizado que pueda integrar coherentemente derechos de autor, ciencia abierta y el uso de GenAI en la investigación académica. Una regulación coordinada a nivel global ayudaría a proteger la propiedad intelectual, garantizar transparencia en los datos de entrenamiento, y evitar que la infraestructura de conocimiento científico quede dominada por intereses comerciales en detrimento del acceso equitativo y la integridad de la producción académica.

En conjunto, el artículo plantea que la revolución de la IA en la ciencia requiere no solo innovación tecnológica, sino también reformas profundas en las políticas de derechos de autor, licencias abiertas y gobernanza institucional, para asegurar que la transformación digital refuerce —y no erosione— los principios fundamentales de la investigación científica y la difusión del saber.

Carta de amor de una editora de Nice News a las bibliotecas públicas

Ally Mauch, A Nice News Editor’s Love Letter to Public Libraries,” Nice News, febrero 13, 2026, https://nicenews.com/culture/nice-news-editor-love-letter-to-public-libraries/

Esta carta abierta fue escrita por Ally Mauch en honor al Mes de los Amantes de las Bibliotecas.

«La biblioteca de mi infancia era un pequeño edificio de ladrillo que albergaba todo un mundo de oportunidades para mí. Aún recuerdo haber firmado mi nombre en el reverso de mi primera tarjeta de la biblioteca, las sesiones semanales de cuentos y los ordenadores de sobremesa de principios de los años 2000 donde mis deditos aprendieron a escribir. Estaba a poca distancia de la casa donde crecí, y nunca me dejó aburrirme (“tener diversión no es difícil cuando tienes una tarjeta de biblioteca”, como sabiamente dijo Arthur Read).

De hecho, ese personaje de dibujos no fue el único que me ayudó a romanticizar las alegrías de la biblioteca y a inculcarme un amor de por vida por estas instituciones públicas esenciales. En Matilda, de Roald Dahl, la protagonista encuentra refugio en la biblioteca: cada día pasa “dos gloriosas horas sentada tranquilamente en un rincón acogedor devorando un libro tras otro”. Hasta que la amable bibliotecaria le informa que puede llevarse los libros a casa.

Quizá no sorprenda que Matilda sea la respuesta que doy cuando me preguntan cuál es mi libro favorito. Pero esa pregunta probablemente solo sea imposible para mí porque amo los libros —y amo los libros por la biblioteca.

Mi historia de enamorarme y seguir enamorada de las bibliotecas no es única. Hay más de 17.000 bibliotecas públicas en los Estados Unidos, y casi dos tercios de los estadounidenses mayores de 16 años las utilizan, según una encuesta de 2013 del Pew Research Center.

Lindsay Laren fue educada en casa cuando era niña, y atribuye al acceso a los libros de la biblioteca el haberla ayudado a “desarrollar una empatía más profunda, curiosidad y la capacidad de ver más allá de mi propia perspectiva estrecha”.

Actualmente trabajo con bibliotecas frecuentemente: paso por mi sucursal local para recoger libros, imprimir y fotocopiar, alquilar pases para museos o cargar mi teléfono cuando se queda sin batería. Es también mi lugar de votación, donde he hecho cola junto a otros miembros de la comunidad para ejercer nuestro deber cívico.

Y para las personas sin hogar, que no tienen la suerte de tener un hogar o apartamento cercano, la biblioteca es un lugar cálido (o fresco, en verano) donde pueden ir. Veo a personas de todas las condiciones de vida allí, y todos son bienvenidos — porque la biblioteca es para “todos”.

He visto a personas mayores y jóvenes convertirse en amigos en un programa de punto de cruz; he visto comunidades enteras tener una experiencia única de observar un eclipse juntos en su biblioteca. Estas experiencias no se tratan de mí ni siquiera de las increíbles personas con las que he trabajado, sino de cómo la biblioteca está ahí como una forma para que las personas se conecten entre sí.

Y por eso amo la biblioteca.

Tasas de adopción de IA por país

Neufeld, Dorothy. Mapped: AI Adoption Rates by Country. Visual Capitalist, January 22, 2026. https://www.visualcapitalist.com/ai-adoption-rates-by-country/

El artículo de Visual Capitalist presenta un mapa con las tasas de adopción de inteligencia artificial (IA) en el mundo, estimadas sobre la base del porcentaje de la población en edad laboral que usó IA al menos una vez durante el segundo semestre de 2025. Los datos provienen del informe Global AI Adoption in 2025 de Microsoft, y muestran amplias diferencias regionales y nacionales en el uso de IA.

La disparidad en las tasas de adopción sugiere que no siempre coincide la capacidad tecnológica con el uso real de IA entre la población. Países con políticas públicas y estrategias nacionales bien definidas para impulsar la adopción tienden a mostrar cifras más altas, incluso por encima de economías más grandes o con mayor capacidad de investigación.

Principales conclusiones:

  • En 2025, 16.1 % de la población mundial en edad de trabajar utilizó IA, lo que indica que aún hay un gran potencial de crecimiento del uso de estas tecnologías en muchas regiones.
  • Las tasas de adopción promedio son más altas en el hemisferio norte (24.7 %) que en el hemisferio sur (14.1 %), reflejando diferencias de desarrollo tecnológico e infraestructura.

Países con mayores tasas de adopción:

  • Emiratos Árabes Unidos (64.0 %) — el país con mayor adopción global en 2025, gracias a su enfoque temprano en la gobernanza y uso de IA.
  • Singapur (60.9 %) — también con una estrategia sólida de inversión en infraestructura y tecnologías.
  • Noruega (46.4 %) y otros países europeos como Irlanda (44.6 %) y Francia (44.0 %) — destacando la fuerte integración de IA en sectores productivos.
  • España (41.8 %) — posicionándose entre los países con tasas elevadas de uso de IA en Europa.
  • Dentro del top 10 también aparecen Nueva Zelanda, Países Bajos, Reino Unido, Catar y Australia, con tasas de adopción entre ~36 % y ~40 %.
  • Estados Unidos ocupa el puesto 24 a nivel mundial con una tasa de adopción de 28.3 %, lo que contrasta con su liderazgo en infraestructura de IA y desarrollo de modelos avanzados.


Alfabetización de datos: cómo navegar la transición de la publicidad exagerada a la realidad

Data Literacy: Navigating the Shift from Hype to Reality. Library Trends, Vol. 74, Núm. 3 (febrero de 2026) https://muse.jhu.edu/issue/56412

El número 3 del volumen 74 de la revista Library Trends explora el concepto de alfabetización de datos más allá del entusiasmo tecnológico, enfocándose en cómo las bibliotecas y los profesionales de la información están integrando esta competencia en sus prácticas educativas y de servicio. La edición parte de la premisa de que la creciente complejidad de los ecosistemas de información —lo que algunos investigadores describen como la “sobrecarga de datos”— desafía a las bibliotecas a redefinir su papel formativo más allá de la alfabetización informacional tradicional. El propósito es comprender hasta qué punto las bibliotecas han desarrollado estrategias críticas y efectivas para preparar a sus usuarios a interpretar, evaluar y usar datos de forma ética en contextos diversos.

El contenido incluye artículos que analizan tanto perspectivas teóricas como experiencias prácticas: desde enfoques críticos sobre la enseñanza de la alfabetización de datos en entornos de desconfianza hasta iniciativas comunitarias dirigidas a poblaciones específicas, como inmigrantes o estudiantes universitarios. Se presentan estudios de caso sobre programas de formación interdisciplinaria, pedagogías inclusivas y proyectos que vinculan la alfabetización de datos con necesidades sociales, como la comprensión de la inseguridad alimentaria. Además, se examina cómo los planes de estudio en biblioteconomía y ciencias de la información están evolucionando para incorporar competencias de datos de manera más sistemática.

Bibliotecarios enseñan alfabetización en IA para ayudar a comunidades a navegar el nuevo entorno digital

Librarians Teach AI Literacy to Students and Communities.CBC News, February 2026 https://www.cbc.ca/news/canada/librarians-teach-ai-9.7055661?utm_source=flipboard&utm_content=JamesGood6mff/magazine/Education+%26+Parenting

El papel cada vez más importante que están desempeñando los bibliotecarios como educadores en alfabetización de inteligencia artificial (IA), adaptándose a un entorno digital en rápida transformación.

En un contexto donde herramientas como ChatGPT, Gemini y otros modelos generativos se vuelven omnipresentes, profesionales de las bibliotecas están ampliando sus funciones tradicionales —más allá de ayudar a las personas a encontrar y evaluar información— para incluir la enseñanza sobre cómo identificar, evaluar y utilizar inteligencias artificiales de manera crítica y responsable.

Históricamente, las bibliotecas han sido centros de alfabetización en información, enseñando habilidades que permiten a los usuarios discernir fuentes fiables y navegar recursos complejos. Hoy, esa misión se extiende a la alfabetización en IA, que abarca no solo comprender qué hacen estas tecnologías y cómo funcionan, sino también sus limitaciones y sus posibles impactos éticos y sociales —por ejemplo, cómo distinguir contenido generado por IA de aquel creado por humanos y reconocer posibles sesgos o errores en los resultados que producen.

El artículo subraya que distintos bibliotecarios trabajan con estudiantes y comunidades de todas las edades para integrar este tipo de educación. En escuelas y universidades, por ejemplo, estos profesionales colaboran con docentes para enseñar a los estudiantes no solo a usar herramientas de IA para la investigación académica, sino también a objetivar críticamente sus beneficios y riesgos, incluyendo cuestiones como el plagio, la integridad académica y la búsqueda responsable de información.

Además, el papel del bibliotecario se extiende a iniciativas comunitarias más amplias. Algunos programas públicos de bibliotecas han empezado a ofrecer recursos y talleres gratuitos para personas que desean entender mejor cómo las IA influyen en la vida diaria, desde las noticias y las redes sociales hasta cuestiones laborales y de privacidad de datos. En este sentido, se enfatiza la importancia de que las bibliotecas no solo enseñen técnicas de uso, sino que también fomenten habilidades de pensamiento crítico y evaluación ética frente a sistemas que generan contenido automáticamente.

La discusión del artículo también apunta a que, en un momento en que el público general y los estudiantes muestran una necesidad creciente de entender estas tecnologías —como reflejan encuestas que señalan brechas en pensamiento crítico relacionadas con el uso de IA—, los bibliotecarios están bien posicionados para asumir este rol educativo debido a su experiencia histórica en alfabetización informacional. Su labor, por tanto, se percibe no solo como una extensión natural de su función, sino como una respuesta esencial a las demandas educativas y sociales del entorno digital contemporáneo.

.

Discord implementará detección automatizada con validación de IA y revisión humana para aplicar restricciones por edad en servidores

Goodall, Jack. “Discord Says It Will Use a Mixture of ‘AI Validation and Human Review’ to Determine Age-Restricted Content.PC Guide, February 16, 2026 https://www.xda-developers.com/discord-will-use-automated-detection-with-ai-validation-and-human-review-to-age-gate-your-servers/?utm_source=flipboard&utm_content=other

La plataforma de comunicación Discord está actualizando sus políticas de moderación y seguridad para aplicar restricciones de edad en servidores y contenido, empleando una combinación de detección automatizada, validación mediante inteligencia artificial y revisión humana para identificar y clasificar qué espacios deben ser considerados para adultos.

Según la explicación de un portavoz de Discord citada por PC Guide, estos mecanismos forman parte de un enfoque amplio que la compañía llama “Teen Safety Assist” o “safety-by-default”, diseñado para proteger a usuarios más jóvenes de contenido sensible o no apropiado en su plataforma.

El sistema de detección automatizada con IA busca identificar servidores que potencialmente alojen material para adultos, especialmente imágenes o contenidos sensibles, aplicando filtros y políticas de seguridad existentes. Estos filtros automatizados se combinan con revisiones humanas en casos donde el algoritmo no sea concluyente o donde se necesite confirmación adicional para evitar errores de clasificación. La IA actúa como primera línea —escaneando grandes cantidades de espacios y contenidos dentro de Discord— y la revisión humana sirve como un control de calidad para aquellos casos más ambiguos o complejos.

El anuncio de este nuevo enfoque ocurre en un contexto más amplio de actualizaciones en la plataforma que, desde marzo de 2026, requerirán la verificación de edad de los usuarios para permitirles acceder a servidores con restricciones para adultos o desactivar los filtros predeterminados de contenido seguro. Aunque cualquier administrador puede seguir marcando voluntariamente su servidor como restringido por edad, el sistema automatizado procurará identificar y aplicar estas restricciones incluso en aquellos casos no señalados explícitamente por los administradores. En este sentido, la IA y la revisión humana no solo ayudan a confirmar la edad de los usuarios, sino también a evaluar qué tipo de contenido o servidores deben estar cerrados a menores.

La medida forma parte de un impulso más amplio de Discord para implementar controles de seguridad para menores y cumplir con estándares regulatorios crecientes sobre protección infantil en internet. Esto incluye, en otras actualizaciones de la plataforma, establecer un modo predeterminado para cuentas de adolescentes y limitar funciones sin una verificación positiva de adultez, como parte de un esfuerzo por equilibrar la seguridad con la experiencia de los usuarios adultos. Aunque el uso de IA para estas funciones puede traer mejoras en la eficiencia y la cobertura de detección, también suscita preguntas y debates sobre precisión, privacidad y la intervención automatizada en comunidades privadas, elementos que Discord deberá gestionar cuidadosamente a medida que despliega estas herramientas.

¿Sobrevivirán las humanidades a la inteligencia artificial?

Burnett, D. Graham. “Will the Humanities Survive Artificial Intelligence?The New Yorker, April 26, 2025. https://www.newyorker.com/culture/the-weekend-essay/will-the-humanities-survive-artificial-intelligence

El historiador de ciencia y tecnología D. Graham Burnett analiza cómo los avances de la inteligencia artificial están transformando de manera profunda —y a veces silenciosa— la vida intelectual y educativa, con especial enfoque en las disciplinas humanísticas.

Burnett parte de su experiencia como profesor universitario. Describe el desconcierto que ha generado la aparición de modelos de lenguaje capaces de redactar ensayos coherentes, interpretar textos complejos y producir análisis que antes exigían años de formación académica. Lo que inicialmente fue recibido con prohibiciones o sospechas —plagio, trampa, atajo intelectual— pronto se reveló como un fenómeno mucho más profundo: no se trata solo de estudiantes usando herramientas nuevas, sino de una transformación estructural en la manera en que se produce y se procesa el conocimiento textual.

El autor subraya que las humanidades modernas se han organizado históricamente en torno a prácticas como la lectura atenta, la escritura argumentativa y la interpretación crítica. Estas actividades constituían no solo métodos pedagógicos, sino también rituales de formación intelectual. La IA, al automatizar gran parte de esas tareas, parece desestabilizar el corazón mismo del currículo. Si una máquina puede analizar a Shakespeare, resumir a Kant o imitar la prosa académica con notable solvencia, ¿qué queda para el estudiante? ¿Qué queda para el profesor?

Pero el ensayo no reduce la cuestión a la eficiencia técnica. Burnett propone que la verdadera crisis es ontológica y cultural. Las humanidades no solo enseñan a producir textos, sino a habitar preguntas: ¿qué es una persona?, ¿qué significa comprender?, ¿qué valor tiene la experiencia subjetiva? La aparición de sistemas capaces de simular comprensión obliga a revisar nuestras nociones de conciencia, intención y creatividad. La IA no solo compite con las humanidades en el plano operativo; las interpela en el plano filosófico.

Burnett observa también que la universidad contemporánea ya estaba en crisis antes de la llegada de la IA: precarización laboral, reducción de matrícula en carreras humanísticas, presión utilitarista hacia disciplinas STEM. La inteligencia artificial actúa como acelerador de esas tensiones. Sin embargo, su impacto también puede ser catalizador de renovación. En lugar de aferrarse a un modelo basado exclusivamente en la producción de ensayos evaluables, el autor imagina un giro hacia formas más dialógicas, performativas y experienciales de aprendizaje: seminarios donde la IA se use críticamente, prácticas que enfaticen la presencia corporal, la discusión en vivo y la reflexión ética.

Uno de los argumentos centrales del ensayo es que la esencia de las humanidades no radica en la mera generación de contenido, sino en la formación del juicio. El juicio —esa capacidad de discernir, valorar, contextualizar y asumir responsabilidad interpretativa— no se reduce a la producción textual. En este sentido, la IA podría incluso reforzar el papel de las humanidades si obliga a desplazarlas desde la repetición de conocimientos hacia la reflexión sobre qué significa pensar con y contra las máquinas.

El texto sugiere que estamos asistiendo al colapso de un modelo curricular basado en la escasez de información y en la dificultad técnica de escribir bien. En un mundo donde la producción textual es abundante y casi instantánea, el valor ya no estará en “hacer un ensayo correcto”, sino en formular preguntas significativas, en sostener conversaciones complejas y en desarrollar una conciencia crítica sobre las herramientas que utilizamos.

En última instancia, Burnett no defiende la preservación nostálgica del pasado académico. Más bien invita a aceptar que el viejo edificio puede estar en ruinas, pero que en esos escombros se percibe movimiento. Algo vital —una nueva forma de humanismo, quizá más consciente de la tecnología y de sus límites— comienza a gestarse. La supervivencia de las humanidades dependerá de su capacidad para redefinirse no como guardianas de un canon textual, sino como espacios de interrogación radical sobre lo humano en una era de inteligencia no humana.