Rage bait “contenido que provoca indignación” palabra del año para Oxford 2025

Oxford ha elegido rage bait como la Palabra del Año 2025. El término ha adquirido relevancia en un contexto marcado por disturbios sociales, debates sobre la regulación del contenido en línea y una creciente preocupación por el bienestar digital.

Según los expertos, su uso refleja un cambio más profundo en la forma en que hablamos sobre la atención —cómo se capta y cómo se ofrece— y sobre el compromiso y la ética en los entornos digitales.

Los datos lingüísticos muestran que el uso de rage bait se ha triplicado en los últimos doce meses. Aunque está formado por dos palabras, Oxford aclara que no se trata de una trampa lingüística, ya que la Palabra del Año puede ser tanto un término simple como una expresión considerada una unidad de significado.

Rage bait combina rage (rabia o estallido violento de ira) y bait (cebo o bocado atractivo). Ambas palabras existen desde el inglés medio. Aunque guarda cierta relación con clickbait, el concepto de rage bait se centra específicamente en provocar enfado, discordia y polarización.

La aparición de rage bait como término independiente demuestra la flexibilidad del inglés para unir palabras ya establecidas y crear expresiones nuevas que capturan fenómenos actuales. En este caso, el término refleja un rasgo característico del mundo digital contemporáneo y de las dinámicas que moldean nuestra comunicación en línea.

Principios del seguimiento de la ciencia abierta

Open Science Monitoring Initiative. (2025). The Principles of Open Science Monitoring. Recuperado de https://open-science-monitoring.org/principles/

Se presentan los principios del Open Science Monitoring Initiative (OSMI), diseñados para ofrecer un marco global que oriente la creación de sistemas de seguimiento (monitorización) de la ciencia abierta en distintos contextos nacionales, institucionales y disciplinarios.

La iniciativa surge como respuesta a la falta de directrices globales para evaluar el grado y avance de prácticas de ciencia abierta tras la adopción de la 2021 UNESCO Recommendation on Open Science.

Los principios se estructuran alrededor de tres pilares fundamentales:

  • Relevancia y significación: los indicadores deben ser útiles, adaptables a diversos contextos, desarrollados con participación de distintos actores, y capaces de reflejar impactos reales de la ciencia abierta. Esto asegura que los sistemas de monitoreo realmente aporten información significativa para políticas, instituciones o comunidades científicas.
  • Transparencia y reproducibilidad: los sistemas de monitoreo deben apoyarse en infraestructuras abiertas, usar herramientas de código abierto, documentar públicamente los procesos y metodologías, asegurar la trazabilidad de los datos y permitir la reutilización. Los datos deben ser accesibles, los métodos claros, y los resultados comunicados de forma abierta, lo cual promueve confianza, auditabilidad y comparabilidad entre contextos
  • Autoevaluación y uso responsable: la monitorización debe emplearse como herramienta de mejora continua, con revisiones periódicas, sensibilidad al contexto, y nunca como un mecanismo para clasificar o rankear a investigadores individualmente. En su lugar, debe centrarse en apoyar el desarrollo colectivo de prácticas de ciencia abierta, respetando diversidad disciplinaria, equidad, inclusión y adaptabilidad local.

El documento enfatiza que estos principios no son prescriptivos sino aspiracionales: buscan guiar y orientar la creación de sistemas de monitoreo —no imponer un modelo único. Su carácter flexible y modular facilita su adopción por diversos actores institucionales, gubernamentales o comunitarios con distintas capacidades, recursos y realidades.

Inteligencia Artificial con empatía hacia los humanos

Werner, J. (2025, 11 octubre). AI With Empathy For Humans. Forbes.

Texto completo

El artículo explora la pregunta central de si es posible —y deseable— construir inteligencias artificiales capaces de mostrar empatía hacia los seres humanos. La discusión parte de una constatación cultural: abundan las obras literarias, musicales y audiovisuales que plantean el temor a que la inteligencia artificial pueda reemplazar a las personas, no solo en tareas mecanizadas, sino también en ámbitos donde hoy consideramos indispensable la sensibilidad humana. Según el autor, este temor convive con una realidad cada vez más extendida: millones de jóvenes ya utilizan sistemas conversacionales como compañía emocional, y muchos expresan sentirse igual o más acompañados por estas interacciones que por relaciones humanas tradicionales. Sin embargo, también existe incomodidad o incluso inquietud cuando la IA produce comentarios que parecen desafinar emocionalmente con el usuario, lo que demuestra que la empatía simulada aún se sostiene sobre bases frágiles.

En el marco del congreso Imagination in Action, celebrado en Stanford, distintos expertos debatieron sobre las limitaciones actuales del alineamiento entre sistemas de IA y necesidades humanas. Técnicas como el fine-tuning supervisado o el aprendizaje por preferencia humana han permitido mejorar la coherencia conversacional en el corto plazo, pero presentan deficiencias notables cuando las interacciones se prolongan en el tiempo o requieren una comprensión más profunda de los matices emocionales. A ello se suma una diferencia estructural fundamental entre el modo en que trabajan los humanos y las máquinas: mientras la creatividad humana se nutre de procesos iterativos, pruebas, idas y vueltas, los modelos de IA operan típicamente en una sola pasada, lo que reduce su capacidad de adaptación a tareas imprevistas, creativas o repletas de contexto subjetivo.

El autor también advierte sobre los efectos que podría tener una adopción acelerada de sistemas de IA en el mercado laboral y en la transmisión generacional de habilidades. Si las empresas comienzan a depender en exceso de agentes de IA para escribir código, producir informes o resolver tareas operativas, es posible que reduzcan la contratación de profesionales jóvenes. Esto generaría un debilitamiento grave en el desarrollo de talento humano a largo plazo, comprometiendo la sostenibilidad de profesiones técnicas y creativas. En este sentido, Werner sostiene que la discusión sobre empatía en IA no puede desligarse de otra más amplia: cómo integrar esta tecnología en estructuras organizacionales sin erosionar las capacidades humanas ni desplazar la práctica profesional que sostiene la innovación futura.

Libros de texto escolar impreso y digital : realidades y perspectivas

Ramírez Bravo, Roberto. Libros de texto escolar impreso y digital : realidades y perspectivas / Roberto Ramírez Bravo – San Juan de Pasto : Editorial Universidad de Nariño, 2025

Texto completo

En este documento se estudia la pertinencia y la relevancia del libro de texto escolar impreso (LTEI) y del libro de texto escolar digital (LTED), los cuales, cuando están apropiadamente elaborados, se entienden como mediadores de los lugares de enseñanza y de aprendizaje, así como los medios más explícitos para concretar la transposición didáctica (Chevallard, 1985). Esto se debe a que plasman la selección y adecuación de teorías a las actividades educativas y formativas; permiten la realización de hechos pedagógicos y didácticos orientados a mejorar la comprensión y la interpretación de la disciplina; y puntualizan la transferencia de saberes científicos a saberes escolares. En esta dinámica, presentan narraciones, descripciones, exposiciones, argumentaciones, etc., de una selección de categorías, principios, contenidos, procedimientos y actividades que, según el autor, se deben trabajar.

Abrir un libro

<<Cuando yo abro un libro, lo abro como puedo abrir un paquete de chocolate, o entrar en el cine, o llegar por primera vez a la cama de una mujer que deseo; es decir, es una sensación de esperanza, de felicidad anticipada, de que todo va a ser bello, de que todo va a ser hermoso».

Julio Cortázar

Devuelven un libro a una bibliotecas 76 años tarde: la mayor morosidad de la historia

Hartlaub, Peter. “76 years overdue: What happens when you return an S.F. library book from the 1940s?San Francisco Chronicle, 30 de agosto de 2025 https://www.sfchronicle.com/totalsf/article/library-book-overdue-fine-21014643.php

En 2025, un coleccionista de fotografías de San Francisco, David Gallagher, descubrió un tesoro inesperado mientras ordenaba las pertenencias de su vecino recientemente fallecido. Entre cajas de recuerdos, álbumes antiguos y objetos acumulados durante toda una vida, apareció un ejemplar en excelente estado de California and the West, la célebre obra de 1940 creada por los fotógrafos Edward Weston y Charis Wilson Weston. El libro, una primera edición, llevaba décadas oculto, como si hubiera estado hibernando a la espera de reaparecer. Lo sorprendente llegó al inspeccionar la tarjeta de préstamo: el ejemplar había sido sacado de la biblioteca en 1949 y jamás devuelto. Setenta y seis años de retraso que lo convertían en un auténtico récord de “morosidad literaria”.

En otro tiempo, semejante demora habría sido sinónimo de una multa gigantesca. Basta hacer el cálculo: diez centavos por día, acumulados durante más de siete décadas, habrían generado una cantidad capaz de asustar a cualquiera. El total rondaría los casi tres mil dólares, una cifra que convertiría la devolución del libro en un gesto casi heroico. Sin embargo, la sorpresa fue otra: no había deuda alguna. No existía sanción pendiente. Desde 2019, la San Francisco Public Library había eliminado todas las multas por retrasos, adoptando un nuevo modelo de relación con sus usuarios, más amable, inclusivo y centrado en el acceso universal.

La decisión de suprimir las multas no nació del capricho, sino de una reflexión profunda sobre el papel social de las bibliotecas. Durante años, las sanciones económicas habían funcionado como una barrera silenciosa pero poderosa: castigaban más a quienes menos tenían, generaban vergüenza en quienes se retrasaban y hacían que miles de personas dejaran de volver a la biblioteca por miedo a enfrentarse a cargos que no podían asumir. La institución entendió que su misión no era penalizar, sino garantizar que la cultura y el conocimiento estuvieran al alcance de todos. Recuperar un libro prestado debía ser un acto normal, no una fuente de ansiedad.

Por eso, cuando el viejo ejemplar de California and the West cruzó de nuevo las puertas de la biblioteca, el gesto fue recibido no con reproches, sino con alegría. Para el personal, la devolución simbolizaba exactamente lo que buscaban con esta política: que incluso los usuarios que arrastraban retrasos imposibles se sintieran bienvenidos y libres de devolver aquello que, en el fondo, siempre perteneció a la comunidad. El hallazgo, además de anecdótico y pintoresco, sirvió como recordatorio de que una biblioteca que no castiga es una biblioteca que recupera historias, libros y también a sus lectores.

Guía básica de procesos editoriales

Universidad Nacional de Colombia. Guía básica de procesos editoriales. Bogotá, D. C.: Editorial Universidad Nacional de Colombia, 2018.

Texto completo

La Guía básica de procesos editoriales es un documento oficial de la Editorial Universidad Nacional de Colombia, publicado en 2018, que detalla las normativas, requisitos y el flujo de trabajo para la publicación de obras, principalmente libros, dentro de la institución


La guía está dirigida a las unidades editoras y a cualquier persona interesada en publicar con la Universidad Nacional de Colombia, incluyendo docentes, funcionarios, administrativos y estudiantes que posean la titularidad de los derechos patrimoniales de autor. Los requisitos iniciales para postular un manuscrito incluyen una carta de presentación y una copia final del documento en medio magnético. Una vez recibido, el manuscrito debe pasar por la elaboración del concepto editorial y la indispensable evaluación de pares académicos externos en modalidad de doble ciego (mínimo dos y máximo tres), siendo un requisito clave para decidir la viabilidad de la publicación.

El documento establece los requisitos mínimos de estructura que debe cumplir el manuscrito para su presentación, dividiéndolos en preliminares (portada, tabla de contenido, prefacio), cuerpo del texto (introducción, capítulos, conclusiones) y finales (anexos, glosario, bibliografía o lista de referencias)

El procedimiento básico de publicación se desglosa en 23 pasos, iniciando con la presentación del manuscrito y culminando con la recepción y revisión del tiraje y la posterior elaboración de la resolución de distribución. Este proceso cubre desde la corrección de estilo y la diagramación, la revisión de pruebas por el autor, hasta la gestión de la impresión y la consolidación de la página legal.

El papel de la Inteligencia Artificial en la investigación científica: una perspectiva científica para las políticas europeas

Purificato, E., D. Bili, R. Jungnickel, V. Ruiz Serra, J. Fabiani, K. Abendroth Dias, D. Fernandez Llorca, y E. Gomez. 2025. The Role of Artificial Intelligence in Scientific Research: A Science for Policy, European Perspective. Luxemburgo: Oficina de Publicaciones de la Unión Europea. doi:10.2760/7217497. JRC143482.

Texto completo

La Inteligencia Artificial (IA) está transformando fundamentalmente el proceso científico en todas sus etapas, desde la generación de hipótesis y el diseño experimental hasta el análisis de datos, la revisión por pares y la difusión de resultados. Este informe del Centro Común de Investigación (JRC) de la Comisión Europea proporciona un análisis científico y técnico clave para fundamentar la Estrategia Europea para la IA en la Ciencia. La IA, impulsada por técnicas como el Aprendizaje Automático (ML), el Aprendizaje Profundo (DL) y la IA Generativa (GenAI), tiene el potencial de acelerar drásticamente los descubrimientos, fomentar la colaboración interdisciplinaria y mejorar la reproducibilidad en áreas críticas para la Unión Europea, como la salud, el cambio climático y las tecnologías limpias.

La IA se posiciona como un «científico co-asistente» a lo largo del ciclo de investigación. En la fase inicial, ayuda a acelerar el análisis de la literatura y a identificar lagunas de conocimiento, lo que facilita la formulación de hipótesis novedosas. En la fase experimental, permite el diseño automatizado de experimentos y la simulación, evolucionando hacia los «laboratorios autónomos» (self-driving labs). El ejemplo de AlphaFold en la predicción de estructuras proteicas es citado como un hito que demuestra el poder transformador de la IA en la aceleración de la verificación de hipótesis biológicas. Además, la IA es crucial en el procesamiento de datos masivos, ya que puede analizar vastos conjuntos de datos multimodales para detectar patrones y realizar descubrimientos en genómica, astronomía y otras ciencias computacionales que superan la capacidad de análisis humano. En la etapa de comunicación, las herramientas de IA son cada vez más utilizadas para la redacción científica, la edición, la visualización de datos y la superación de barreras idiomáticas.

A pesar de sus promesas, la integración de la IA en la ciencia conlleva desafíos importantes que requieren una gobernanza robusta. Los principales riesgos identificados incluyen el sesgo algorítmico, la posible proliferación de «alucinaciones» e información fabricada, la erosión potencial de las habilidades de pensamiento crítico y un fenómeno denominado deriva epistémica. Esta deriva describe la tendencia de la tecnología a reforzar inadvertidamente los paradigmas de investigación existentes, lo que podría limitar la diversidad de las preguntas científicas exploradas o separar las conclusiones científicas de una supervisión humana crítica. Para afrontar estos riesgos y maximizar los beneficios de la IA, el informe propone tres áreas principales de acción política:

(1) Fomentar los principios de la ciencia abierta (datos, modelos e infraestructura abiertos) para garantizar la reproducibilidad y la confiabilidad.

(2) Realizar una inversión estratégica en infraestructura de Computación de Alto Rendimiento (HPC), ‘Fábricas de IA’ y repositorios de datos científicos abiertos.

(3) Impulsar el desarrollo de un nuevo conjunto de habilidades en los investigadores, promoviendo equipos «híbridos» que combinen experiencia en el dominio científico con métodos avanzados de IA y ciencia de datos.

¿Quién es el propietario de qué en lo que respecta a la IA y la propiedad intelectual?

Sharma, Seemantani. 2025. “Who owns what when it comes to AI and intellectual property?World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/intellectual-property-ai-human-creativity-ownership/

La cuestión de si las creaciones generadas por inteligencia artificial (IA) pueden considerarse objeto de propiedad intelectual, cuestionando si una IA puede ser reconocida como “autora” o “inventora”. Señala que los sistemas actuales de IA, por más sofisticados que sean, no tienen conciencia, experiencia subjetiva ni intencionalidad, lo que —según las teorías tradicionales de derechos de autor y patentes— impide que sean titulares de derechos.

La IA ya genera arte, diseña medicamentos e imita la imaginación humana. Esto plantea una pregunta fundamental. ¿Quién, si es que hay alguien, es el verdadero propietario de estas creaciones? ¿Se puede considerar a la IA como autora o inventora? ¿O los derechos pertenecen exclusivamente a los seres humanos?

Históricamente, los regímenes de propiedad intelectual (derechos de autor, patentes, marcas) se han fundamentado en la idea de creatividad humana: un autor humano ejerce un trabajo intelectual que refleja su personalidad, identidad o esfuerzo mental. Como una máquina no realiza ese tipo de “labor” en sentido humano —no tiene un “yo”, emociones o conciencia—, la ley hasta ahora considera que los resultados generados por IA pertenecen, en última instancia, a personas humanas, si es que hay un autor humano que haya intervenido.

El artículo destaca que muchas de las creaciones producidas por IA —arte, diseños, descubrimientos— pueden ser sorprendentes y funcionales, pero carecen del contexto emocional, intencional y experiencial que caracteriza la creatividad humana. Por tanto, aunque la IA pueda “producir” cosas, no puede reemplazar la acción creativa humana. En consecuencia, seguir otorgando la autoría a seres humanos protege la responsabilidad, la dignidad, la identidad y la justicia en el reconocimiento del trabajo intelectual.

Sin embargo, los autores del artículo advierten de que la creciente sofisticación de la IA y su uso masivo para generar contenido plantea un desafío real al marco legal tradicional. Podría ser necesario repensar la noción de propiedad intelectual: considerar modelos de propiedad compartida, nuevas categorías legales o marcos normativos que reconozcan la colaboración entre humanos y máquinas, sin perder de vista la protección de los derechos humanos y creativos. La decisión que tomemos hoy definirá el futuro de la autoría, la innovación y el valor de la creatividad en la era de la IA.

La IA llegará a consumir hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

CNET. 2025. “AI Is the ‘Biggest Driver’ of Electricity Use in North America, a New Energy Report Shows.CNET, octubre 2025. https://www.cnet.com/tech/services-and-software/ai-is-the-biggest-driver-of-electricity-use-in-north-america-a-new-energy-report-shows/

La demanda de electricidad en Norteamérica está siendo impulsada de forma creciente por la expansión de centros de datos dedicados a la inteligencia artificial (IA). Según un nuevo informe citado por CNET, se proyecta que estos centros, por sí solos, puedan llegar a representar hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

Este aumento masivo del consumo no es casual: los algoritmos de IA requieren enormes recursos computacionales y un suministro constante de electricidad para alimentar GPUs de alto rendimiento, mantener servidores y sistemas de refrigeración, así como garantizar disponibilidad continua. Esa necesidad energética coloca a la IA como la “principal fuerza motriz” detrás del crecimiento de la demanda eléctrica en la región.

Esos centros de datos, que albergan miles de ordenadores para gestionar todo, desde el entrenamiento de modelos de IA hasta la respuesta a tus solicitudes de ChatGPT, Gemini y Sora, consumirán no solo megavatios de electricidad, sino también millones de galones de agua y miles de acres de tierra.

El impacto ya empieza a notarse en los sistemas energéticos: en Estados Unidos, los centros de datos representan una parte sustancial del crecimiento previsto en demanda eléctrica de aquí a 2030. Si continúa esta tendencia, la presión sobre la red eléctrica, la necesidad de más generación, infraestructura y inversiones energéticas será mayor. Eso plantea retos de sostenibilidad, pues buena parte de esta electricidad todavía proviene de fuentes fósiles, lo que implica un aumento de emisiones y de la huella ambiental ligada al “boom” de la IA.

En julio, la administración Trump publicó lo que denomina el Plan de Acción de IA de Estados Unidos, en el que insta a acelerar la construcción de centros de datos, dejando en segundo plano las cuestiones normativas. «El sistema de permisos medioambientales y otras normativas de Estados Unidos hacen que sea casi imposible construir esta infraestructura en el país con la rapidez necesaria».

Pero a pesar del rápido avance de la IA y del retroceso de la administración Trump en materia de regulaciones medioambientales en Estados Unidos, la empresa prevé que las emisiones globales se reducirán un 63 % para 2060. El informe estima que lo que está sucediendo en Estados Unidos tendrá un mayor efecto en el país, con un retraso de unos cinco años en la reducción de emisiones, y no tanto en los objetivos mundiales de energía limpia.

En definitiva —y según lo que denuncia el informe citado por CNET—, la expansión de la inteligencia artificial no es neutra en términos energéticos: su demanda creciente transforma la estructura del consumo eléctrico en Norteamérica, lo que pone en evidencia la necesidad de replantear políticas energéticas, promover el uso de energías renovables y diseñar una gobernanza de la IA que tenga en cuenta su impacto ambiental.