Archivo por meses: octubre 2025

Relación entre el uso de la inteligencia artificial (IA) y la evolución de Wikipedia

Reeves, Neal, Wenjie Yin, y Elena Simperl. “Exploring the Impact of ChatGPT on Wikipedia Engagement.” Collective Intelligence, 2025. https://doi.org/10.1177/26339137251372599

Se analiza cómo la aparición de ChatGPT ha influido en los patrones de uso y contribución en Wikipedia. Los autores investigan si el lanzamiento de esta herramienta ha alterado el comportamiento de los usuarios en cuanto a consultar, minar información o editar artículos de la enciclopedia libre.

Se examina de manera exhaustiva cómo la irrupción de la inteligencia artificial generativa —especialmente ChatGPT— ha influido en los patrones de interacción de los usuarios con Wikipedia. Su objetivo principal es determinar si el uso masivo de modelos conversacionales está desplazando el papel tradicional de la enciclopedia libre como fuente de conocimiento o, por el contrario, si ambos sistemas pueden coexistir de manera complementaria.

Los investigadores realizaron un análisis longitudinal entre 2021 y 2024, abarcando doce ediciones lingüísticas de Wikipedia. Eligieron la mitad de ellas en países donde ChatGPT está ampliamente disponible y la otra mitad en regiones donde el acceso es limitado o nulo. Este enfoque permitió comparar cómo varían el tráfico, las consultas y la actividad editorial dependiendo de la presencia o ausencia de la inteligencia artificial conversacional. Contra lo que muchos expertos predecían, los resultados no muestran un descenso generalizado en el uso de Wikipedia: en la mayoría de las ediciones analizadas, el número de visitas e incluso las contribuciones editoriales se mantuvieron estables o crecieron moderadamente.

El estudio sugiere que, lejos de sustituir a Wikipedia, ChatGPT ha reconfigurado la forma en que los usuarios se relacionan con el conocimiento digital. Muchos de ellos utilizan la inteligencia artificial para obtener respuestas rápidas o resúmenes, pero recurren a Wikipedia para verificar información, explorar en mayor profundidad los temas o consultar las fuentes originales. De este modo, se produce una relación de complementariedad más que de competencia directa. La IA actúa como una interfaz de acceso rápido al conocimiento, mientras que Wikipedia conserva su papel como repositorio abierto, verificable y colaborativo.

No obstante, los autores advierten que esta coexistencia plantea desafíos serios. Uno de los principales es el fenómeno de la toma masiva de datos (data scraping), mediante el cual las empresas que entrenan modelos de IA extraen grandes cantidades de texto de Wikipedia sin atribución explícita. Este proceso no solo genera tensiones éticas sobre la propiedad intelectual y la autoría colectiva, sino que también puede perjudicar la sostenibilidad técnica del proyecto, al incrementar la carga sobre los servidores y reducir el tráfico directo hacia la enciclopedia. Si los usuarios reciben respuestas inmediatas sin necesidad de visitar la fuente original, la comunidad editorial de Wikipedia puede perder visibilidad, participación y, en última instancia, relevancia.

El estudio también aborda el riesgo de que la inteligencia artificial difunda información derivada de Wikipedia sin el mismo rigor editorial ni el sistema de verificación comunitaria que caracteriza al proyecto. Los modelos de lenguaje no siempre reproducen el contexto o las referencias adecuadas, lo que puede conducir a distorsiones o errores. Ante esta situación, los autores abogan por establecer un nuevo marco de cooperación entre las plataformas de IA y la Fundación Wikimedia, basado en principios de transparencia, atribución y uso responsable de los datos.

Como propuesta práctica, el equipo investigador menciona la posibilidad de que los modelos de inteligencia artificial utilicen bases de datos estructuradas como Wikidata, en lugar de copiar texto plano de los artículos. Este tipo de integración permitiría a los sistemas de IA acceder a información verificable y actualizada, respetando al mismo tiempo la integridad del contenido original y reduciendo la dependencia de métodos de extracción masiva. Además, abriría la puerta a una sinergia más constructiva, en la que la inteligencia artificial contribuya a mejorar la accesibilidad y la difusión del conocimiento sin socavar las bases colaborativas sobre las que se asienta Wikipedia.

Los jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico

Liu, Yi-Ling. “Young People in China Are Embracing AI Therapy.” Rest of World, October 6, 2025. https://restofworld.org/2025/young-people-in-china-are-embracing-ai-therapy/

En los últimos años, un número creciente de jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico. Esta tendencia responde a múltiples factores: la escasez de terapeutas profesionales, los elevados costes de las consultas presenciales y el estigma social que todavía rodea a los problemas de salud mental


384 / 5.000

Casi el 80% de los hospitales generales de China carecen de servicio de psiquiatría. Conseguir citas es difícil, costoso y, en su mayoría, se paga directamente del paciente, sobre todo en las zonas rurales.

Frente a esta realidad, las aplicaciones basadas en IA ofrecen una alternativa inmediata, económica y discreta. Los chatbots terapéuticos permiten conversar en cualquier momento del día, sin cita previa y sin exponerse al juicio de otros, lo que los convierte en una opción atractiva para una generación habituada a interactuar digitalmente y a buscar soluciones rápidas a través del teléfono móvil.

Las plataformas más populares, como DeepSeek, Doubao de ByteDance, PsychSnail o Good Mood AI Companion, ofrecen funciones que van más allá del simple diálogo. Incorporan cuestionarios psicológicos, seguimiento del estado de ánimo, recomendaciones personalizadas y, en algunos casos, protocolos de emergencia que detectan palabras clave relacionadas con crisis emocionales o ideaciones suicidas. Estas herramientas se presentan como un recurso híbrido entre la autoayuda digital y la terapia guiada, con una capacidad de respuesta que, en muchos casos, supera la disponibilidad de los servicios públicos.

Entre los principales beneficios que los usuarios mencionan se encuentran la accesibilidad, el bajo coste y la sensación de anonimato. Hablar con una máquina resulta menos intimidante que hacerlo con una persona, especialmente en una cultura donde la expresión abierta de las emociones todavía se percibe como signo de debilidad. Además, algunos modelos permiten personalizar la voz o el estilo del “terapeuta virtual”, adaptándolo a figuras o tonos que el usuario percibe como reconfortantes. Sin embargo, esta flexibilidad conlleva riesgos, como la dependencia emocional hacia el chatbot o la validación irreflexiva de pensamientos negativos. Los modelos de lenguaje tienden a confirmar o empatizar con todo lo que el usuario expresa, incluso cuando esas emociones deberían ser confrontadas o encauzadas de otro modo.

El artículo de Rest of World también advierte sobre las limitaciones técnicas y éticas de estas plataformas. Aunque el gobierno chino ha desarrollado un marco regulatorio para los algoritmos generativos —que exige su registro y evaluación de seguridad—, no existen aún normas específicas para los chatbots terapéuticos. Esto deja un vacío legal en temas tan sensibles como la privacidad de los datos, la protección de usuarios vulnerables o la calidad de las intervenciones. En situaciones de crisis graves, la respuesta automatizada puede ser insuficiente o incluso peligrosa si no se conecta al usuario con asistencia humana inmediata.

Aun con estas advertencias, los testimonios recogidos en el reportaje muestran que la IA está desempeñando un papel importante en la democratización del acceso al cuidado psicológico en China. Para muchas personas jóvenes, hablar con un chatbot ha sido el primer paso hacia la comprensión y expresión de sus emociones, o incluso una manera de sentirse escuchadas en un contexto social y económico cada vez más competitivo y exigente. Sin embargo, el desafío futuro radica en encontrar un equilibrio entre la innovación tecnológica y la responsabilidad ética: aprovechar el potencial de la inteligencia artificial sin sustituir la presencia humana donde esta es insustituible.

Nuestra vida está hecha más por los libros que leemos que por la gente que conocemos

«A veces pienso que nuestra vida está hecha más por los libros que leemos que por la gente que conocemos: en los libros aprendemos, de segunda mano, qué es el amor y el dolor. Aun cuando tenemos la suerte de enamorarnos es porque nos hemos dejado influir por lo que hemos leído. Si yo no había llegado a conocer el amor, era porque en la biblioteca de mi padre faltaban los libros adecuados».

GRAHAM GREENE
Viajes con mi tía (1969)

La alfabetización en IA está emergiendo como una competencia fundamental para todos

Webber, Gerald. “The Future of AI Literacy: Why Everyone Needs to Understand Artificial Intelligence.” Page One Power, September 26, 2025. https://pageonepower.com

La inteligencia artificial (IA) ha dejado de ser exclusiva de laboratorios o industrias especializadas y se ha integrado en aulas, lugares de trabajo e interacciones cotidianas. Al igual que la alfabetización digital se volvió esencial en la era de Internet, la alfabetización en IA está emergiendo como una competencia fundamental para estudiantes, profesionales y comunidades. Ser competente en IA no se limita a usar chatbots o aplicaciones; implica comprender lo que la IA puede y no puede hacer, cómo aplicarla de manera responsable, cuestionar sus resultados y reconocer sus riesgos sin depender excesivamente de ella, todo ello sin necesidad de saber programar.

Las percepciones sobre la IA varían según la generación. Estudios recientes muestran que los jóvenes son más propensos a experimentar con herramientas de IA, mientras que los grupos mayores manifiestan cautela, preocupados por la confianza, la privacidad y las consecuencias a largo plazo. Estas diferencias afectan la aceptación de la IA en entornos educativos, laborales y en la formulación de políticas.

Para los estudiantes, la alfabetización en IA es esencial, ya que esta tecnología ya respalda la investigación, la tutoría y la colaboración. Quienes la dominan estarán mejor preparados para carreras donde el uso de herramientas de IA es habitual, al igual que la alfabetización informática benefició a generaciones anteriores. UNESCO destaca que desarrollar competencias en IA dentro de la educación contribuye a mejorar habilidades de resolución de problemas y conciencia ética.

En el ámbito laboral, empleados y líderes deben comprender la IA para adaptarse a nuevas formas de resolver problemas y tomar decisiones más informadas. La inteligencia artificial está transformando prácticas de ingeniería y gestión, aumentando la eficiencia y ampliando las estrategias de resolución de problemas. La comprensión de sus beneficios y limitaciones permite un uso responsable y reduce riesgos de malaplicación.

La alfabetización en IA también ayuda a proteger contra su uso indebido, incluyendo la desinformación y violaciones de privacidad. Comprender cómo funcionan estos sistemas permite identificar problemas, hacer preguntas críticas y responsabilizar a las organizaciones sobre su aplicación. Además, es crucial reconocer los sesgos inherentes en los datos que alimentan la IA, que pueden generar resultados injustos o engañosos. La conciencia de estos sesgos fomenta la equidad y la confianza en el uso de la tecnología. Encuestas, como la de Pew Research Center, muestran que un alto porcentaje de adultos en EE. UU. desea tener más control sobre el uso de la IA y comparte preocupaciones sobre los sesgos en sus decisiones.

A nivel nacional e internacional, la alfabetización en IA representa una ventaja competitiva. Los países que invierten en educación sobre IA preparan a sus ciudadanos para adaptarse, innovar y contribuir al crecimiento económico sostenido. La falta de estas habilidades podría dejar rezagados tanto a individuos como a naciones en la carrera global por el liderazgo tecnológico.

Microsoft alerta que la IA podría generar amenazas biológicas “zero day” indetectables por los sistemas actuales

Microsoft says AI can create ‘Zero Day’ Threats in Biology.” MIT Technology Review, 2 de octubre de 2025. https://www.technologyreview.com/2025/10/02/1124767/microsoft-says-ai-can-create-zero-day-threats-in-biology/?utm_source=flipboard&utm_content=user%2Fmittechreview

Microsoft ha identificado un riesgo significativo: la inteligencia artificial podría diseñar amenazas biológicas que los sistemas actuales de bioseguridad no logren detectar, lo que se denomina un “zero day” en biología. Esto implica que una IA podría producir versiones levemente modificadas de toxinas conocidas —o nuevas moléculas peligrosas— que escapen a los controles existentes.

Las salvaguardas actuales, como el software de detección de secuencias genéticas, se basan en compararlas con amenazas conocidas. Pero los investigadores de Microsoft demostraron que, mediante IA generativa, pueden crear variantes suficientemente alteradas para evitar que el software las marque como peligrosas, aunque mantengan su función nociva. Esto revela un desfase entre la velocidad de innovación en IA aplicada a la biología y la capacidad reguladora de las defensas actuales.

El hallazgo plantea la necesidad urgente de reforzar los mecanismos de supervisión biológica. Se sugiere incorporar estándares más estrictos, monitoreo continuo, y una reevaluación de las herramientas de detección para que sean capaces de captar tanto versiones conocidas como variantes nuevas o no anticipadas de agentes biológicos peligrosos.

¿Cómo están utilizando los organizaciones humanitarias la inteligencia artificial en 2025? Análisis de las prácticas actuales y el potencial futuro.

ReliefWeb. How Are Humanitarians Using Artificial Intelligence in 2025? Mapping Current Practice and Future Potential: Initial Insights Report, August 2025. Agosto de 2025.

Texto completo

El informe de ReliefWeb ofrece una visión detallada de cómo los actores humanitarios están adoptando la inteligencia artificial (IA) en sus operaciones, destacando tanto las prácticas actuales como el potencial futuro de esta tecnología en el ámbito humanitario. A través de una investigación exhaustiva, se identifican las áreas clave donde la IA está siendo implementada, incluyendo la recopilación y análisis de datos, la toma de decisiones en tiempo real y la mejora de la eficiencia en la distribución de recursos.

El informe también aborda los desafíos que enfrentan las organizaciones humanitarias al integrar la IA en sus procesos, tales como la necesidad de infraestructura tecnológica adecuada, la capacitación del personal y las consideraciones éticas relacionadas con el uso de datos sensibles. Además, se discuten las oportunidades que la IA ofrece para mejorar la respuesta a emergencias y la planificación a largo plazo, permitiendo una mayor personalización de la ayuda y una mejor adaptación a las necesidades cambiantes de las poblaciones afectadas.

Principales conclusiones:

  • La adopción individual impulsa la preparación organizacional: Si bien los trabajadores humanitarios adoptan rápidamente las herramientas de IA, la mayoría de las organizaciones aún se encuentran en las primeras etapas de experimentación; el 25% sigue en fase piloto y el 26% está en fase de planificación, pero aún no ha iniciado su implementación.
  • La falta de capacitación genera riesgos: El 64% de los encuestados afirma tener poca o ninguna capacitación en IA a nivel organizacional, mientras que el 73% identifica la capacitación como la necesidad de apoyo más crucial para los próximos 12-24 meses.
  • Dominio de las herramientas comerciales: El 69% utiliza plataformas de IA comerciales como ChatGPT y Claude, en lugar de soluciones humanitarias específicas.
  • Falta de gobernanza: Existe un uso generalizado de la IA sin políticas formales, ya que solo el 21% de las organizaciones cuenta con un marco de gobernanza en IA.
  • Liderazgo del Sur Global: El 75% de las respuestas provino de África subsahariana, Oriente Medio y Norte de África, y la región de Asia-Pacífico, lo que demuestra un alto nivel de compromiso e innovación en entornos con recursos limitados.

Qué sucede en el cerebro cuando lees

Phan, Vincent. “What Really Happens to Your Brain When You Read.” 1000Libraries Magazine, fecha de publicación. Consultado el día mes año. https://magazine.1000libraries.com/what-really-happens-to-your-brain-when-you-read/

Cuando leemos, no hay un solo proceso, sino varios que se activan al mismo tiempo, lo que convierte la lectura en una actividad cognitiva compleja y rica. Primero están los componentes perceptivos: reconocemos formas visuales, letras, combinaciones de letras, lo que activa áreas en los lóbulos occipitales del cerebro encargadas del procesamiento visual. Luego debemos decodificar esas formas en sonidos mentales o fonemas, incluso si leemos en silencio, lo que involucra zonas asociadas con la conciencia fonológica. A partir de ahí, aparece el procesamiento semántico: entendemos qué significan las palabras, cómo se conectan unas con otras dentro de una frase y cómo esa frase se integra en lo que sabemos del mundo y en lo que hemos leído previamente.

La lectura activa una red de regiones cerebrales. Entre ellas:

  • Áreas del hemisferio izquierdo ligadas al lenguaje (como área de Broca, giro angular, giro supramarginal) para comprender significado, estructura gramatical, y relación entre palabras.
  • Áreas visuales que transforman lo que vemos en unidades lingüísticas.
  • Regiones del cerebelo, que hasta hace poco se pensaba que solo estaban implicadas en control motor, pero se ha observado que participan también tanto en descodificar lo visual en fonético, como en algunos aspectos de la semántica —es decir, que no solo ‘leemos con los ojos’ sino que también hay coordinación con partes del cerebro relacionadas con el habla, con emoción, con planificación.

También parece que la lectura frecuente refuerza las conexiones entre estas áreas (la “materia blanca” que comunica distintas regiones cerebrales), lo que permite que el flujo de información entre visión, lenguaje, memoria y procesamiento semántico sea más fluido.

Modos de lectura

La lectura no es igual si leemos en voz alta o silenciosamente. Cuando leemos en voz alta, se activan regiones adicionales relacionadas con la producción del habla, la coordinación motora de los músculos implicados en pronunciar, y las zonas auditivas, ya que “escuchamos” nuestras propias palabras internamente.

La lectura silenciosa, por otro lado, suele depender más de los circuitos de comprensión interna, de visualización mental, del uso de la memoria de trabajo, y puede implicar menos esfuerzo motor, pero más concentración cognitiva y semántica.

Efectos a largo plazo

Leer una novela durante días seguidos puede generar cambios mesurables en cómo el cerebro está conectado incluso cuando está en reposo. Es decir, no solo estamos activando ciertas regiones mientras leemos, sino que esa actividad puede “reorganizar” redes cerebrales para que la comprensión, la imaginación, la empatía y la memoria mejoren o sean más eficientes.

Además, leer con frecuencia mejora la fluidez, la velocidad de decodificación y reconocimiento de palabras, lo que reduce el esfuerzo cognitivo, permitiendo que más recursos mentales se dediquen a la reflexión, al análisis, a la interpretación. También contribuye a enriquecer vocabulario y conocimiento previo, con lo que cada vez es más fácil entender textos nuevos y más complejos.

División de opiniones sobre el uso de inteligencia artificial generativa en la revisión por pares: desafíos y perspectivas

Holst, Faye. «Reviewers Increasingly Divided on the Use of Generative AI in Peer ReviewIOP Publishing, 10 de septiembre de 2025. https://ioppublishing.org/news/reviewers-increasingly-divided-on-the-use-of-generative-ai-in-peer-review/

Un reciente estudio global llevado a cabo por IOP Publishing (IOPP) pone de manifiesto una creciente división de opiniones entre los revisores de las ciencias físicas respecto al uso de la inteligencia artificial generativa en el proceso de revisión por pares.

En comparación con el año anterior, se observa un aumento en el porcentaje de investigadores que consideran que la IA tendrá un impacto positivo en la revisión, alcanzando el 41%, mientras que un 37% mantiene una visión negativa. Este cambio refleja una polarización cada vez más marcada dentro de la comunidad científica, evidenciando que la adopción de la IA en este ámbito genera tanto expectativas como reservas.

Actualmente, IOPP mantiene una política que prohíbe el uso de herramientas de IA en la revisión por pares, argumentando que los modelos generativos no cumplen aún con los estándares éticos, legales y académicos necesarios para garantizar la integridad del proceso. No obstante, se reconoce de manera creciente que la IA puede desempeñar un papel de apoyo, complementando la labor humana en lugar de sustituirla. De hecho, un 32% de los investigadores ha experimentado con herramientas de IA para facilitar tareas como la corrección gramatical o la mejora del flujo del texto en sus revisiones. Sin embargo, su utilización plantea desafíos importantes, especialmente en lo relacionado con la confidencialidad y la protección de datos, dado que algunos revisores cargan manuscritos completos en plataformas de IA externas, lo que incrementa los riesgos asociados a la privacidad.

El estudio también destaca diferencias significativas en la percepción de la IA según el género y la experiencia de los investigadores. Las mujeres tienden a mostrar un menor optimismo respecto al potencial de la IA en la revisión por pares, en comparación con sus colegas masculinos, lo que sugiere la existencia de una brecha de género en la valoración de estas tecnologías. Asimismo, los investigadores más jóvenes se muestran generalmente más favorables a los beneficios de la IA, mientras que los profesionales con mayor experiencia tienden a ser más escépticos y cautelosos, reflejando así un contraste generacional en la adopción de nuevas herramientas tecnológicas.

Frente a estos desafíos, IOPP propone el desarrollo de herramientas de IA que se integren directamente en los sistemas de revisión por pares, con el objetivo de asistir a revisores y editores sin comprometer la seguridad ni la integridad de la investigación. Dichas herramientas deberían diseñarse para complementar el juicio humano, en lugar de reemplazarlo, asegurando que la asistencia tecnológica respalde el proceso editorial sin generar riesgos éticos ni vulneraciones de la confidencialidad. Si se implementan de manera adecuada, estas soluciones podrían no solo atender las preocupaciones sobre privacidad y ética, sino también optimizar la eficiencia y calidad de la revisión por pares.

El vicio de comprar libros

«El vicio de comprar libros no tiene el mismo carácter que el vicio de leer en sí. Yo he conocido bibliófilos y maniacos del libro que casi no han leído en su vida más que portadas. Ni el bibliófilo ni el bibliógrafo me han interesado nunca mucho. Alguna vez, sin embargo, compré libros por pura acción de caza, cosa que me parece, sin embargo, una claudicación.»

JULIO CARO BAROJA
Los Baroja (1972)

Jisc presenta una herramienta estratégica para impulsar la transformación digital en bibliotecas universitarias

Taking Digital Transformation Forward in Your Organisation Jisc. Accedido el 9 de octubre de 2025. https://www.jisc.ac.uk/taking-digital-transformation-forward-in-your-organisation

Jisc ha lanzado una nueva herramienta estratégica llamada “Digital Transformation Library Lens”, diseñada para fortalecer el papel de las bibliotecas académicas en la transformación digital de la educación superior.

Desarrollada en colaboración con líderes bibliotecarios y organizaciones como SCONUL, RLUK y CILIP, esta herramienta ofrece una perspectiva centrada en las bibliotecas dentro del marco general de transformación digital de Jisc para universidades.

El “library lens” muestra cómo los servicios de bibliotecas y archivos contribuyen al cambio institucional en seis áreas clave:

  1. Cultura digital organizacional,
  2. Creación e innovación del conocimiento,
  3. Desarrollo del conocimiento,
  4. Gestión y uso del conocimiento,
  5. Intercambio y alianzas,
  6. Infraestructura digital y física.

Aunque las bibliotecas universitarias han sido pioneras en innovación digital —liderando ámbitos como las colecciones digitales, la comunicación científica y las competencias digitales de los estudiantes—, muchas sienten que su papel no se reconoce plenamente en los procesos institucionales de transformación digital.

La nueva herramienta busca visibilizar y potenciar su impacto mediante un enfoque estructurado y basado en evidencias, con ejemplos prácticos sobre cómo las bibliotecas pueden contribuir a:

  • Desarrollar estrategias de IA y bienestar digital,
  • Mejorar la infraestructura de investigación y las políticas de acceso abierto,
  • Cocrear entornos digitales inclusivos y espacios de aprendizaje,
  • Apoyar la toma de decisiones basada en datos y analíticas.

El “library lens” se acompaña de materiales de apoyo como un modelo de madurez digital, plantillas de planes de acción y herramientas para la implicación de actores clave.

Jisc invita a las universidades a incorporar esta herramienta en su planificación estratégica y está colaborando con siete bibliotecas universitarias piloto, cuyos resultados se publicarán en 2026. Además, anima a los líderes universitarios y directores de bibliotecas a unirse al grupo de trabajo y explorar los recursos del Digital Transformation Toolkit.